traduit à partir de http://www.kent-hovind.com/baloney.htm) par Michel Roudot
En science nous pouvons commencer par des résultats, des données, des observations, des mesures, des 'faits' expérimentaux. Nous inventons, si nous pouvons, un riche ensemble d'explications possibles et confrontons systématiquement chaque explication avec les faits. Au cours de leur formation, les scientifiques sont équipés d'un kit de détection d'idioties. Le kit est considéré comme allant de soi chaque fois que de nouvelles idées sont considérées. Si la nouvelle idée réchappe de l'examen par les outils de notre kit, elle a droit à une chaude, bien qu'expérimentale, acceptation. Si vous avez une telle inclination, si vous ne voulez pas acheter des balivernes même quand il est rassurant de le faire, il y a des précautions qui peuvent être prises; il y a une méthode infaillible, testée par le consommateur.
Qu'est-ce qu'il y a dans le kit ? Des outils pour la pensée sceptique.
Ce qu'on entend par pensée sceptique est le moyen de construire, et comprendre, une argumentation raisonnée et, particulièrement important, de reconnaître un argument fallacieux ou frauduleux. La question n'est pas de savoir si nous aimons la conclusion qui émerge d'un train de raisonnement, mais si la conclusion qui émerge d'un train découle de la prémisse de départ et si cette prémisse est vraie.
Parmi les outils :
Chaque fois que possible il doit y avoir une confirmation indépendante des "faits".
Encouragez un débat substantif sur la preuve par des partisans bien informés de tous les points de vue.
Les arguments d'autorité n'ont que peu de poids - les "autorités" ont fait des erreurs dans le passé. Ils en feront de nouveau dans l'avenir. Une meilleure façon de le dire est peut-être qu'en science il n'y a aucune autorité; au mieux, il y a des experts.
Lancez plus d'une hypothèse. S'il y a quelque chose à expliquer, pensez à toutes les façons différentes dont on pourrait l'expliquer. Pensez alors aux tests par lesquels vous pourriez systématiquement réfuter chacune des possibilités. Ce qui survit, l'hypothèse qui résiste à la réfutation dans cette sélection Darwinienne parmi des "hypothèses de travail multiples," a une bien meilleure chance d'être la réponse juste que si vous aviez simplement fonçé avec la première idée qui vous a plu.
Essayez de ne pas être excessivement attaché à une hypothèse juste parce que c'est la vôtre. C'est seulement un relais d'étape dans la poursuite de la connaissance. Demandez vous pourquoi vous aimez l'idée. Comparez-la impartialement avec les alternatives. Voyez si vous pouvez trouver des raisons de la rejeter. Si vous ne le faites pas, d'autres le feront.
Quantifiez. Si quoi que ce soit que vous expliquez a une certaine mesure, une certaine quantité numérique attachée, vous serez beaucoup plus capable de discriminer des hypothèses concurrentes. Ce qui est vague et qualitatif est ouvert à beaucoup d'explications. Bien sûr il y a les vérités qu'on doit chercher dans les nombreux problèmes qualitatifs auxquels nous sommes obligés de nous confronter, mais les découvrir est plus difficile.
S'il y a une chaîne d'arguments, chaque chaînon doit être exact (y compris la prémisse) - pas seulement la plupart d'entre eux.
Le rasoir d'Occam. Cette règle pratique nous recommande quand nous sommes face à deux hypothèses qui expliquent également bien les données de choisir la plus simple. [Plus simple = la conclusion qui a besoin du plus petit nombre de propositions non prouvées]
Demandez vous toujours si l'hypothèse peut, au moins en principe, être réfutée. Les propositions qui sont intestables, irréfutables ne valent pas grand chose. Considérez l'idée grandiose que notre Univers et tout ce qu'il contient ne sont qu'une particule élémentaire - un électron, disons - dans un Cosmos beaucoup plus grand. Mais si nous ne pouvons jamais acquérir d'information sur l'extérieur de notre Univers, n'est on pas incapable de réfuter cette idée ? Vous devez être capables de vérifier les affirmations. Vous devez donner aux sceptiques invétérés l'occasion de suivre votre raisonnement, de faire un double de vos expériences et de voir s'ils obtiennent le même résultat.
L'appui sur des expériences soigneusement conçues et contrôlées est la clef, comme j'ai essayé de le souligner plus haut. Nous n'apprendrons pas beaucoup de la simple contemplation. Il est tentant de se reposer content de la première explication candidate à laquelle nous pouvons penser. Une est beaucoup mieux que aucune. Mais qu'arrive-t-il si nous pouvons en inventer plusieurs ? Comment décidons-nous entre elles ? Nous ne le faisons pas. Nous laissons l'expérience le faire. Francis Bacon a donné la raison classique :
"L'argumentation ne peut pas suffire pour la découverte de nouveau travail, car la subtilité de Nature est plus grande plusieurs fois que la subtilité de l'argument. "
Les expériences de contrôle sont essentielles. Si, par exemple, un nouveau remède prétend guérir une maladie dans 20 pour cent des cas, nous devons nous assurer qu'une population de contrôle, prenant une pilule factice de sucre qui pour ce que les sujets en savent pourrait être le nouveau médicament, n'éprouve pas aussi une rémission spontanée de la maladie dans 20 pour cent des cas.
Les variables doivent être séparées. Supposons que vous ayez le mal de mer et qu'on vous donne à la fois un bracelet de shiatsu et 50 milligrammes de meclizine. Vous constatez que le caractère désagréable disparaît. Qu'est-ce qui en est la cause - le bracelet ou la pilule ? Vous ne pouvez le dire que si vous prenez l'un sans l'autre, la prochaine fois que vous avez le mal de mer. Imaginez maintenant que vous n'avez pas l'esprit assez scientifique pour désirer avoir le mal de mer. Alors vous ne séparerez pas les variables. Vous prendrez les deux remèdes de nouveau. Vous avez atteint le résultat pratique désiré; la connaissance supplémentaire, pourriez vous dire, ne vaut pas l'inconfort de l'obtenir.
Souvent l'expérience doit être faite en "double aveugle", pour que ceux qui espérent un certain résultat ne soient pas dans la position potentiellement compromettante d'évaluer les résultats. Dans le test d'un nouveau médicament, par exemple, vous pourriez vouloir que les médecins qui déterminent quels sont les patients dont les symptômes sont soulagés ne sachent pas à qui on a donné le nouveau remède. Cette connaissance pourrait influencer leur décision, même si ce n'est qu'inconsciemment. Au lieu de cela la liste de ceux qui ont éprouvé une rémission de leurs symptômes peut être comparée avec la liste de ceux qui ont obtenu le nouveau médicament, chacune étant établie indépendamment. Ensuite vous pouvez déterminer quelle corrélation existe. Ou dans la conduite d'un contrôle de police ou identification de photo, le policier responsable ne devrait pas savoir qui est le suspect principal, afin de ne pas influencer consciemment ou inconsciemment le témoin.
En plus de nous apprendre que faire en évaluant une prétendue connaissance, tout bon kit de détection de balivernes doit aussi nous apprendre quoi ne pas faire. Il nous aide à reconnaître les erreurs de logique et de rhétorique les plus communes et périlleuses. Beaucoup de bons exemples peuvent être trouvés dans la religion et la politique, parce que leurs praticiens sont si souvent obligés de justifier deux propositions contradictoires. Parmi ces erreurs on trouve :
Ad hominem - latin pour "à l'homme," attaquer l'argumentateur et pas l'argument (par exemple L'abbé Dupont est un chrétien fondamentaliste notoire, donc ses objections sur l'évolution n'ont pas à être prises au sérieux).
Argument d'autorité (par exemple, Le Président Richard Nixon devrait être réélu parce qu'il a un plan secret pour finir la guerre en Asie du Sud-Est - mais comme il était secret, il n'y avait aucun moyen pour l'électorat de l'évaluer sur ses mérites; l'argument revenait à lui faire confiance parce qu'il était le Président; une erreur, comme on l'a vu ensuite).
Argument des conséquences défavorables (par exemple, l'accusé dans un procès d'assises largement médiatisé doit être reconnu coupable; sinon, ce sera un encouragement pour d'autres hommes d'assassiner leur femme).
Appel à l'ignorance - l'affirmation selon laquelle ce qui n'a pas été prouvée faux doit être vrai et vice versa (par exemple, il n'y a aucune preuve absolue que des OVNI ne visitent pas la Terre; donc les OVNI existent - et il existe une vie intelligente ailleurs dans l'Univers. Ou : il peut y avoir soixante-dix kazillion d'autres mondes, mais on n'en connaît aucun qui a l'avancement moral de la Terre, donc nous sommes toujours le centre de l'Univers.) Cette impatience envers l'ambiguïté peut être critiquée par l'expression : l'absence de preuve n'est pas la preuve de l'absence.
Plaider le cas particulier, souvent pour sauver une proposition en profonde difficulté rhétorique (par exemple, comment un Dieu charitable peut-il condamner des générations futures à la douleur parce que, contre ses ordres, une femme a incité un homme à manger une pomme ? Réponse : vous ne comprenez pas la Doctrine subtile du Libre Arbitre. Ou : comment peut il y avoir un Père, un Fils et un Saint-Esprit également divins dans la même Personne ? Réponse : vous ne comprenez pas le Mystère Divin de la Trinité. Ou : Comment Dieu pourrait-il permettre aux disciples du Judaïsme, du Christianisme et de l'Islam - enjoints chacun à leur propre façon à des mesures héroïques de bonté et de compassion - d'avoir commis tant de cruautés pendant si longtemps ? Réponse : vous ne comprenez de nouveau pas le Libre Arbitre. Et de toute façon, les voies de Dieu sont impénétrables).
Question qui s'impose, aussi appelé présumer la réponse (par exemple, nous devons instituer la peine de mort pour décourager les crimes de sang. Mais le taux de crimes de sang chute-t-il vraiment quand la peine de mort est imposée ? Ou : la bourse a chuté hier à cause d'un ajustement technique et d'une prise de bénéfices par des investisseurs - mais y a-t-il une preuve indépendante du rôle causal de "l'ajustement" et de la prise de bénéfices; avons-nous appris quoi que ce soit de cette prétendue explication ?).
Sélection des observations, aussi appelée énumération des circonstances favorables, ou comme l'a décrit le philosophe Francis Bacon compter les touches et oublier les ratés (note de bas de page) (par exemple, un État se vante des Présidents qu'il a produits, mais est silencieux sur ses tueurs en série).
Statistique des petits nombres - un parent proche de la sélection des observation (par exemple, "ils disent qu'une personne sur cinq est chinoise. Comment est ce possible ? Je connais des centaines des gens et aucun d'eux n'est chinois." Ou : "j'ai sorti trois sept de suite. Ce soir je ne peux pas perdre.")
Incompréhension de la nature des statistique (par exemple, le Président Dwight Eisenhower exprimant de l'étonnement et de l'inquiétude en découvrant que la moitié de tous les Américains a une intelligence au-dessous de la moyenne!).
Inconséquence (par exemple, planifier par prudence en fonction du pire dont un adversaire militaire potentiel est capable, mais ignorer par économie des projections scientifiques sur les dangers environnementaux parce qu'ils ne sont pas "prouvés". Ou : attribuer la baisse de l'espérance de vie dans l'ancienne Union Soviétique aux échecs du communisme il y a de nombreuses années, mais ne jamais attribuer le taux élevé de mortalité infantile aux Etats-Unis (maintenant le plus important de toutes les principales nations industrielles) aux échecs du capitalisme. Ou : Considérer raisonnable que l'Univers continue à exister pour toujours dans l'avenir, mais juger absurde la possibilité qu'il ait une durée infinie dans le passé).
Non sequitur - latin pour "Il ne suit pas" (par exemple, notre nation vaincra parce que Dieu est grand. Mais presque toutes les nation prétendent cela; la formulation des allemands était "Gott mit uns"). Souvent ceux qui tombent dans l'erreur du non sequitur n'ont simplement pas été capables d'identifier des possibilités alternatives.
Post hoc, ergo propter hoc - latin pour "c'est arrivé après, donc ça a été causé par" (par exemple, le Cardinal Jaime Sin, Archevêque de Manille : "je connais ... une femme de 26 ans qui en paraît 60 parce qu'elle prend la pilule." Ou : avant que les femmes ne votent, il n'y avait pas d'arme nucléaire).
Question sans signification (par exemple, Qu'est ce qui arrive quand une force irrésistible rencontre un objet qui ne peut être déplacé ? Mais s'il existe quelque chose comme une force irrésistible il ne peut y avoir d'objet qu'on ne peut déplacer et vice versa).
Milieu exclu, ou fausse dichotomie - ne considérer que les deux extrêmes dans un continuum de possibilités intermédiaires (par exemple, "évidemment, prends son parti; mon mari est parfait; j'ai toujours tort." Ou : "soit vous aimez votre pays soit vous le détestez." Ou : "si vous ne faites pas partie de la solution, vous faites partie du problème").
Court terme contre long terme - un sous-ensemble du milieu exclu, mais si important que je l'ai extrait pour y porter une attention particulière (par exemple, nous n'avons pas les moyens de nous permettre des programmes pour nourrir les enfants sous-alimentés et éduquer les gamins préscolaires. Il faut traiter d'urgence la criminalité dans les rues. Ou : pourquoi explorer l'espace ou faire de la science fondamentale quand nous avons un déficit budgétaire aussi énorme ?).
Pente glissante, apparentée au milieu exclu (par exemple, si nous permettons l'avortement pendant la première semaine de grossesse, il sera impossible d'empêcher de tuer un enfant né à terme. Ou, au contraire : si l'état interdit l'avortement même au neuvième mois, il nous dira bientôt que faire de nos corps autour du temps de conception).
Confusion de corrélation et de causalité (par exemple, une enquête montre qu'il y a plus de diplômés de l'université que de personnes moins éduquées parmi les homosexuels; donc l'éducation rend gai. Ou : les tremblements de terre des Andes sont corrélés avec les approches de la planète Uranus; donc - malgré l'absence d'une telle corrélation pour la planète Jupiter, plus proche et plus massive - celles ci causent ceux là).
Homme de paille - caricaturer une position pour la rendre plus facile à attaquer (par exemple, les scientifiques supposent que les êtres vivants se sont simplement formés par hasard - une formulation qui ignore volontairement la vision centrale Darwinienne, selon laquelle la Nature progresse pas à pas en conservant ce qui marche et en rejetant ce qui ne marche pas. Ou - et c'est aussi une erreur court-terme/long-terme - les écologistes s'inquiêtent plus pour (mettre ici la dernière espèce menacée par une implantation industrielle) que pour les gens).
Preuve supprimée, ou demi-vérités (par exemple, une "prophétie" étonnamment précise et largement citée de la tentative d'assassinat contre le Président Reagan passe à la télévision; mais - détail important - a-t-elle été enregistrée avant ou après l'événement ? Ou : ces abus du gouvernement exigent une révolution, même si on ne peut pas faire d'omelette sans casser des oeufs. Oui, mais est il probable que ce soit une révolution dans laquelle beaucoup plus de gens sont tuées que sous le régime précédent ? Qu'est ce que l'expérience d'autres révolutions suggère ? Toutes les révolutions contre des régimes oppressifs sont elles désirables et dans les intérêts du peuple ?)
Mots vides de sens (par exemple, la séparation des pouvoirs de la Constitution américaine spécifie que les Etats-Unis ne peuvent pas conduire une guerre sans une déclaration du Congrès. D'autre part, les Présidents ont le contrôle de la politique étrangère et de la conduite des guerres, qui sont des outils potentiellement puissants pour obtenir leur réélection. Les présidents de l'un ou l'autre parti politique peuvent donc être tentés d'arranger des guerres en agitant le drapeau et en appelant les guerres d'un autre nom - "actions de police", "incursions armées", "frappes de réaction protectrices", "pacification", "protection des intérêts américains" et une large variété "d'opérations", comme "l'Opération Cause Juste". Les euphémismes pour la guerre font partie d'une large classe de réinventions du langage dans des buts politiques. Talleyrand disait, "un art important des politiciens est de trouver de nouveaux noms pour les institutions qui sous leurs anciens noms sont devenues odieuses au peuple").
Connaître l'existence de telles erreurs logiques et rhétoriques arrondit notre boîte à outils. Comme tous les outils, le kit de détection de balivernes peut être employé improprement, appliqué hors contexte, ou même employé comme une alternative automatique à la pensée. Mais appliqué judicieusement, il peut faire toute la différence dans le monde - et en particulier en évaluant nos propres arguments avant que nous ne les présentions à d'autres.
Mon exemple préféré est cette histoire, sur le physicien italien Enrico Fermi, nouvellement arrivé sur les rivages américains, enrôlé dans le projet Manhattan d'armes nucléaire et mis face à face au milieu de la Deuxième Guerre mondiale avec des officiers américains :
Untel est un grand général, lui dit on.
"Quelle est la définition d'un grand
général ?" demanda Fermi de
façon caractéristique.
"Je suppose que c'est un général
qui a gagné beaucoup de batailles
consécutives"
"Combien ?"
Après quelques allers et retours ils
s'accordèrent sur cinq.
"Quelle proportion des généraux
américains sont grands ?"
Après quelques autres allers et retours, ils
s'accordèrent sur quelques pour cent.
Mais imaginez, répliqua Fermi, qu'il n'y ait rien de tel qu'un grand général, que toutes les armées sont équivalentes et que gagner une bataille soit purement une question de hasard. Alors la probabilité de gagner une bataille est de une sur deux, ou 1/2; deux batailles 1/4, trois 1/8, quatre 1/16 et cinq batailles consécutives 1/32, ce qui fait environ trois pour cent. Vous attendriez que quelques pour cent des généraux américains gagnent cinq batailles consécutives, purement par hasard. Maintenant est ce qu'il y en a qui ont gagné dix batailles consécutives ..... ?
[1] Sagan, C. 1997, The Demon-Haunted World, Headline Book Publishing, London.