in

La falsifiabilité des théories scientifiques est-elle un argument ultime contre la religion?

Première partie

Introduction
La conception selon laquelle la science est basée sur l’expérience a été radicalisée par une philosophie dont le chef de file est Karl Popper. Sa philosophie s’intitule réfutabilité et qui n’est qu’un avatar du positivisme. Une théorie scientifique doit être réfutable par l’expérience ou n’être pas scientifique. Une telle philosophie est utilisée aujourd’hui pour dépeindre la religion ou l’existence de Dieu comme irréfutables donc non-scientifiques. Le problème est que si des domaines comme la religion ou la métaphysique sont déclarées infalsifiables, ils deviennent dénués de sens et placés hors du savoir entendu comme valides ex cathedra.
Ce qui est problématique avec cette façon de voir est quelle entraîne l’établissement d’une ligne de démarcation nette entre la science et ce qui n’est pas la science. Dans son livre « Logique de la découverte scientifique[1] » Popper se pose la question : Quel critère permet de distinguer une théorie scientifique d’une théorie qui ne l’est pas ? Comment, en fait, distinguer la science des                 « pseudosciences » En fait, son interrogation traduit à l’évidence une question plus précise : Qu’elle est des trois domaines de connaissances (le marxisme, la psychanalyse, la théorie de la relativité d’Einstein), celui qui peut bénéficier de ce critère de scientificité. Selon lui, la théorie de la relativité l’emporte, car elle seule est falsifiable, c’est-à-dire qu’elle est sujette à des vérifications et à des tests susceptibles de la réfuter.
Si nous extrapolons cette affirmation, nous arrivons à la conclusion suivante : une théorie scientifique donnée ne doit jamais contenir des concepts qui ne se prêtent pas à la falsification (la réfutation). Elle ne doit pas également prendre comme référence ou s’identifier par rapport à des théories ou des connaissances infalsifiables.
Popper qualifia la psychanalyse, par exemple, comme non scientifique, parce que ses assertions et ses concepts, comme l’inconscient, ne sont tout simplement pas réfutables, c’est-à-dire soumis à des tests susceptibles de les réfuter.
S’il existe des assertions infalsifiables, la théorie cesse d’être scientifique.
On va montrer d’abord dans cet article que la philosophie de Popper est contradictoire avec une philosophie beaucoup plus structurée et ancienne que la sienne qui est celle du Cercle de Vienne et qui fut une source d’inspiration pour lui. Ensuite, on va critiquer l’approche de Popper en dévoilant l’absence dans sa philosophie d’une explication du mécanisme sous-jacent à la réfutation et à la testabilité. Dans une troisième étape, on va donner des exemples de concepts scientifiques qui ne sont pas entièrement falsifiables bien que notre propos n’est tant de remettre en cause le rôle de l’expérience ou la falsifiabilité en tant que tel. Puis on va entrer dans les détails et montrer qu’aussi bien en mécanique quantique qu’en mécanique classique, la réfutabilité n’est pas toujours un critère décisif et inévitable. L’une des raisons de cette situation et la supériorité de la théorie sur l’expérience qui se manifeste parfois dans les sciences. Enfin, la réfutabilité de Popper est décrite comme un simple résultat du positivisme qui est une doctrine insatisfaisante pour les sciences.

  1. Première critique de la réfutabilité de Karl Popper : à l’origine de la philosophie analytique ce concept n’existait pas

L’approche de Popper n’est pas cohérente avec une philosophie dominante qui a marqué de son empreinte le XXe siècle. Cette philosophie appelée empirisme logique n’est pas, contrairement à ce qu’on pourrait penser, basée sur l’expérimentation. Selon elle, il existe  des sciences formelles qui ne font appel à aucune donnée de l’expérience et se manifestent uniquement par la signification des énoncés qui y sont contenus.
Cette particularité est liée aux sciences du langage. Le langage à une signification propre et la philosophie du langage a connu un progrès spectaculaire. Cette nouvelle vision a eu une conséquence importante : les empiristes logiques établissent une ligne de démarcation nette entre les sciences formelles et les sciences empiriques.
La théorie devient un ensemble de propositions articulées par des relations logiques et théoriques. Les empiristes logiques insistent sur cette particularité des sciences formelles étant donné leur engouement pour le langage et pour les énoncés logiquement structurés. Un énoncé logiquement structuré est doté de signification.
De ce fait, Rudolph Carnap et Moritz Schlick ont accordé aux concepts formels de la physique comme l’espace et le temps, la symétrie, les constantes physiques et la causalité une autonomie conceptuelle indépendante de l’expérience[2].
Ce n’est pas l’expérience qui détermine la valeur cognitive de ces concepts et l’empirisme logique a entamé une rupture avec l’expérience de manière radicale. L’expérience ne devient plus avec cette philosophie un ensemble de données empiriques qui permettent de confirmer ou d’infirmer les propositions théoriques auxquelles elles sont rapprochées par des relations individualisées mais seulement des informations observationnelles isolées qui ne font plus le poids devant les concepts théoriques.
Ces concepts sont non seulement formels mais sont en plus établis par un système de règles fixées par une démarche conventionnelle, c’est-à-dire purement théorique. Les informations observationnelles n’ont de signification qu’à l’aide de ces concepts théoriques qui deviennent les éléments majeurs de la science. Mais à ce niveau de la démonstration des philosophes du cercle de Vienne, on est tenté de s’interroger : comment ces derniers voient les relations entre les concepts théoriques formels et l’expérience ? A ce propos, Carnap a inventé les règles de correspondance entre les énoncés théoriques et les informations observationnelles.
Par ailleurs, ces philosophes ont eu recours au concept de vérificationnisme qui est à la base de la validation des concepts théoriques. Là, deux groupes de philosophes se sont séparés : le premier estime que la vérification ne devient possible que si l’énoncé théorique possède une structure logique et cohérente conformément aux principes de la philosophie analytique[3].
Quant au deuxième groupe, il restitue les données observationnelles comme base de la vérification des énoncés théoriques.
Toutefois, un grand dissident du Cercle de Vienne, Karl Popper va mettre l’accent sur la relation déductive entre les axiomes théoriques et les tests de l’expérience. Si une théorie n’est pas testée, elle n’est pas scientifique.
Popper devient ainsi le dernier plus grand empiriste de la longue aventure empirique qui a débuté dès l’âge classique pour se terminer dans les contradictions et les incertitudes de l’empirisme logique du Cercle de Vienne.Popper affirme qu’on ne peut parvenir à la vérité des théories à partir des prémisses. Selon lui, des termes comme « vérité » ne sont pas définitifs ou décisifs mais relativement à la « réfutabilité ». Popper conclut que l’induction n’existe pas. Il est, selon lui, illusoire de croire que l’accumulation de preuves favorables à la confirmation d’une hypothèse puisse augmenter la probabilité que cette hypothèse soit « vraie ». Toute théorie, d’après lui, est confrontée au risque de la réfutation.
À cet égard, il aborde le dogme expérimental sous un angle précis, celui de la « testabilité ». Selon Popper, la science se passe de l’induction parce qu’elle ne peut pas chercher des connaissances définitives et parce que l’expérience possède un pouvoir de réfutation sur toutes ces connaissances.
Une assertion « universelle » du type : « tous les corbeaux sont noirs » est en fait impossible à confirmer car il faudrait une infinité d’observations. Il suffirait, par contre, d’une seule et unique observation pour la réfuter.
Ce « faillibilisme » joue sur l’asymétrie entre vérification et réfutation (il est plus facile de réfuter que de confirmer) pour proposer une nouvelle façon de voir : on doit ainsi procéder par une suite d’éliminations successives. C’est-à-dire en formulant plusieurs théories et en réfutant ensuite certaines par l’expérience. Celles qui survivraient à ces tests, c’est-à-dire, celles qui a priori étaient réfutables par ces expériences et qui cependant survivent, en acquièrent une légitimité. Mais on peut en fait contourner ce mécanisme.

  1. Deuxième critique : l’absence d’un mécanisme à la réfutabilité et le mythe de la falsifiabilité

À l’asymétrie entre vérification et réfutation (il est plus facile de réfuter que de confirmer), on propose qu’il existe des données empiriques précises et individuelles qui confirment des hypothèses théoriques alors que d’autres propositions sont purement théoriques.
Nous pensons plutôt que des hypothèses ou des axiomes peuvent être confrontés à des données empiriques précises.
Cette façon de voir est importante, car Popper n’explique pas comment le processus expérimental fonctionne, bien qu’il ait conclu qu’une seule expérience défavorable soit susceptible d’infirmer toute une théorie.
Si Duhem définit la théorie fausse comme étant l’ensemble des propositions qui ne concordent pas avec les lois expérimentales, c’est-à-dire qu’il réduit le critère d’infirmation d’une théorie à une simple concordance entre tout un système de propositions prises comme un ensemble et les lois expérimentales, Popper reste, quant à lui, silencieux en ce qui concerne les modalités d’infirmation : est-ce un problème de concordance ? Est-ce autre chose ? Comment cette expérience unique pourrait-elle infirmer toute une théorie ? Avons-nous des cas concrets d’un tel processus ?
Contrairement à ce qu’affirme Popper, beaucoup de théories ont été abandonnées mais non réfutées pour des considérations, pour la plupart, d’ordre esthétique, de cohérence, de contradiction avec des théories déjà solidement établies ou pour des raisons de conformisme. On ne s’étonne nullement lorsqu’on sait que toutes ces considérations « externes » sont loin de faire l’objet d’expériences.
La théorie de Théodore Franz Éduard Kaluza (1921) proposant d’ajouter à l’espace-temps quadridimensionnel une cinquième dimension afin d’unifier dans un même appareil mathématique force électromagnétique et gravitation a été            « abandonnée » mais non « réfutée », alors même qu’elle était en parfaite cohérence avec la théorie de la relativité générale.
Même si Einstein avait évoqué, comme exigence supplémentaire pour la validité d’une théorie, en plus de l’expérimentation, le critère de la « perfection interne», l’on ne peut finalement que se résigner à l’idée que ce critère n’a pas fait ses preuves avec la théorie de Kaluza. Cette dernière a été, en dépit de sa cohérence mathématique, sa simplicité et sa séduisante architecture, tout de même abandonnée mais pas infirmée. Il existe un processus par lequel les théories peuvent être abandonnées mais non infirmées.
Popper part du principe que la vérité de la proposition : « tous les corbeaux sont noirs » devrait s’exprimer en termes de déductions démonstratives, car sa confirmation par l’induction ou par toutes autres choses  nous conduirait, en fin de compte, à une régression à l’infini.
Cette conclusion a conduit Popper à cette fameuse méthode déductive et démonstrative qui va des axiomes aux expériences. Cette méthode admet en principe l’asymétrie entre vérifiabilité et réfutation.
Selon Popper, toute vérifiabilité conduit à une régression à l’infini, parce que l’accumulation de preuves en faveur de la théorie ne favorise nullement la conclusion de sa confirmation, tandis que la réfutation qui traduit l’existence de faits d’expériences négatifs devrait permettre le plus souvent de conclure à la fausseté d’une théorie.
En termes logiques, tout cela n’est-il pas susceptible de nous conduire au rejet du principe du tiers exclu dans la mesure où si l’on admet les conclusions de Popper on devrait absolument énoncer que « toute théorie n’est ni vraie ni fausse avant la réfutation par des faits d’expériences négatifs ?
Il est en effet possible d’admettre un tel résultat, mais celui-ci est susceptible de ruiner la démonstration de Popper elle-même, dans la mesure où il nous est loisible de penser qu’il est toujours possible que l’axiome soit a priori vrai ou faux et que seule notre ignorance a priori au moment où on établit l’axiome selon lequel il puisse exister des faits d’expérience négatifs nous empêche de « trancher » la question de savoir si l’axiome est faux ou satisfaisant (en vertu d’une accumulation de preuves en sa faveur) bien qu’on puisse, dans l’absolu, supposer la théorie comme vraie ou fausse avant même de procéder aux expériences.
La base de ce raisonnement est que la vérité est une « chose prédéterminée ». Il serait illusoire de penser qu’elle est « surdéterminée » par l’expérience, et cela en faveur de trois postulats – le postulat que toute « expérimentation » prise individuellement en dehors de toute économie théorique est faillible à l’erreur – le postulat que la « vérité » de l’expérience est admise ex-post par rapport à la théorie (l’expérience vient souvent après la théorie) – le postulat qu’il existe toujours une expérience cruciale.
Nous réhabilitons l’existence individuelle d’expériences cruciales et non plus de « lois expérimentales » ou de méthode expérimentale. Nous empruntons à Kant la notion d’a priori, pour affirmer que la vérité théorique est toujours a priori, que la vérité « présumée » de l’expérience est toujours a posteriori.
S’il existe un mérite à tirer ce genre de conclusions, c’est justement pour démontrer qu’il est pratiquement impossible d’éliminer le « raisonnement logique », celui qui prend toujours comme références la vérité et la fausseté dans l’évaluation de la relation entre la théorie et l’expérience.
Concédons néanmoins à Popper le mérite d’avoir abordé la question en faveur d’une approche déductive néoclassique. Mais il n’a pas résolu entièrement le problème de l’induction car la méthode déductive qu’il a employée, c’est-à-dire une méthode qui suggère le « passage des axiomes aux expériences » sous l’angle de la réfutation de toute théorie scientifique, ne permet pas de détruire l’induction à partir d’une critique de son fondement logique ni même d’affranchir totalement l’expérience de l’induction qui n’est possible que grâce à une démonstration sur l’homothétie complète entre une seule proposition vraie et un fait d’expérience univoque et crucial.
On va donner juste un exemple montrant la présence de l’induction dans les expériences : quand Feynman rédigea ses cours de physique, et notamment le volume consacré à la mécanique quantique, il avait commencé par l’explication d’une expérience connue comme celle qui donne la meilleure description du cadre conceptuel de la mécanique quantique : l’« expérience du passage des électrons à travers des fentes ».
Feynman décrit son expérience comme étant beaucoup plus une expérience approximative et de pensée qu’une expérience réelle, et il dit explicitement : «…L’expérience n’a jamais été faite de cette façon. La difficulté vient de ce que l’appareil devait être réalisé à une échelle incroyablement petite pour montrer les effets qui nous intéressent. Nous sommes en train de faire une “expérience de pensée” que nous avons choisie parce qu’elle permet un raisonnement facile[4]. »
Alors quelle raison y a-t-il de croire à cette expérience? En réalité, Feynman n’essaie pas de déformer la réalité du phénomène observé, mais de résumer un nombre considérable d’expériences où les échelles ont été choisies conformément aux phénomènes observés. Quel lien y aurait-il entre cette multitude d’expériences où les échelles ont été choisies conformément aux phénomènes observés et l’expérience de pensée de Feynman ? Une réponse peut s’imposer d’elle-même: l’induction.
Au nom de quoi Popper pouvait affirmer que l’induction n’existe pas ? Si on ne passe plus d’une théorie à une expérience, mais plutôt d’une théorie à une autre théorie, n’y aurait-il donc pas d’induction dans ce cas ? Cette question mérite un examen qui dépasse le cadre de cet article.
L’approche de Popper concernant l’induction souffre d’une autre faiblesse. Avant de rejeter définitivement l’induction, il est nécessaire de détruire ses fondements logiques, ce en quoi il conviendrait d’abord de voir sur quoi reposerait en fin de compte ce fameux principe d’induction : à cet effet, on peut résumer toutes les approches philosophiques et logiques de justification de ce principe sur la « nécessité causale » en tant que loi de succession des phénomènes ou faits de la nature.
Cette nécessité causale fut énoncée par beaucoup de philosophes comme Hume (ce dernier l’appelle nécessité) et Kant (qui la considère comme une catégorie a priori par excellence incontournable pour pouvoir considérer les objets dans l’espace et le temps).
Popper ne peut remettre en cause l’induction car celle-ci repose sur la nécessité causale.
Mais cela nous a conduit au point où nous avions laissé la philosophie de la réfutabilité de Popper développer ses contradictions : il existe des expériences cruciales qui confirment et valident des propositions vraies et univoques constituantes des théories a contrario de la seule expérience au moins qui pourrait l’infirmer. Il n’existe pas d’asymétrie entre réfutabilité et vérifiabilité parce qu’aucune théorie ne peut prendre le risque d’une telle instabilité. D’un autre côté, Popper ne nous éclaire pas sur ce que pourrait être cette infirmation, au-delà de ce terme instrumentaliste de « test ».
Un test est un terme qui désigne beaucoup de choses (conditions de préparation de l’expérience, efficacité des instruments et des appareillages, précision de la mesure, précision de l’observation, isolement du phénomène observé, stabilité des appareils de mesure). La testabilité contient un grain de sable instrumentaliste doublé d’un substratum théorique qui rend le passage des axiomes aux test, une simple conjecture philosophique et non une réalité scientifique.
Une théorie, c’est quelque chose de plus qu’une hypothèse testable. Aucun chercheur n’aurait pris le risque d’aller aussi loin sans savoir à l’avance où ces recherches pourraient le mener.
Par ailleurs, il existe toujours un « réalisme » au sein des théories scientifiques, un réalisme qui permet de conjecturer sur ce que les phénomènes peuvent cacher en réalité. La proposition théorique projette sur la réalité et non seulement sur des conséquences expérimentalement testables.
A vrai dire, l’expérience est indivisible de la proposition théorique, parce que l’expérience ne peut se prémunir dans l’absolu et en toute épreuve contre l’erreur. L’erreur est un concept vis-à-vis duquel l’expérience est très fragile. Elle est fragile face à l’« impitoyable numérologie des faits » et au caractère statistique et probable des résultats expérimentaux.
Popper reste dans un schéma purement déductif (passage des axiomes en ex ante aux expériences ex post) assez trompeur. Il n’existe jamais d’expériences isolées pouvant prétendre infirmer une théorie entière, car il faudrait parcourir une infinité d’expériences pouvant ne pas concorder avec elle (le silence de Popper sur le processus devant conduire à l’infirmation est révélateur de cette situation).
En revanche, une hypothèse théorique unique peut être infirmée ou confirmée par une donnée empirique ou un ensemble cohérent de faits empiriques. Par ailleurs, il existe une complexité expérimentale (système d’expériences, expériences de pensée, expériences générales représentatives d’une multitude d’expériences assez nombreuses en mécanique quantique, par exemple « expérience du passage des électrons à travers des fentes de Young) qui peut se traduire par plusieurs modalités de confirmation ou d’infirmation.
Nous pouvons examiner les différents problèmes épistémologiques liés à la concordance, la non-concordance, l’explication, la prédiction, la dérivation d’autres expériences ou d’autres théories et qui ne se prêtent jamais au réductionnisme de Popper quant à la seule expérience pouvant conduire à l’infirmation.
Popper devait prouver que dans chaque processus expérimental, il y a toujours déduction à partir des axiomes jusqu’aux expériences. C’est-à-dire que chaque théorie doit obéir à un schéma vertical purement déductif.
Or, pour ne prendre qu’un seul exemple, les nombreuses expériences conçues en vue de confirmer l’existence de l’éther (notamment les expériences précises de Michelson Morley) n’ont jamais pu trancher, tester (pour prendre un terme poppérien) ou de confirmer la validité de la théorie de l’éther.
Cette théorie n’était pas falsifiable puisque tous les tests étaient impuissants, aussi bien pour prouver son existence que pour la réfuter. C’est plutôt grâce à une autre théorie (la théorie de la relativité) que les physiciens se sont résignés à l’abandonner. Il n’y a pas eu dans ce cas ni un processus déductif ou une possibilité de réfutation.
Rien ne pouvait distinguer la théorie de l’éther d’une théorie purement métaphysique. L’éther est resté durant des siècles dans un état branlant de spéculation. Voilà un exemple vivant d’une théorie infalsifiable.
Rappelons, par ailleurs, que selon la réfutabilité, il est plus facile de réfuter que de confirmer. Comment alors pourrait-on apprécier à sa juste valeur l’expérience d’Alain Aspect (1982) qui mit fin au débat entre les tenants de l’école de Copenhague et les réalistes (Einstein) sur la théorie des variables cachées ?
Bien que cette expérience infirma, avec brio, la théorie des variables cachées d’Einstein, elle confirma en même temps la théorie sur l’inséparabilité quantique dont la proposition vraie est la suivante : « la mécanique quantique implique que deux particules (produit d’une désintégration d’une particule par exemple) s’éloignant dans deux directions opposées sur une ligne droite restent en contact, c’est-à- dire que le comportement de chacune est corrélé au comportement de l’autre, quelle que soit leur distance, même si elles ne sont plus reliées de manière causale[5] ».
L’on remarque aisément qu’il ne s’agit pas ici d’autres propositions vraies contenues dans la mécanique quantique (comme par exemple les propositions sur les relations d’incertitude, sur la superposition, sur les états discrets des raies spectrales du rayonnement émis par un atome excité…).
Il est donc indubitable que l’expérience d’Alain Aspect, bien qu’infirmant la théorie des variables cachées (théorie alternative proposée pour tenir compte de l’inséparabilité quantique) confirma, du même coup, la proposition vraie précitée qui est constitutive de la théorie sur l’inséparabilité quantique.
Même si l’expérience d’Aspect n’est pas totalement décisive, la plupart des théoriciens pensent aujourd’hui qu’il est très improbable que ses résultats soient contredits par des expériences ultérieures. La théorie des variables cachées d’Albert Einstein semble avoir été irrémédiablement remise en cause. L’asymétrie entre réfutabilité et vérifiabilité a des limites. Il existe dans certains cas une symétrie entre réfutabilité et vérifiabilité, c’est-à-dire qu’il est parfois possible qu’une expérience infirme et confirme, en même temps, deux théories concurrentes.
Nous allons poursuivre dans les prochaines parties de cet article notre critique de la réfutabilité et de la falsifiabilité des théories scientifiques en abordant la physique quantique et la physique classique.
 
 
[1] Karl Popper Logique de la Découverte Scientifique », Payot, 1973.
[2] L’expérience. Ouvrage sous le dir. De Laurent Perreau, Editions Vrin, 2010  p.137
[3] Ibid. p.145-146.
[4] Richard Feynman /Leighton/Sands « Le cours de physique de Feynman – Mécanique quantique » Version française de B. Equer, P.Fleury, Inter-Editions, Paris, 1979, p. 6.
[5] Cette proposition contredit le principe de localité d’une particule donnée puisqu’elle ne tient pas compte de la vitesse de propagation de l’information entre les deux particules (qui ne doit pas dépasser en principe la vitesse de la lumière).

Publicité
Publicité
Publicité

Commentaires

Laissez un commentaire

Laisser un commentaire

Chargement…

0

Deux adolescents palestiniens assassinés et 66 blessés dans la bande de Gaza (bilan provisoire)

France: La première prière mixte dirigée par deux femmes imames