in ,

La falsifiabilité des théories scientifiques est-elle un argument ultime contre la religion ? (2/3)

Deuxième partie 

Nous poursuivons notre critique de la falsifiabilité des théories scientifiques en s’attaquant, cette fois, au cœur des concepts scientifiques comme ceux de la mécanique classique (principe d’inertie), de la cosmologie et les fondamentaux de la physique (constantes). Ensuite, on va parcourir l’histoire de la mécanique quantique afin de vérifier si la falsification est incontournable. On va voir qu’il n’en est rien.

  1. Troisième critique : l’existence de concepts scientifiques infalsifiables

Il est très difficile de se ranger derrière le concept de falsifiabilité sur la base des « principes ». Je crois qu’il est à la fois légitime et nécessaire de mettre une telle affirmation  épistémologique à l’épreuve des enseignements tirés de l’histoire de la pensée scientifique.
Si l’on admet le critère de falsification (réfutabilité) pour qualifier une théorie de scientifique, nous sommes condamnés à renoncer à bon nombre de concepts actuellement contenus dans des théories scientifiques. Ce problème, nous l’expliquerons à travers quatre exemples seulement : « la première loi newtonienne », « le principe anthropique », certaines « théories cosmogoniques» et enfin « les lois de conservation » en physique. Disons, tout de suite, que personne ne peut douter, à l’heure actuelle, de la scientificité de ces quatre domaines de connaissances. Pourtant, on est loin de pouvoir dire, qu’ils puissent être totalement falsifiables.
La première loi du mouvement appelée principe d’inertie énonce : « tout corps, s’il n’est pas soumis à l’action d’une force, reste au repos ou est animé d’un mouvement rectiligne et uniforme ». Mais comment vérifier ce principe de validité cosmique? Comment vérifier qu’un corps se déplace en ligne droite et qu’il n’est pas soumis à une force quelconque d’accélération ou de décélération, puisqu’en fait un corps est toujours soumis (en mouvement ou en repos) à l’action même minime de forces physiques et notamment la force gravitationnelle. Personne n’a jamais pu observer un mouvement perpétuel d’un corps en ligne droite.
Il n’existe aucune expérience qui puisse démontrer l’existence d’un principe d’inertie dans sa forme pure, puisque tout corps, ou qu’il soit est toujours soumis à la force de la gravitation de l’ensemble des corps célestes. D’un autre côté, « imaginons qu’on est dans l’espace, loin de la Terre, comment vérifier qu’un objet se déplace en mouvement rectiligne et uniforme sur une ligne droite, dans la mesure où il n’existe pas dans l’espace des bornes fixes en repos par lesquelles, on puisse dire que le corps se déplace en ligne droite ou est en repos ? Si nous prenons comme référence la Terre, elle ne serait pas d’un grand secours car la Terre est en mouvement, elle tourne autour du Soleil. Il n’y a pas d’échappatoire à cette fatalité[1]».
Pour éluder ce problème, Newton avait été obligé de créer les concepts peu intuitifs et totalement « faux » d’espace et de mouvement absolus.
Ce problème est mieux expliqué dans l’expérience énigmatique du pendule de Foucault : ce pendule constitué d’une corde très longue et d’un objet très lourd, oscille lorsqu’il est mis en mouvement durant de nombreuses heures. « Sur le sol il y a un petit monticule de sable en forme d’anneau, une pointe métallique, fixée à la base du pendule, vient creuser une tranchée dans l’anneau de sable, aux deux extrémités de la course […] au cours des heures, le plan d’oscillation du pendule tourne autour de l’axe vertical, quand il est lancé dans le plan est-ouest, le pendule s’oriente progressivement vers le plan nord-sud[2]».
On est donc tenté de conclure que si le plan semble tourner c’est par rapport à la Terre qui tourne alors que lui est fixe. Or, le comportement capricieux du pendule peut être expliqué par la démonstration de Mach, c’est-à-dire prendre en compte l’influence de la masse de l’Univers tout entière, même celle des étoiles fixes les plus lointaines.
Quelle que soit la solution à donner à ce problème, il n’en demeure pas moins qu’il n’existe point d’espace ou de mouvement absolus. Einstein avait bien exploité cette manifestation de la nature pour établir un principe d’équivalence entre la force gravitationnelle et la force d’accélération.
Sans aller plus loin, on ne peut que se résigner à l’idée que le principe d’inertie renfermé dans l’écriture scientifique de la première loi newtonienne du
mouvement est infalsifiable, parce que non réfutable par l’expérience seule.
En effet, quelles que soient les expériences menées, on ne peut jamais le  vérifier scientifiquement parlant. On ne peut que supposer sa validité scientifique idéale en « ignorant » l’action des forces « perturbatrices » lorsqu’elles sont effectivement faibles. On ne peut jamais tester la validité du principe en l’absence totale de l’action de ces forces.
Bien que la première loi de Newton ne s’applique jamais de manière satisfaisante dans la nature et il est impossible de prouver qu’elle s’applique réellement et complètement, nous ne pouvons néanmoins nullement affirmer qu’elle est non réfutable, bien qu’elle ne soit jamais falsifiable.
Pour qu’on puisse supposer que cette loi pourrait être fausse, c’est-à-dire réfutable et ce, quelque part dans l’immensité de l’Univers, il faudrait qu’il soit possible de trouver un endroit qui ne soit pas soumis à la force de gravitation. Or il est impossible de supposer qu’un tel endroit existe, étant donné que la force de gravitation est partout omniprésente.
Quant au principe anthropique, c’est un véritable mystère. Dans sa version initiale, il exige « que les conditions de l’Univers soient compatibles avec l’existence d’êtres humains[3]». Dans une autre version, il permet d’énoncer que la branche particulière de l’histoire sur laquelle nous nous trouvons possède les caractéristiques nécessaires pour qu’existe notre planète et que s’y épanouisse la vie, la vie humaine y compris[4].
Suivant la définition de Stephen Hawking, « c’est parce que nous existons que nous voyons l’Univers tel qu’il est … Pourquoi l’Univers est-il tel que
nous le voyons ?… S’il avait été différent, nous ne serions pas là ![5] » . Loin de constituer une curiosité exotique du monde de la physique moderne, il est véritablement congruent à de nombreuses théories sur la naissance et l’évolution de l’Univers.
Bien que des scientifiques critiquent ce concept, il n’en demeure pas moins que sa scientificité est résiliente. Mais c’est moins évident lorsqu’on passe à la possibilité de sa réfutation.
Le principe anthropique repose sur le fait que peu de variations des paramètres physiques permettent l’émergence de la vie et de l’intelligence humaine. Au-delà de ces limites, les univers possibles ne peuvent être observés, parce qu’aucune vie intelligente n’aurait été possible pour permettre cela. Sa réfutation supposerait l’existence réelle de ces univers parallèles où la vie intelligente n’est pas possible, ce qui est absolument impossible à démontrer.
Beaucoup de théoriciens en cosmologie ont tenté de prouver qu’il est bien possible que différentes régions de l’Univers primitif issu du Big-bang présentent les mêmes propriétés physiques. Mais leurs théories – celle de l’inflation par exemple – sont indémontrables et infalsifiables. Cela devrait-il nous conduire à rejeter bon nombre des recherches actuelles en cosmologie comme «pseudosciences» sous le prétexte qu’elles seraient « infalsifiables » ?
Bien que la théorie du Big-bang fût confirmée par la découverte du rayonnement centimétrique fossile par Penzias et Wilson, il n’en demeure pas moins que notre connaissance des grandes structures de l’Univers reste très hypothétique.
« L’on raconte, qu’un jour un savant célèbre donna une conférence sur l’astronomie. Il décrivit comment la Terre tournait autour du Soleil et de quelle manière le Soleil tournait autour du centre du rassemblement d’étoiles que l’on appelle une galaxie. À la fin, une vieille dame au fond de la salle se leva et dit : «Tout ce que vous venez de raconter, ce sont des histoires.
En réalité le monde est plat et posé sur le dos d’une tortue géante.» Le scientifique eut un sourire hautain avant de rétorquer : « Et sur quoi se tient la tortue ? – Vous être très perspicace, jeune homme, vraiment très perspicace, répondit la vieille dame. Mais sur une autre tortue, jusqu’en bas[6]
»
Contrairement à ce qu’on pourrait penser, Stephen Hawking qui a rapporté cette histoire ne considère pas cette explication comme absolument ridicule. «Mais pourquoi ce que nous savons vaudrait-il mieux que cela[7]», s’interroge-t-il en réfléchissant au contenu actuel de nos connaissances cosmologiques.
Nos connaissances sur les grandes structures de l’Univers, comme par exemple celles susceptibles d’expliquer pourquoi les étoiles et les galaxies, ne sont pas uniformément réparties dans l’espace reposent en fait sur des théories dont le moins que l’on puisse dire est qu’elles procèdent par des conjectures qui ne sont pas objet d’expérimentation, comme la théorie des cordes cosmiques, dont la réfutabilité demeure  problématique.
Ce genre de théories est d’autant plus difficile à confirmer qu’à réfuter, tenant compte aussi des limites physiques d’expérimentation. Afin de savoir, par exemple, si certaines particules élémentaires susceptibles de composer la  « matière noire » intergalactique qui constituerait l’essentiel de la masse actuelle de l’Univers ont survécu aux premiers instants de l’Univers, il faudrait étudier expérimentalement les phénomènes à des énergies très élevées.
Le diamètre d’un accélérateur de particules est proportionnel à l’énergie qu’il communique. Il existe donc une limite à concentrer des quantités d’énergies aussi importantes. Dans ce cas précis, le critère de falsifiabilité rencontre des limites.
L’horizon indépassable de nos connaissances sur le futur de l’Univers (théorie des étapes cycliques, théorie de l’inflation) est un autre exemple des spéculations infalsifiables qui peuvent parfois marquer un aspect problématique mais authentique et irremplaçable de la pensée scientifique moderne.  À défaut, une bonne partie de la recherche scientifique devrait tout bonnement être abandonnée.
L’exemple des lois de conservation est également une illustration de la  non-falsifiabilité de certaines de nos plus grandes prémisses scientifiques. L’existence de lois de conservation de l’énergie, de l’impulsion ou du moment cinétique en physique est déduite de notre « croyance » (croyance et non connaissance) en l’existence d’une uniformité de l’espace et du temps.
La conservation de l’énergie est déduite de l’existence d’une homogénéité du temps, celle de l’impulsion est déduite de l’homogénéité de l’espace. Mais pourquoi de telles corrélations ? Si l’homogénéité du temps permet de conserver l’énergie, c’est précisément pour nous affranchir d’une connaissance exacte et précise du début du temps. Si celui-ci était « hétérogène », il faudrait d’un point de vue logique, remonter à l’origine du temps pour pouvoir parler d’une conservation de l’énergie.
De la même manière, si l’espace n’était pas homogène, la constante de Kepler sur le mouvement des planètes, par exemple, devrait dépendre de la position du Soleil, foyer de l’ellipse dans le système galactique puis dans l’espace intergalactique, ce que Kepler n’aurait jamais pu connaître et n’aurait certainement pas même pu imaginer.
Nos expériences et nos observations nécessitent d’isoler une chose pour qu’elle ne puisse pas interagir avec l’ensemble de l’Univers dans le temps et dans l’espace. Par ailleurs, il est nécessaire que l’espace et le temps soient homogènes, c’est-à-dire identiques.
Cette « croyance » est née de l’impossibilité de dérouler l’Univers entier sous l’empire de notre perception. Si le temps n’est plus homogène, il faudrait le parcourir jusqu’à l’origine et si l’espace n’était pas homogène, il faudrait en faire un inventaire intégral et le « dérouler » sous l’empire de notre connaissance, ce qui est impossible.
C’est peut-être pour cette raison que Kant réduit les concepts d’« espace » et de « temps » à des formes pures de l’intuition sensible qu’on ne peut dériver d’aucun autre concept.
Les lois de conservation de l’énergie, de l’impulsion et du moment cinétique sont donc infalsifiables et irréfutables. Pourtant leur validité est une condition sine qua none pour toutes les théories physiques. Sans elles, il serait problématique de pouvoir représenter des grandeurs (comme masse, moment cinétique, impulsion, fréquence…) en nombres parfaitement calculables.
Quelqu’un pourrait objecter que selon la mécanique quantique les lois de conservation rencontrent des limites.
Les fluctuations quantiques produites en raison des relations d’incertitude de Heisenberg permettent de créer « virtuellement » une paire d’électrons – positrons qui fusionneraient en rayonnant. Mais cette analyse croule sur elle-même du fait qu’il est impossible de vérifier expérimentalement ce genre d’hypothèses. La seule hypothèse en vogue sur cette question est la théorie relative à l’« évaporation des trous noirs » de Stephen Hawking qui d’ailleurs n’est pas en meilleure position en termes d’une hypothétique expérimentation.
Avant d’observer une évaporation d’un trou noir, faudrait-il d’abord observer des « trous noirs[8]» On est vraiment loin du compte.
Cet état d’esprit vient du fait qu’en mécanique quantique, les choses sont très différentes.

  1. Quatrième critique : la mécanique quantique et les limites de la réfutabilité

Au-delà de ces exemples révélateurs, nous pouvons voir en profondeur qu’à la suite de la révolution conceptuelle provoquée par la physique quantique, il est difficile d’admettre l’universalité et la généralisation du processus relatif au passage des axiomes aux tests de l’expérience qui est la deus ex machina de la philosophie scientifique de Popper.
En mécanique quantique, les notions d’espace et de trajectoire ne sont plus d’aucun secours pour formuler des représentations mathématiques de la nature.
Mais cela est radicalement différent pour la notion de « temps ». La constante de Planck h est une constante d’action résultant de la multiplication de l’énergie et du temps. Faut-il rappeler encore que si en mécanique classique l’espace a été si nécessaire pour représenter en nombres les différentes figures (notion d’objets corporels, point matériel, corde, fil, onde…), et en cela cette physique se conforme parfaitement à la « topique kantienne » qui soumet la possibilité de la  détermination des phénomènes dans l’espace et le temps en général, il en est tout autrement en mécanique quantique.
L’image « naïve » de l’atome de Bohr calquée sur un modèle inspirée du système solaire s’est vite estompée en faveur d’une « créature mathématique assez étrange » appelée fonction d’onde. Les relations d’incertitude ont, par ailleurs, permis de remettre en cause toute possibilité de « représentation visuelle dans l’espace ».
De nombreux philosophes et de physiciens illustres, comme Bohr et Heisenberg, commettent une erreur en confondant espace et temps dans un même répertoire épistémologique en affirmant que la mécanique quantique se démarque de toute représentation spatio-temporelle des phénomènes physiques.
La non-commutativité des matrices d’Heisenberg et des opérateurs ne s’applique pas indifféremment au temps et à l’espace. Par ailleurs, une probabilité de présence d’une particule dans un espace donné ne signifie jamais probabilité   d’« existence » de cette même particule.
Par ailleurs, la mécanique quantique transforme l’espace du monde classique en matrices ou en opérateurs, c’est-à-dire en des nombres et des symboles, ce qui ajoute à l’idéalisation, à l’abstraction et au symbolisme.
Avant la mécanique quantique, l’existence simple du concept d’espace ne suffisait pas entièrement pour qu’il puisse y avoir une mécanique, une cinématique, en un mot, une praxis. Il a fallu transformer cet espace métaphysique (dont on ne pouvait pas connaître la structure physique) en un espace fondamentalement homogène, géométrique, en un espace euclidien (un espace dénué de singularité). À défaut, aucune occurrence physique
n’est possible (soit dynamique, soit statique).
Il a fallu l’invention de la géométrie non-euclidienne par Riemann et Lobatchevski pour comprendre enfin que l’espace homogène euclidien n’était pas aussi réaliste qu’on pouvait le penser. Son degré d’abstraction étant tel que rien ne permettait de le faire dériver à partir de quelque chose. Cet espace-là, pure création de l’esprit, permettait la déduction facile de la loi de conservation du mouvement découverte par Isaac Newton et l’invention de grandeurs parfaitement calculables.
La complexification de cet espace (apparition de géométries non euclidienne), puis sa numérisation (transformation en nombres complexes, en opérateurs, matrices ou vecteurs en mécanique quantique) fut la dernière étape vers l’idéalisation et l’abstraction, au point où il est quasiment impossible de déduire ces concepts  de l’espace d’origine, c’est-à-dire de l’espace euclidien. L’algèbre quantique fit disparaître presque totalement l’espace. Mais voilà qu’en fait, cette révolution ne fit que remplacer une mathématique par une autre.
Avant de passer à une autre histoire sur la mécanique quantique, il convient juste de rappeler que ces questions sur l’espace et le temps, que se soit en mécanique classique qu’en mécanique quantique sont des questions métaphysiques non-testables par l’expérience.
Ce processus prend forme dès la création de la théorie des quanta. La découverte des quanta par Planck ne fut pas le résultat d’une « théorie positiviste», c’est-à- dire en formulant des hypothèses pour voir si celles-ci concordent avec l’expérience.
Dans ses travaux, Planck s’attaquait au problème du corps noir afin d’expliquer pourquoi une cavité remplie de rayonnement donne lieu à un spectre qui indique une pointe et une chute au point zéro à la longueur d’onde zéro, alors que les prédictions de la mécanique classique confirment que cette cavité devait toujours renfermer une quantité infinie d’énergie aux longueurs d’ondes les plus courtes.
« Tout rayonnement du corps noir devait donc irradier d’énormes quantités d’énergie à haute fréquence (aux longueurs d’ondes courtes) dans l’ultraviolet et au-delà (catastrophe ultraviolette) », alors qu’en réalité « l’énergie des oscillations à haute fréquence n’était pas très importante, elles tombent à zéro quand la fréquence de la radiation augmente[9] ».
Pour résoudre cette énigme, Planck a eu recours à la thermodynamique et plus particulièrement à l’approche statistique de la thermodynamique de Boltzmann. Celle-ci « impliquait de fractionner l’énergie totale de manière mathématique et de traiter ces fragments comme des quantités réelles susceptibles d’être résolues par des équations de probabilité, il convenait ensuite d’additionner entre eux les fragments obtenus précédemment pour connaître l’énergie totale du rayonnement du corps noir[10]».
Mais comme il savait qu’il avait trouvé la bonne solution mathématique, il n’entreprit pas de réaliser la réintégration des fragments et arrêta donc ses calculs sur une équation qui représentait correctement le spectre du rayonnement du corps noir.
Ce qui est important c’est que Planck a découvert la discontinuité et la quantification du rayonnement du corps noir (constante de Planck h) par un «détour mathématique» et non en formulant une hypothèse soumise à l’expérience. C’est donc une nouvelle physique mathématique (statistique thermodynamique, équations de probabilité, équation générale de la courbe du spectre du corps noir) qui a produit une nouvelle physique mathématique (constante de Planck h).
Certains arguent que la découverte de Planck n’était pas si capitale, puisque c’est au seul Einstein que devait revenir la primauté d’expliquer ce que cette quantification signifiait en réalité (découverte des photons dans le cadre de l’expérience relative au phénomène photo-électrique)[11].
Voilà qui est bien arbitraire et totalement faux. Bien qu’Einstein ait découvert la signification de h pour ce qui est de la lumière ou d’un rayonnement, cela ne justifie nullement un quelconque amoindrissement de l’apport de Planck lui-même. Non seulement ce dernier a dû travailler dans l’obscurité la plus totale, alors que de nombreux physiciens échouèrent à expliquer la catastrophe ultraviolette. Mais il a eu aussi l’ingéniosité d’utiliser la thermodynamique et le calcul des probabilités dans sa recherche.
Trois constats nous interpellent afin de reconnaître dans le travail de Planck  « une grande révolution scientifique », l’une des plus importantes de l’histoire de la pensée scientifique depuis Newton.
D’abord, la discontinuité du rayonnement du corps noir entre directement en contradiction avec les postulats de la physique classique, une contradiction qui n’apparaît nécessairement pas dans le cadre de la théorie de la relativité[12] ; Ensuite, il convient de préciser que cette découverte introduisit  une  « rupture avec la réalité », une réalité telle que conçue par la vision kantienne (postcartésienne) du monde physique.
Dans ce sens, les autres grandes théories physiques peuvent être qualifiées sans broncher de théories réalistes puisque celles-ci reposent fondamentalement sur la croyance en l’existence d’un monde objectif et réel. La croyance en l’existence d’un monde objectif, selon lequel, les phénomènes pourraient être autre chose que ce qu’ils semblent fut responsable de la croyance en l’existence précise d’un « objet » au-delà de la perception. C’est ce qui devait finalement amener Einstein et Schrödinger – pour ne prendre que ces deux adversaires acharnés de l’«irréalisme» de la mécanique quantique – à rejeter les postulats de la mécanique quantique parce qu’ils ne sont pas « réalistes».
La théorie des quanta de Planck ne suppose pas l’existence d’un phénomène indépendamment de la théorie ou plutôt de l’appareil mathématique.
De plus, l’appareil mathématique de la mécanique quantique évolue suivant sa logique propre. La théorie des quanta repose essentiellement sur la cohérence interne de cet appareil mathématique et non sur l’hypothèse d’une existence réelle d’un phénomène déterminé que la théorie s’attache à expliquer, à représenter ou à prédire.
La théorie des quanta va encore plus loin : elle tend plutôt à prescrire à la nature des lois mathématiques. Dans le cas précis de la découverte de Planck,
l’élément de discontinuité est tout d’abord « mathématique » avant d’être «réel». Voilà qui transcende complètement la découverte des photons par Einstein
dans le cadre d’une explication physique des quanta de Planck.
Une question intéressante reste posée : aurait-il été possible que la découverte des photons aurait pu être réalisée dans le cadre d’une tout autre expérience ou théorie, indépendamment de la découverte de la discontinuité par Planck ? Einstein aurait-il eu la possibilité de trouver une explication au phénomène photo-électrique et à l’existence des photons, indépendamment de la théorie des quanta de Planck ?
La réponse à mon avis est oui. La théorie des quanta a amené Einstein à trouver un ordre de grandeur, une constante, indépendamment de l’appareil conceptuel en plein développement de cette théorie.
Même si cela n’est pas négligeable, il n’en demeure pas moins que le but de notre question est de démontrer que les photons ne sont qu’un cas parmi d’autres de l’application de la constante de Planck et non pas une sorte de confirmation de la théorie des quanta, encore moins de cette même constante de Planck h.
À titre d’exemple, la découverte accidentelle des rayons X par Wilhelm Röntgen en 1895 aurait pu conduire, si une réflexion théorique soutenue aurait été menée[13], au même résultat que celui obtenu par Einstein.
Certains historiens penchent pour l’hypothèse selon laquelle la découverte des rayons X venait trop tôt en dépit de son importance, car la physique atomiste ne disposait pas d’un cadre de référence théorique, dans lequel pouvaient s’inscrire les rayons X[14]. Selon eux, la découverte de ces rayons était un phénomène isolé.
Je pense, pour ma part, que ce «déficit théorique» n’explique nullement que la découverte des rayons X n’a pas abouti, à la fin du XIXe siècle, à la découverte des photons comme ce fut le cas pour les électrons, lesquels ont été découverts par Thompson en 1870.
Il a fallu attendre 1920 pour qu’Arthur Compton confirme l’existence des photons de rayons X dans une fameuse expérience qui montre l’interaction d’un photon et d’un électron lors d’une collision. Le grand physicien américain expliqua que quand un photon de rayon x frappe un électron, l’électron gagne de l’énergie et une quantité de mouvement et dévie sa trajectoire. Le photon, quant à lui perd de l’énergie et de quantité de mouvement et adopte une trajectoire différente.
C’est plutôt en raison d’un « excédent théorique » que les physiciens n’ont pas pu démontrer l’existence des photons dès la découverte des rayons X. Ces derniers furent découverts par Röntgen en dépit de leur caractère invisible (ils ne peuvent être détectés que grâce à leur action sur les plaques ou sur les pellicules photographiques, ou sur un écran fluorescent).
Lorsque Röntgen les découvrit par pur hasard, il fut rapidement démontré qu’ils étaient des ondes[15]. Comme cette découverte s’effectua dans un laboratoire allemand, les scientifiques jugèrent tout de suite opportun de les considérer comme des ondes, car à la même époque ils prétendaient que les rayons cathodiques étaient aussi des ondes, alors que les scientifiques britanniques et français pensaient qu’ils pouvaient être constitués de particules[16].
Pour les scientifiques allemands, la thèse des ondes était trop solide pour être abandonnée. Selon eux, les rayons cathodiques étaient provoqués par des vibrations de l’éther; cette thèse fut donc connue sous le nom « d’ondes éthérées».
En revanche, Thompson, en partant de la théorie corpusculaire, avait donc conçu une expérience qui équilibrait les propriétés électriques et magnétiques d’une particule chargée en mouvement. La trajectoire d’une telle particule pouvait être déviée tant par les champs électriques que par les champs magnétiques, et l’appareil de Thompson était conçu de manière à ce que ces deux effets s’annulent l’un l’autre et laissent un faisceau de rayons cathodiques se déplaçant en ligne droite entre une plaque de métal (ou cathode) chargée négativement et un écran détecteur[17].
Thompson a établi que les rayons cathodiques étaient vraiment des particules à charge négative (appelées aujourd’hui électrons) et il parvint à utiliser l’équilibre des forces électriques et magnétiques pour calculer le rapport de leur charge e à leur masse m. «Quel que soit le métal utilisé pour la cathode, il obtint toujours le même résultat et conclut que les électrons sont des “parties d’atomes”[18]».
Ceci montre que les expériences ne partent pas toujours d’hypothèses à réfuter, mais le plus souvent d’hypothèses à confirmer.
Les photons auraient donc pu être facilement découverts en 1897, n’était-ce la concurrence contre-productive entre les deux théories corpusculaire (préconisée par les scientifiques britanniques et français) et ondulatoire (avancée par des scientifiques allemands).
Il n’y a donc pas de lien direct (de consubstantialité) entre la théorie des quanta de Planck et la théorie des photons d’Einstein. La seule relation qui existe est reflétée par le fait qu’Einstein a pu obtenir grâce à la constante de Planck une relation mathématique assez simple pour démontrer l’existence des photons.
Le troisième constat de taille est de nature épistémologique: la quantification de Planck consacra l’introduction des probabilités dans le monde quantique, ce qui lui conféra un caractère assez singulier et problématique bien qu’aucun développement scientifique ultérieur n’ait pu le remettre en cause.
Cet aspect de la nouvelle mécanique embarrassa de nombreux physiciens, dont les plus illustres sont Einstein et Schrödinger. Mais il est irremplaçable dans le cadre achevé de la mécanique quantique. Remettre en cause ce caractère atypique de la mécanique quantique signifierait le rejet de nombreux concepts clés, comme la fonction d’onde qui est en fait une fonction de probabilité de présence d’une particule donnée.
L’histoire récente de la mécanique quantique et la situation «confuse» dans laquelle elle se trouvait au début de 1925 est marquée par l’emprunt de concepts métaphysiques à la physique classique.
John Gribbin[19] explique que « chaque problème de physique quantique devait tout d’abord être “résolu” en utilisant la physique classique, puis retravaillé en insérant les nombres quantiques par une démarche qui relève plus de l’intuition que du raisonnement.  « La théorie quantique n’était ni autonome ni cohérente, mais se nourrissait à l’instar d’un parasite de la physique classique, une floraison exotique sans racine[20].»
D’ailleurs, ce processus montre que les principes de la mécanique quantique se développaient et se renforçaient non en s’appuyant sur l’expérience mais en revenant sans cesse aux axiomes pour être améliorés et révisés.
Il en va de même pour des théories quantiques « axiales » historiquement parlant, à l’instar de la mécanique ondulatoire. Erwin Schrödinger intégra dans sa théorie ondulatoire la mécanique dualiste ayant unifié dans un même symbolisme mathématique les rayons lumineux et le mouvement d’une particule développée un siècle plus tôt par le physicien et mathématicien irlandais William Rowan Hamilton[21].
Par un raisonnement analogique très perspicace, Schrödinger considéra que le parallèle entre l’optique et la mécanique, suivant le schème précurseur de Hamilton, permettait d’aboutir à un système plus généralisé rendant possible le passage de la mécanique à la mécanique ondulatoire.
Le plus surprenant dans tout cela, c’est le fait qu’Hamilton créa cette théorie en 1830 bien avant que les physiciens ne découvrent les propriétés ondulatoires des particules atomiques, chose qui sera faite grâce aux travaux théoriques de Louis de Broglie et aux expériences précises réalisées par les savants américains, Clinton Davisson et Lester Germer en 1927 ayant permis d’observer les ondes de matière.
L’image ici donnée, celle d’un « parasite » se nourrissant de la mécanique classique (ou plutôt de son cadavre), pour décrire la mécanique quantique au début de 1925, illustre bien le jeu théorique qui n’est pas toujours étroitement lié à l’expérimentation et notamment, cette tendance des théories à se nourrir des théories anciennes à travers un processus d’emboîtement entre diverses propositions et idées.
À travers ces démonstrations, on peut conclure qu’il est très difficile de considérer le postulat déductif de Popper relatif au passage des axiomes aux expériences comme universel. Du moins il rencontre des limites certaines lorsqu’on passe à une étude critique de la genèse de certaines théories scientifiques.
Il est en fait très difficile d’éliminer les concepts « infalsifiables », c’est-à-dire « irréfutables ». Ce genre de concepts existe réellement dans toute science. Bien plus important encore, la méthode déductive du passage des axiomes aux expériences est sujette à caution dans l’évolution de la pensée scientifique dans la mesure où beaucoup de savants ont emprunté des chemins radicalement différents dans l’élaboration de certaines des plus grandes théories scientifiques connues, dont la plus célèbre n’est autre que la théorie des quanta de Planck.
Cette situation se vérifie également en physique des particules. Dans ce domaine, des idées ont été recyclées par des physiciens indépendamment d’une vérification expérimentale qui concernent les théories lagrangiennes des champs et les théories sur le champ de jauge en électrodynamique quantique jusqu’à l’élaboration de la théorie électrofaible et de la chromodynamique quantique.
Ce processus a été favorisé par les progrès dans les mathématiques, ce qui a accentué l’abstraction. Par ailleurs, des modèles et des analogies ont été utilisés. Par exemple, Dirac (1927) a analysé de manière détaillée et complète l’interaction entre un atome non relativiste et un champ électromagnétique. Pour ce faire, il a utilisé une analogie formelle entre un champ électromagnétique libre et un ensemble d’oscillateurs harmoniques non couplés afin de quantifier ce champ[22].
Il a introduit les opérateurs de création et d’annihilation de la théorie quantique des champs[23].
Par ailleurs, les concepts de l’électrodynamique quantique ont été « recyclés » pour réaliser des progrès grâce à la transformation de jauge. L’idée d’utiliser des théories du champ de jauge remonte à 1954 (Yang et Mills).
Le fait que les théories ou les modèles peuvent être recyclés montre que le passage des axiomes aux tests d’expériences n’est pas systématique. Par exemple, Yang et Mills ont élaboré une théorie de symétrie générale de groupe en utilisant ces champs locaux de jauge. Toutefois, étant donné qu’il a été associé à chaque champ de jauge, une particule sans masse de spin-1, exactement de la même manière que le potentiel électromagnétique est associé à un photon, le nombre de particules sans masse est devenu théoriquement trop important, ce qui n’a pas été confirmé par l’expérimentation[24].
Ainsi, un modèle a été créé (la théorie de Yang-Mills) qui est resté une simple abstraction formelle privée d’une utilisation empirique précise (la théorie de jauge de Yang-Mills n’a pas été développée pour expliquer une anomalie empirique). Il n’a trouvé une application concrète qu’avec le développement de la théorie de champ de l’interaction faible qui est responsable de la désintégration bêta[25].
Nous poursuivrons notre critique en s’attaquant dans la prochaine partie de cet article à la physique classique.
 
 
 
 
[1] Banesh Hoffman « Histoire d’une Grande Idée, La Relativité »,  Pour la Science, 1996, p. 47.
[2] Hubert Reeves, Patience dans l’Azur, éditions du Seuil, 1988, p. 258.
[3] Murray Gell-Mann, Le Quark et le Jaguar, éd. Flammarion, coll. «Champs», Paris, 1997, p. 238.
[4] Hubert Reeves, op. cit.
[5] Stephen Hawking, Une brève histoire du temps, éd. Flammarion. call. «Champs», Paris, 1991, p. 162.
[6] Stephen Hawking « Une Brève Histoire du Temps »,
 [8] La théorie de la Relativité générale, telle que conçue à l’origine par Einstein, ne prévoyait même pas ces trous noirs (nom donné par Wheeler). Le grand savant déclarait même qu’il serait illusoire de prétendre déterminer leur existence, car il serait très arbitraire d’introduire les singularités dans toute théorie physique – avec ces singularités, les lois physiques ne s’appliquent plus. Néanmoins, les astrophysiciens ne doutent plus aujourd’hui de leur existence et ce, en dépit de l’avertissement d’Einstein. Du moins, l’asymétrie entre réfutation et confirmation ne s’applique pas dans ce cas de figure, puisque nous ne sommes pas en mesure de réfuter leur existence tout en n’ayant pas encore la capacité de la confirmer.
[9] Ibid.
[10] Ibid., p. 59.
[11] Thomas Kuhn va jusqu’à nier la paternité de Planck en ce qui concerne la quantification, qu’il attribue à Einstein.
[12] Cela ne signifie pas pour autant qu’il faille mettre en parenthèses ce deuxième grand pilier de la physique moderne.
[13] À l’instar de celle qu’effectua Thompson et qui déboucha sur la découverte des électrons.
[14] Ibid., p. 40-41.
[15] Ce qui ne correspond pas à l’explication relative au déficit théorique.
[16] Ibid.
[17] Ce dispositif ne fonctionne qu’avec des particules électriquement chargées.
[18] Ibid., p. 41.
[19] Ibid.
[20] Ibid., p. 124.
[21] William H. Cropper, Great Physicists, the life and times of leading physicists from Galileo to Hawking, Oxford University Press, 2001, p. 282.
[22] Dirac, P. A. M. (1927). «The Quantum Theory of the Emission and Absorption of Radiation.» Proceedings of the Royal Society of London A114: 234-265.
[23] Il a décrit la transition des photons d’un état de base inobservable contenant un nombre infini de photons vers un état réel et observable au lieu de photons qui sont « créés. »
[24] James T. Cushing, Models, High-Energy Theoretical Physics and Realism, PSA Proceedings of the Biennial Meeting of the Philosophy of Science Association (1982), p.33.
[25] La désintégration d’un neutron en un proton et un électron n + p + e- + v).

Publicité
Publicité
Publicité

4 commentaires

Laissez un commentaire
  1. J’ajoute que l’asymétrie entre réfutation et confirmation proposée par Popper n’est pas toujours vérifiée. L’expérience d’Alain Aspect sur la non-localité des systèmes quantiques a définitivement confirmé cette non-localité. Dans l’histoire de la science, le passage des axiomes aux tests avec comme objectif la réfutation n’est jamais entièrement vérifié. Votre référence à Kuhn confirme cet état de fait. Il se passe un temps ou la science normale domine le paysage scientifique jusqu’à l’apparition d’une anomalie.
    Je dois préciser que même ce processus (anomalie) mais entièrement vérifié. La théorie de la relativité restreinte s’est attaquée à la primitivité de la notion de simultanéité exactement de la même manière que la théorie de Lobatchevski s’est attaqué à la primitivité de la notion de parallèles en géométrie. Le développement de la science est favorisé par une effort d’induction intellectuel et je dirais même presque métaphysique et non par un système superficiel de proposition de conjectures à jeter en pâture aux tests de l’expérience. D’ailleurs, la théorie électro-faible a été confirmée grâce à la détection des bosons prévues par cette théorie. Ou est la réfutabilité ou les tests négatifs de cette théorie.
    Bref, je propose que nous puissions dépasser cette mécanique ennuyeuse du passage systématiques aux tests négatifs.
    Pour résumer ; trois points sont à retenir :
    – Il ne s’agit pas dans cet article de remettre en cause de l’expérience. Mais de proposer une nouvelle façon de voir son rôle.
    – Dans de nombreux cas, des expériences de confirmation ont pris le dessus sur les expériences de réfutation.
    – Dans l’histoire de la science, ce qui est important c’est l’effort d’induction; la vision métaphysique et philosophique qui motive le savant et non le passage systématique à la réfutation des théories qui sont au départ que des conjectures.
    Merci pour ce débat qui permet de préciser les choses.

  2. Bonjour
    Je ne vois pas la contradiction entre scientificité d’un concept scientifique et sa non réfutabilité. Je suis entré dans le vif du sujet en démontrant que la loi d’inertie par exemple n’est pas falsifiable (au-delà de ses conséquences) parce qu’on ne peut pas vérifier qu’un corps de meut en mouvement rectiligne et uniforme perpétuel en l’absence de forces agissantes. C’est le même cas des lois de conservation qui sont basées sur l’uniformité et homogénéité de l’espace et du temps. Il n’y a aucune contradiction si on reconnait que dans la science, il y a de la métaphysique et des choses qui sont infalsifiables. La science a interagit et a absorbé des concepts même provisoirement d’autres domaines du savoir humain : de la métaphysique, de la religion et même de la magie (voir les concepts de Newton d’espace absolu). L’espace absolu n’a pas été réfuté. Il a été simplement remplacé par la notion d’espace relatif. Il existe des processus ou on passe des mathématiques aux mathématiques, de la métaphysique à la métaphysique et ce, même si les expériences interviennent in fine. Il y a une subtilité dans cet article qui est gênante pour vous sans prendre conscience que Popper nous propose un processus systématique et ennuyeux de passage des axiomes aux tests qui ne se vérifie pas totalement dans l’histoire de la science.

    • Pas d’accord. On a parlé de Popper mais aussi de Kuhn ou de Lakatos. Tous se sont essayés à caractériser ce qui est scientifique. Cela ne vous satisfait pas, soit. Mais puisque vous voulez débattre de ce qui est scientifique et de ce qui ne l’est pas, proposez une alternative : qu’est ce que la scientificité d’une théorie ? Pour ma part, je ne vais pas me contenter que vous congédiez Popper parce que vous trouvez la réfutabilité ennuyeuse et prendre pour argent comptant ce que vous qualifiez de science, comme si tout d’un coup ça allait de soi. Autant vous laissez soliloquer.

  3. A l’attention d’Oumma (merci de publier ce post plutôt que le précédent où il y avait des coquilles)
    Bonsoir Rafik,
    Vous caricaturez Popper. La réfutabilité porte aussi sur les prédictions dont est capable une théorie scientifique. C’est l’un de ses points de départ quand il compare la théorie de la relativité au marxisme et à la psychanalyse. Une théorie scientifique fait des prédictions avec une précision suffisante pour être réfutée quand elles sont confrontées aux observations. Comme il le rappelle, les théories scientifiques prennent des risques. Elles interdisent également l’occurrence d’événements. Citons Popper :
    « 1) Si ce sont des confirmations que l’on recherche, il n’est pas difficile de trouver, pour la grande majorité des théories, des confirmations ou des vérifications. 2) Il convient de ne tenir réellement compte de ces confirmations que si elles sont le résultat de prédictions qui assument un certain risque ; autrement dit, si, en l’absence de la théorie en question, nous avions dû escompter un événement qui n’aurait pas été compatible avec celle-ci — un événement qui l’eût réfutée. 3) Toute « bonne » théorie scientifique consiste à proscrire : à interdire à certains faits de se produire. Sa valeur est proportionnelle à l’envergure de l’interdiction. 4) Une théorie qui n’est réfutable par aucun événement qui se puisse concevoir est dépourvue de caractère scientifique. Pour les théories, l’irréfutabilité n’est pas (comme on l’imagine souvent) vertu mais défaut. 5) Toute mise à l’épreuve véritable d’une théorie par des tests constitue une tentative pour en démontrer la fausseté (to falsify) ou pour la réfuter. Pouvoir être testée c’est pouvoir être réfutée ; mais cette propriété comporte des degrés : certaines théories se prêtent plus aux tests, s’exposent davantage à la réfutation que les autres, elles prennent, en quelque sorte, de plus grands risques. 6) On ne devrait prendre en considération les preuves qui apportent confirmation que dans les cas où elles procèdent de tests authentiques subis par la théorie en question ; on peut donc définir celles-ci comme des tentatives sérieuses, quoique infructueuses, pour invalider telle théorie […]. 7) Certaines théories, qui se prêtent véritablement à être testées, continuent, après qu’elles se sont révélées fausses, d’être soutenues par leurs partisans — ceux-ci leur adjoignent une quelconque hypothèse auxiliaire, à caractère ad hoc, ou bien en donnent une nouvelle interprétation ad hoc permettant de soustraire la théorie à la réfutation. Une telle démarche demeure toujours possible, mais cette opération de sauvetage a pour contrepartie de miner ou, dans le meilleur des cas, d’oblitérer partiellement la scientificité de la théorie […]. On pourrait résumer ces considérations ainsi : le critère de la scientificité d’une théorie réside dans la possibilité de l’invalider, de la réfuter ou encore de la tester. »
    Par ailleurs, Kuhn avait déjà admis qu’en période de « science normale », les scientifiques ne cherchent pas à réfuter leurs théories et supportent les anomalies. Lakatos lui a admis qu’une théorie scientifique peut avoir un noyau qui n’est pas réfutable mais s’avère fructueuse en tant que « programme de recherche » dont on peut dériver des hypothèses réfutables … Bref c’est un peu plus compliqué que ce que vous nous dites de la réfutabilité.
    Mettre sur le même plan les principes de Newton (au passage le premier est un cas d’espèce du second) qui sous tend la mécanique de Newton (c’est ici que se trouve la théorie scientifique) et le principe anthropique (qui ne correspond à aucune théorie scientifique) est ainsi un non sens.
    Mais le pire pour un philosophe des sciences est de ruiner la réfutabilité sans avoir proposé d’autres critères de démarcation entre sciences et pseudo sciences en continuant à parler de scientificité. Je vous cite :
    « Ce problème, nous l’expliquerons à travers quatre exemples seulement : « la première loi newtonienne », « le principe anthropique », certaines « théories cosmogoniques» et enfin « les lois de conservation » en physique. Disons, tout de suite, que PERSONNE NE PEUT DOUTER, À L’HEURE ACTUELLE, DE LA SCIENTIFICITÉ de ces quatre domaines de connaissances. »
    Personne ne peut douter … c’est ça le propos d’un philosophe des sciences ?!
    Pour le coup vous vous décrédibilisez complètement en montrant votre parti pris qui ne relève d’aucune posture épistémologique admissible : faire accéder au rang de théorie scientifique le principe anthropique (non seulement irréfutable mais non fructueux) et plus encore le dessein intelligent.

Laisser un commentaire

Chargement…

0

France: La première prière mixte dirigée par deux femmes imames

Migrants : l’urgence en Grèce