in ,

Peut-on prouver l’existence de Dieu ?

[ez-toc]

On va parler dans cet article des preuves de l’existence de Dieu afin de fournir un rempart contre toute tentative de les réfuter. Cet article s’articule sur quatre parties. On va d’abord évoquer, dans une première partie, les preuves de Saint-Thomas en essayant de les appuyer étant donné l’ancienneté de ses arguments qui remontent au Moyen-âge. Toutefois, nous allons montrer que les preuves présentées par le docteur angélique font partie d’un système philosophique cohérent qui est très difficile à remettre en cause. Nous allons donc parler de ce système. Ensuite, on va parler de l’argument ontologique qui remontre lui-aussi au Moyen-âge. J’ai développé un argument qui ressemble à l’argument ontologique mais qui est plus précis : c’est l’argument basé sur la faillibilité de la pensée humaine : dès lors que l’activité humaine la plus prétendument parfaite qui est la pensée scientifique est faillible, il existe alors une pensée plus parfaite qui est divine.

Nous allons également explorer tous les autres arguments, dans les trois parties de cet article, afin de couvrir l’ensemble de l’argumentaire en faveur de l’existence de Dieu. Tout l’intérêt de cet exercice est de remettre cette question à l’ordre du jour après un oubli provoqué par le regain d’intérêt en Occident pour l’athéisme. Il suffit juste de préciser que les philosophes depuis le Moyen Age ont chacun en ce qui le concerne ajouté leur contribution à l’argumentaire théologique depuis Saint Thomas jusqu’à Leibniz. C’est le philosophe Kant qui a commencé à critiquer l’argumentaire jusqu’à ce que ce dernier soit complètement oublié. Il est temps aujourd’hui de le ressusciter étant donné les nouvelles révélations de la science qui appuient l’argumentaire divin.

On va donc commencer par les preuves de Saint Thomas et on va terminer notre exercice, dans la quatrième partie, par la preuve de l’ajustement fin ou ce qu’on appelle communément le Dessein intelligent qui ont connu un grand succès dans des domaines comme la physique, la cosmologie et la biologie.

Les preuves de Saint-Thomas d’Aquin

Il y a cinq preuves de Thomas : d’abord il y a la notion de moteur non mû qui remonte en fait à Aristote. Le Dieu est le premier moteur parce s’il n’existe pas, il y aurait une régression à l’infini. En second lieu, Dieu est la cause sans cause qui arrête la régression des relations causales (toute chose à une cause). Le troisième argument est de nature cosmologique, il suppose que le monde a eu un commencement et qu’avant ce commencement, il n’y avait rien. Par conséquent, c’est Dieu qui a provoqué l’existence du monde.

La quatrième preuve a trait au degré de perfection : dans le monde les choses bonnes ou mauvaises se présentent par degrés. Ainsi, la perfection parfaite à laquelle se réfèrent ces choses n’existe que grâce à Dieu qui est la perfection ultime dans la mesure de toute chose. Enfin, il y a l’argument du dessein qui stipule que dans le monde, il y a une direction et un ordre qui supposent l’existence d’un ordonnateur ou d’un horloger.

Les penseurs athées ont tenté de critiquer ces preuves. Richard Dawkins, un biologiste britannique qui a consacré sa carrière à réfuter l’existence de Dieu a a abordé dans son dernier ouvrage « Pour en finir avec Dieu1 » les trois premiers arguments et il développe deux critiques principales : la première est ce qu’il appelle le luxe de sortir Dieu de la régression à l’infini des causes2. « …nous admettons le luxe discutable qui consiste à faire apparaître un être assez fort pour mettre fin à une régression infinie…3 » a-t-il affirmé. La seconde critique est basée sur une prétendue contradiction entre l’omniscience et la toute-puissance. Dawkins déclare «…il n’a pas échappé aux logiciens que l’omniscience et la toute-puissance sont incompatibles. Si Dieu est omniscient, il doit déjà savoir comment il doit intervenir pour changer le cours de l’histoire en usant de sa toute puissance. Mais cela, signifie qu’il ne peut changer d’avis sur son intervention et donc, qu’il n’est pas tout puissant4». S’agissant de l’argument de la perfection, il lance ses mots peu intellectuellement corrects « Vous pourriez aussi bien dire que les individus ne sentent pas tout aussi mauvais, mais qu’on ne peut faire la comparaison qu’en se référant à un maximum parfait de puanteur. Il doit exister un être hors pair, exceptionnellement puant, et nous l’appelons Dieu5 ». Dawkins se refuse d’appeler la cause ultime de l’univers, Dieu, Il lui préfère une singularité physique qu’on appelle le Big-bang.

En fait, dans sa deuxième critique, Dawkins se trompe parce qu’il n’explique pas ce qu’il appelle le cours de l’histoire. S’il parle du cours normal, causal des phénomènes physiques de la nature, ces derniers obéissent à des lois physiques crées par Dieu. Il n’a donc pas changé d’avis puisque les lois physiques sont immuables sauf dans le cas très rare des miracles.

Les Mutazilites considèrent que les hommes créent leurs propres actions et qu’ils sont responsables de ces actions. Dieu n’a pas besoin de changer d’avis dans le cours des évènements humains parce que se sont les hommes qui provoquent leurs actions. Son omniscience et sa toute-puissance sont donc compatibles par ce que Dieu crée les lois physiques et les hommes sont libres dans leurs décisions et actions. Dieu ne revient pas en arrière dans le temps pour modifier ces actions puisque les lois physiques une fois crées fonctionnent d’elles-mêmes alors que les hommes sont libres de prendre leurs actions ou pas, d’entreprendre des actions mauvaises ou bonnes. Quant aux miracles, ils sont décidés bien à l’avance et réalisés par Dieu le moment voulu.

Concernant le luxe d’échapper à la régression à l’infini des causes, on peut dire que Dieu est infini. Ce n’est pas un luxe pour lui de provoquer la première relation causale. L’infinité de Dieu est suffisante en soi pour provoquer la première cause. La première cause est infinie, elle donne naissance à tout l’univers. Saint Thomas a bien précisé que le monde et les choses sont des effets sensibles de Dieu. C’est pour cette raison qu’il parle du premier moteur6 : Tous les corps sont soit en mouvement, soit, ils sont immobiles. Mais tout mouvement d’un corps est provoqué par un autre corps. Afin d’éviter une régression à l’infini, il est nécessaire d’admettre l’existence d’un moteur qui n’est mis en mouvement par aucun corps. Ce premier moteur n’est autre que Dieu. La première cause ou le premier moteur n’est pas un corps, c’est une cause infinie, suffisante pour donner naissance à l’univers. Une simple singularité physique n’est pas suffisante en soi pour donner naissance à quelque chose d’aussi immense que l’univers. C’est pour cette raison qu’il considère que le mouvement éternel est une erreur de la philosophie qui doit être corrigée.

Saint Thomas a réussi à éviter ce piège en affirmant que Dieu connait les choses avant qu’elles n’existent et par conséquent sa connaissance couvre les particuliers et leurs causes. Il ajoute que l’ordre du monde reflète une certaine « noblesse » qui justifie la connaissance par Dieu de ces choses. Il recourt ainsi à la métaphysique pour réaffirmer les attributs de Dieu, ce qui est vraiment assez rationnel. Il n’admet pas à la suite d’Aristote que les Universaux n’existent pas en dehors de l’âme alors que l’Intellect comprend les choses en dehors de l’âme.

Concernant l’argument de la perfection et contrairement à ce qu’affirme Dawkins, il n’y a pas de perfection pour les choses négatives. Celles-ci sont imparfaites par définition. En plus, il n’a pas compris Saint Thomas. Ce dernier a bien constaté que dans ce monde, il y a de la contingence qui est reflétée par la relation entre les choses imparfaites et la perfection d’un être suprême qui est Dieu.

L’existence d’une perfection ultime et maximale qui compense les perfections limitées des choses dans le monde est une nécessité parce qu’il y a une relation entre l’être suprême et les êtres inférieurs du monde. Saint Thomas a été le premier à relier la métaphysique, ou ce qu’on appelle science première, et les sciences naturelles qu’on appelle « inférieures ». On dit que c’est Aristote qui a développé cette vision unificatrice.

Pour Saint Thomas, la science première étudie l’être le plus élevé alors que la science universelle est l’étude des êtres en tant qu’êtres. Mais il affirme également que du fait que la science première étudie l’être le plus élevé, elle est appelée également à étudier les êtres en tant que tels et devenir ainsi la science universelle7. C’est en fin de compte une synthèse ou une unification de la métaphysique qu’entreprend Saint Thomas selon sa propre compréhension de l’œuvre d’Aristote. Cette réflexion se justifie par le fait que les êtres premiers, objets de la science première, ou êtres immatériels sont les principes ou les causes des autres êtres8. Ce lien entre les êtres supérieurs ou premiers et les autres êtres qui sont étudiés par la philosophie universelle lui permet de bâtir toute sa métaphysique en mettant l’accent sur les effets sensibles de Dieu qui est l’Etre le plus élevé et qui est la cause première des autres êtres comme on l’a déjà vu dans ses preuves de l’existence de Dieu. L’être immatériel et supérieur est connaissable par ses effets sensibles qui sont les seuls choses que l’homme perçoit. Par ailleurs, l’être immatériel et supérieur est la cause des autres êtres et de ce fait il est éternel puisqu’il y a une première cause et un premier Être ultime qui est Dieu.

Un être éternel est une cause « … de ce qui, parmi les choses divines, tombe sous les sens9 ». Cette manœuvre ingénieuse qui permet d’unifier la métaphysique et de faire entrer dans son domaine, l’étude de la réalité du monde physique est quelque chose de fondamental qui a favorisé l’émergence de la révolution scientifique en Europe. La démarche de l’Aquinate se justifie pleinement du fait que les êtres premiers sont après tous des êtres qui se distinguent par cette faculté à devenir les causes des autres êtres. Il y a une identification de tous les êtres en tant qu’êtres en dépit de l’existence d’être immatériels supérieurs. Saint Thomas a réussi à créer une unité de la pensée métaphysique en ayant bien compris que la philosophie d’Aristote enseigne que le fondement de la connaissance humaine est la perception de substances sensibles.

Par conséquent, il considère les substances sensibles comme des êtres dont les causes doivent faire l’objet d’étude de la métaphysique. La science première qui est l’étude des êtres supérieurs devient ainsi une partie de la métaphysique qui comprend également l’étude des êtres en tant qu’êtres. Saint Thomas n’a pas été intimidé par la conception de l’immatérialité des êtres supérieurs dont l’étude est susceptible d’être érigée en tant que science à part, c’est-à-dire la science première. Ceux-ci sont avant tout des êtres qu’il convient d’étudier en tant que tel et en tant que causes des êtres inférieurs.

Ce grand théologien n’a pas tronqué la métaphysique d’Aristote. Bien au contraire, il a compris très bien la différence entre les deux sciences. Cette différence, il ne la considère pas comme ontologique mais tout simplement comme relevant de degrés de compréhension ou d’analyse, voire d’ordre épistémologique. La science première étudie l’être supérieur et la science universelle, les autres êtres en tant que tels.

Il est donc parvenu à combler le fossé entre les deux sciences en raison de sa croyance concernant les attributs de Dieu comme causes des autres êtres de l’univers. Comme commentateur d’Aristote, sa lecture des œuvres de ce dernier traitant de la métaphysique est entendue comme une unité. La science première et la science universelle sont des parties de sa métaphysique qui est l’étude de tous les êtres et de toutes les substances. L’étude des êtres supérieurs n’est qu’une partie, soit plus digne, de la métaphysique. En fait, Saint Thomas a restitué l’œuvre d’Aristote en métaphysique en attirant l’attention sur son unité et de ce fait il a fait une bonne lecture du Stagirite.

Par conséquent, Dawkins ne peut pas critiquer les preuves de Saint-Thomas sans remettre en cause tout son système philosophique qui est assez puissant et qui puise des enseignements d’Aristote. Les choses de la nature et le monde dans son ensemble sont des effets sensibles de Dieu. Pour expliquer cette relation causale, Saint Thomas ne se contente pas de l’étude des êtres en tant qu’êtres mais aussi et surtout de l’étude des êtres en tant qu’effets sensibles d’êtres supérieures et ultimement de Dieu lui-même. Il y a donc une possibilité d’analogie entre les deux types d’êtres d’où la preuve du degré de perfection. Puisque les êtres sont des effets sensibles de l’être suprême, les qualités de ces êtres tendent à se comparer avec les attributs divins. La bonté des hommes par exemple n’est qu’un reflet de la bonté divine qui est parfaite. On peut même utiliser la notion d’infinité de Dieu pour comprendre que ces attributs sont également infinis. La bonté et la mansuétude divines sont infinies. C’est de cette manière, que le caractère fini de la bonté et de la mansuétude se réfèrent aux attributs de Dieu.

La preuve ontologique

Il y a également le fameux argument ontologique qui a été conçu par Anselme de Cantorbéry en 1078 et qui considère que Dieu est un être parfait et que la perfection implique nécessairement l’existence. Donc Dieu existe. Cet argument a fait l’objet de critiques dans l’histoire de la pensée. Par exemple, Leibniz considère qu’une telle affirmation est un peu forcée et qu’il est préférable d’ajouter la notion d’être nécessaire.

En revanche, Emmanuel Kant récuse tout lien entre la définition et l’existence. Selon lui, l’argument d’Anselme est gratuit et purement abstrait. L’existence est quelque chose qui ne s’ajoute pas systématiquement à l’affirmation sur la perfection divine. En reprenant ces critiques, le penseur athée de l’époque moderne, Richard Dawkins affirme « j’aurais automatiquement sérieusement mis en doute tout raisonnement qui aboutirait à une conclusion aussi importante sans être alimenté par une seule donnée sur le monde réel. C’est peut-être simplement le signe que je suis scientifique et pas philosophe10. »

Il faudrait s’arrêter sur ce point et vérifier une chose : s’il n’y a pas a priori un lien entre la définition de Dieu et son existence comme le prétend Kant, il convient en revanche de vérifier si les données du monde réel et surtout les connaissances humaines qui appréhendent les données empiriques sont a posteriori parfaites. Si elles sont parfaites et infaillibles, alors rien ne justifie, en se rappelant la preuve d’Anselme, l’existence d’une perfection ultime et supérieure.

Or, la science qui est la forme supérieure de la pensée humaine est faillible. C’est pour cette raison que nous avons élaboré un nouvel argument ontologique basé sur la faillibilité de la pensée humaine. Cette faillibilité est la meilleure preuve de l’existence de Dieu. En fait, nous contournons le problème de l’existence ontologique, c’est-à-dire de l’être, qui n’est pas en fait la condition la plus importante dans l’absolu. Le plus important c’est plutôt l’existence de la perfection de la pensée. Si la pensée humaine n’est pas parfaite, alors il doit exister par induction une pensée plus parfaite. Cette pensée et celle de Dieu. Nous allons décortiquer cet argument dans la section suivante. Ce que nous proposons de faire est de démonter que la pensée scientifique rencontre des limites et qu’elle ne peut pas tout appréhender.

La preuve basée sur la faillibilité de la pensée humaine

Cette preuve ressemble un peu à l’argument ontologique et à l’argument de la perfection en contournant les difficultés soulevées par des philosophes comme Leibniz et Kant qui portent sur l’absence de lien entre l’existence et la définition de Dieu et en se basant sur des faits réels mais aussi en étant plus précis. Il se formule comme suit :

La pensée humaine la plus élaborée et qui est contenue dans le savoir scientifique est faillible (imparfaite).

La pensée humaine prétend détenir la vérité sur le monde.

La pensée humaine n’est pas parfaite alors qu’elle prétend détenir la vérité.

Par conséquent, la notion de vérité absolue et d’esprit parfait ne sont pas contenus dans la pensée humaine.

Nous ne connaissons aucune forme de vérité et de pensée plus parfaites que la pensée humaine dans notre monde

Il y a donc un monde ou la vérité et une pensée plus parfaite existent.

Ce monde n’a rien à avoir avec le monde humain

Ce monde est dirigé par un être suprême supérieur à l’homme

Cet être suprême est Dieu

Par conséquent, Dieu existe

Pour démontrer cette preuve, il suffit de justifier la première prémisse : la pensée humaine contenue dans le savoir scientifique et faillible.

On va expliquer cette prémisse en évoquant l’antiréalisme de la physique moderne ; les incertitudes ontologiques de la physique des particules ; l’insuffisance ou l’imperfection des théories scientifiques, la faillibilité structurelle des théories et l’essor de la modélisation au détriment de la représentation du réel.

L’antiréalisme de la physique moderne :

Selon la vision traditionnelle en science, les théories scientifiques décrivent la réalité physique qui serait plus « réelle » en quelque sorte que ce que nous observons. Selon un point de vue assez général, le réalisme scientifique est la meilleure explication du succès de la science. C’est ce qu’Hillary Putnam appelle l’argument du miracle : le réalisme est la seule philosophie permettant de considérer que la science n’est pas un miracle. Les théories scientifiques sont des instruments efficaces parce qu’elles permettent de faire beaucoup de choses comme prédire, calculer, expliquer et surtout intervenir et manipuler les entités du monde physique. L’existence de ces atouts de la théorie est la meilleure preuve que le réalisme est vrai.

Toutefois, de nombreux philosophes parmi les constructivistes comme Bas van Fraassen, les relativistes et les pragmatiques ont critiqué cette position en arguant que l’évolution et la pratique de la science ont affaibli le réalisme. Arthur Fine a déclaré de manière solennelle : « le réalisme est mort. Sa mort a été annoncée par les néopositivistes qui se sont rendu compte qu’ils pouvaient accepter tous les résultats de la science, y compris tous les membres du zoo scientifique, est néanmoins déclarer que les questions soulevées par les assertions d’existence du réalisme étaient de simples pseudo questions11».

C’est vraiment l’évolution de la science qui remet en cause, selon ces courants de pensée, la vision selon laquelle la science actuelle nous donne une image vraie du monde parce que l’idée d’évolution et de changement réduit les théories scientifiques à de simples instruments de calcul et de prédiction et non de théories décrivant le monde.

Selon Bas van Fraassen, la science ne vise tout au plus que « sauver les phénomènes » à travers un processus continuel de perfectionnement et d’amélioration12. C’est ce qu’il appelle l’adéquation empirique. La science ne peut viser que l’adéquation empirique avec les phénomènes qui dédouane les scientifiques de croire que leurs théories soient vraies et que les entités qu’elles décrivent soient réelles.

Ce qui a amené un nombre de plus en plus grand de philosophes à se démarquer du réalisme ce sont les problèmes soulevés par l’interprétation de la mécanique quantique et le triomphe de la philosophie « antiréaliste » de Niels Bohr que nous désignons tour à tour comme une forme de mathématisme ou de positivisme par rapport au réalisme mondain d’Einstein.

Par exemple, il y a la divergence Bohr-Einstein d’octobre 1927. Einstein et ses collègues ont déclaré que la mécanique quantique n’était pas une théorie complète et que des entités cachées se tapissent dans l’ombre et expliquent les phénomènes quantiques. Ces variables cachées permettent selon eux de mettre fin aux aspects déroutants de la théorie quantique comme la dualité onde-corpuscule et le principe de superposition qui contredisent la réalité et le bon sens. En revanche, pour l’école de Copenhague, la théorie quantique repose sur une formulation abstraite mais cohérente de la réalité qui se résume à l’existence d’une entité mathématique et abstraite qui est la fonction d’onde13. Ce mathématisme est provisoire et hésitant puisqu’il est confronté à un écueil engendré par l’effondrement de la vision classique du monde physique et les difficultés presque insurmontables d’élaborer de nouveaux concepts pour la mécanique quantique.

L’induction pessimiste

C’est un « coup dur » pour le réalisme. Selon ce principe, de nombreuses théories scientifiques se sont révélées comme fausses par le passé. Une telle discontinuité dans l’évolution de la science nous incite à inférer que les théories actuelles peuvent subir le même sort. On peut aborder l’induction pessimiste de la manière suivante : la science contient des théories qui ont réussi sur le plan empirique. Il est donc naturel qu’on puisse affirmer qu’elles sont vraies. Mais l’histoire de la science nous apprend également que des efforts conceptuels similaires ont abouti à des théories fausses. Aucune discipline scientifique n’est immunisée contre les risques du changement. Beaucoup de théories dans le passé qui ont été reconnues comme vraies et qui ont formé un pilier du monde scientifique se sont révélées comme erronées.

La théorie calorifique de la chaleur était considérée comme très satisfaisante au 18ème siècle. Elle n’est plus regardée aujourd’hui que comme approximativement vraie. Il est impossible que la théorie qui nous dit que la chaleur est une substance fluide soit une approximation de la théorie qui stipule que le phénomène de la chaleur est le résultat du mouvement des molécules. Si cette dernière théorie est vraie, alors la première est complètement erronée. Il en est de même pour des théories comme celles de l’éther ou de l’espace et du temps absolus qui ont été remises en cause par la théorie de la relativité restreinte.

A partir de cette constatation, on peut s’interroger sur le bien fondé de la supériorité des lois physiques sur d’autres domaines du savoir.

La question de l’ontologie en physique

Il existe aujourd’hui de réelles incertitudes inhérentes aux concepts de particule et de champ quantiques depuis le développement de la mécanique quantique des champs. On ne sait plus vraiment ce que sont les particules et les champs quantiques.

Voyons maintenant ces incertitudes de manière précise : l’un des piliers de la physique moderne est la mécanique quantique des champs. Les physiciens l’ont élaborée entre la fin des années 1920 et le début des années 1950 en fusionnant la mécanique quantique et la théorie de la relativité restreinte d’Einstein.
La théorie quantique des champs (QFT).

Malgré ses succès, la mécanique quantique des champs soulève des difficultés d’interprétation des notions de particule et de champ qui sont héritées de la physique classique. Tout d’abord, la distinction entre les deux entités, à savoir les particules et les champs, est artificielle au sein même du cadre conceptuel de la théorie car celle-ci associe à chaque particule un champ. Par exemple, il y un champ électronique pour l’électron (le photon est la particule associée au champ électromagnétique), un champ pour chaque quark, etc. Il y a également des particules pour chaque type de champ.

Ainsi, les physiciens ne sont pas tombés d’accord sur l’entité la plus fondamentale du monde quantique. Certains réclament une théorie quantique basée sur la notion de champ et d’autres revendiquent les particules comme étant les entités fondamentales de la théorie. Il n’y a pas donc de consensus sur les notions théoriques de la mécanique quantique des champs. L’incertitude qui règne dans le vocabulaire qui décrit le monde quantique est un obstacle à un développement futur de la mécanique quantique des champs, un développement qui serait marqué notamment par l’unification de notre compréhension des forces de la nature.

Les notions classiques inhérentes aux particules et aux champs ne sont pas compatibles avec la mécanique quantique des champs. Ainsi, les particules décrites par cette théorie n’ont pas les caractéristiques d’entités individualisées et localisées comme le sont les entités de la physique classique. Elles n’ont pas de position bien définie et ne possèdent pas de trajectoire. Avant même l’unification de la mécanique quantique et de la théorie de la relativité restreinte, la notion de particule suscitait un certain nombre de difficultés théoriques.

Par exemple, si la charge d’une particule classique est concentrée dans un point, une quantité infinie d’énergie est alors stockée dans cette particule étant donné que les forces de répulsion électriques deviennent infinies lorsque deux charges du même signe sont forcées à se rapprocher l’une de l’autre. Ce qui est appelé l’énergie propre d’une particule a une valeur infinie.

Par ailleurs, le champ quantique n’a rien à voir avec le champ classique. Tandis que le champ classique permet de visualiser des phénomènes telle la lumière comme des ondes se propageant dans l’espace, le champ quantique est une expression mathématique qui permet de calculer les probabilités des résultats d’une mesure. Ces difficultés incitent à ne plus voir le cadre conceptuel lié aux notions de particule et de champ comme pertinent pour la mécanique quantique des champs ni comme utilisable ou indispensable pour l’interprétation des résultats des expériences de physique quantique.

Un certain nombre de conclusions peuvent être tirées :

  • L’argument selon lequel les entités de la physique quantique ne sont
    pas considérées comme des individus a comme point de départ la
    remarque générale suivante : les particules du même genre (comme les
    électrons) peuvent être considérées comme indiscernables dans le sens où elles possèdent les mêmes propriétés (masse, charge, spin).
  • Les entités quantiques ne possèdent pas non plus de trajectoires spatio-temporelles précises en raison des relations d’indétermination de Heisenberg. Ces entités n’ont pas, par ailleurs, de moment cinétique précis qui permet de définir une trajectoire précise. Selon ces relations, un système subit des fluctuations quantiques qui limitent la précision avec laquelle on détermine la valeur d’une grandeur comme la position d’une particule. L’image d’une particule quantique la plus récente que nous donne la mécanique quantique des champs et celle d’un nuage dont la taille correspond à celle de l’atome. Selon des théorèmes récents14, la mesure effectuée sur l’état d’un système quantique ne permet pas de distinguer entre un état à n-particules et l’état du vide.
  • L’interprétation basée sur les champs n’est pas une alternative valable à la notion de particule. Si la notion classique de particule est inapplicable à une interprétation des entités de la mécanique quantique des champs, il en est de même pour le concept de champ. Il n’existe pas d’autres notions dont l’interprétation permet une interprétation satisfaisante des entités quantiques.
  • Il y a une difficulté qui entrave la notion de champ quantique : le premier est lié au fait que la notion de champ quantique est une « perversion » de la notion de champ classique étant donné qu’un champ quantique fait correspondre à chaque point de l’espace-temps non pas une quantité physique mais une entité mathématique abstraite qui représente le type de mesure que l’on peut effectuer.

L’insuffisance des théories

Van Fraassen admet l’existence de théories concernant les entités inobservables mais ces théories ne peuvent décrire la réalité ni être vraies ou approximativement vraies. Il croit aux théories mais il est antiréaliste dans un sens large en s’opposant au réalisme scientifique qui consacre la prééminence de la vérité de la théorie et sa description de la réalité.

Nancy Cartwright, pour sa part, ne partage pas l’antiréalisme de van Fraassen concernant les théories ou ce qu’elle appelle les « lois fondamentales ». Selon elle, les lois fondamentales ne sont pas utilisées par les scientifiques pour décrire la réalité. Le seul contenu théorique qu’elle reconnait parallèlement à l’inférence de la cause probable, c’est ce qu’elle appelle les « lois phénoménologiques » qui sont plus des modèles idéalisés que des lois fondamentales ou des théories élaborées.

Grâce à cette contribution « infra-théorique », elle considère les lois fondamentales comme ni vraies, ni fausses. Elle affirme également que nous ne possédons dans la manipulation et l’intervention causale dans le monde inobservable que de « généralisations » descriptives de faible niveau et de nature causale et étroitement liées aux données empiriques et non de lois scientifiques.

Par exemple, nous savons que l’électron possède une charge qui est l’unité minimum et l’une des constantes de la nature, une masse, un spin et bien d’autres choses. Millikan a déterminé cette charge. Quant à la notion de spin, elle a été introduite pour les électrons, par George Eugene Uhlenbeck et Samuel Abraham Goudsmit en 1925, pour rendre compte de propriétés particulières des spectres atomiques, notamment les dédoublements de raies.

Ce sont là, des connaissances empiriques sur les électrons et non des théories ou de lois fondamentales. Les théories fondamentales et globales comme celle de Bohr et de Lorentz qui prétendent expliquer toutes ces propriétés causales (masse, spin, etc.) et toute la réalité au sujet de l’électron ne sont pas reconnues par cette auteure. Selon, elle « La route de la théorie à la réalité passe de la théorie au modèle puis du modèle à la loi phénoménologique. Les lois phénoménologiques sont certes vraies des objets dans la réalité– ou pourraient l’être ; mais les lois fondamentales [les théories] sont vraies seulement des objets dans le modèle15 ».

On remarque dans cette affirmation un refus de recourir aux théories : il est illusoire de penser que les théories accèdent à la réalité car il existe quelque chose entre les théories et l’expérience : ce sont les lois phénoménologiques qui sont le plus liées aux données empiriques. Les théories fondamentales en sont les plus éloignées. Il n’est pas possible de vérifier si les énoncés théoriques disent vrai dans la mesure où ces énoncés ne peuvent être confrontés directement à la réalité16.

Dans la mesure où les lois fondamentales sont imprégnées de fictions et de représentations idéalisées et irréelles, le réalisme structurel ne peut plus refléter la réalité des structures dans les théories physiques et des autres invariants fondamentaux. En suivant le raisonnement de Cartwright, on peut conclure que ces structures et ces invariants sont tout aussi fictifs que les lois fondamentales qui les portent.Cette façon de voir est le résultat d’une approche privilégiant les connaissances phénoménologiques qui regroupent les observations empiriques qui ne sont pas liées nécessairement aux lois fondamentales sur lesquelles les théories sont supposées basées.

Par ailleurs, en poursuivant jusqu’au bout sa réflexion sur les lois fondamentales, Cartwright affirme que les théories « mentent », c’est-à-dire que les énoncés théoriques sont faux. Etant donné que les théories scientifiques sont le résultat d’une construction en utilisant des « matériaux symboliques divers », elles ne sont pas valides si on veut appliquer leurs lois dans la pratique. Cartwright s’attaque principalement à la généralité de l’application des lois fondamentales Ceteris paribus (toutes choses égales par ailleurs)17.

Par exemple, la loi de la gravitation stipule Ceteris paribus que la force gravitationnelle s’exerçant entre deux corps est inversement proportionnelle au carré de leur distance. Dans la réalité, la force de gravitation n’est pas la seule force qui agit sur les corps. Ce qui signifie que lorsque la théorie de Newton se veut aussi générale en disant que la force de gravitation est in fine la force qui va s’exercer comme si elle est la seule force à l’œuvre, est fausse18. Cette théorie ne peut être vraie que lorsqu’on parle de forces gravitationnelles, ce qui est un cas très limité. La loi nous dit que la force entre deux masses de valeur m et m’ séparées par une distance r est Gmm’. Par ailleurs, cette loi n’est valable que lorsqu’il n’y a pas de charges électriques, pas de forces nucléaires, etc. Lorsque la théorie veut être vraie, son explication devient très limitée car elle ne peut expliquer des cas où il y a une composition de causes, ce qui caractérise généralement le monde empirique.

C’est le même cas de figure avec la loi d’inertie. Pour qu’on puisse vérifier cette loi, il faudrait faire une expérience dans une région de l’Univers ou aucune force gravitationnelle n’agit, ce qui est impossible dans le monde empirique. Par conséquent, la loi d’inertie n’est pas vérifiable. L’approche de Cartwright nous incite à voir dans les lois fondamentales des instruments symboliques aux pouvoirs explicatifs très limités.

Par exemple, le modèle de Bohr continent des énoncés faux. Il convient de rappeler que Bohr a élaboré en 1913 une théorie sur la base du modèle planétaire de Rutherford, cherchant à comprendre la constitution d’un atome et plus particulièrement, celui de l’hydrogène en expliquant de manière simple les raies spectrales des éléments hydrogénites tout en effectuant un rapprochement entre les premiers modèles de l’atome et la théorie des quanta. Toutefois, il a été révélé concernant cette théorie que « l’intégration de l’équation de Schrödinger pour l’atome H à un seul électron introduit 3 nombres quantiques : n, 1, m. Le moment cinétique dépend des deux derniers : 1 et m ; l’énergie, du premier : n. La condition de quantification posée par Bohr, n k, est fausse19 ». Par ailleurs, les « orbites de Bohr » sont une « fiction » si on applique l’équation de Schrödinger.

Par ailleurs, ce modèle tel que reconnu inclut des notions comme les couches électroniques et la longueur de la fonction d’onde qui n’ont pas été prévus par Bohr dans son modèle initial de l’atome mais proviennent de versions ultérieures de la mécanique quantique20. Par conséquent, les théories ou les lois fondamentales « mentent » comme l’affirme Cartwright.

Selon la théorie d’Hillary Putnam, il est possible de parvenir à désigner une entité tout en agissant dans les limites d’une théorie approximative, erronée ou incertaine. De manière plus précise, l’objet de référence chez Putnam est déterminé par des relations causales, lorsqu’on est en présence de son référent. Ainsi, la nature propre du référent peut ne pas être accessible à l’utilisateur de l’expression bien que ce dernier puisse le maîtriser. De cette manière, la théorie est très critiquée par les philosophes des sciences. C’est un autre aspect de la faillibilité de la science.

Absence d’unité de la science

Contrairement à ce que laisse penser certains scientifiques, il n’y a pas d’unité de la science. Non seulement les théories de la mécanique quantique n’ont rien à voir sur le plan épistémologique avec la mécanique classique, alors que les deux domaines restent valables sur le plan scientifique, mais en plus, il existe plusieurs concepts scientifiques qui sont irréductibles les uns aux autres.

Il faudrait ajouter à cela, l’existence de différentes interprétations concurrentes de phénomènes physiques et les physiciens n’arrivent pas à trancher entre elles.

C’est le cas de la mécanique céleste. Par exemple, les cadres interprétatifs des mouvements planétaires sont différents. Le premier cadre est celui de Newton et il est basé sur la loi de la gravitation universelle qui n’a rien à voir avec la notion de localité. La force gravitationnelle est associée aux positions instantanées et aux masses des corps massifs dans l’espace vide. Le second cadre interprétatif décrit la force gravitationnelle de manière locale en introduisant un nouveau concept physique, à savoir le champ potentiel. Cette diversité interprétative et conceptuelle reflète une discontinuité dans l’évolution des théories.

La mécanique quantique présente également une variété de cadres interprétatifs.

L’atome de Bohr reprend en fait le modèle planétaire de Rutherford dans lequel les électrons et le noyau sont des particules physiques qui obéissent aux lois de la physique newtonienne et des lois sur l’électromagnétisme tout en y introduisant la constante de Planck qui n’a aucun équivalent en mécanique classique. Cette juxtaposition de notions quantiques et de notions classiques explique le caractère bizarre des sauts électroniques : « Les électrons obéissent aux lois de Newton tant qu’ils sont sur leurs orbites et aux lois de Planck-Einstein quand ils sautent d’une orbite sur une autre21 »

Les postulats de la mécanique quantique ont chacun leur logique sous-jacente propre qui leur confère une certaine autonomie épistémologique. Cette façon de voir est appuyée par l’interprétation de Copenhague selon laquelle la fonction d’onde ne peut être expliquée comme entité existant réellement dans le monde physique. C’est uniquement après l’opération de mesure, que l’état quantique devient réel. Cette manière très étrange de décrire la nature de la fonction d’onde signifie qu’elle oscille entre réalité physique et réalité mathématique. Malgré ce caractère étrange de la fonction d’onde, il n’en demeure pas moins vrai que cette oscillation est ce qui caractérise véritablement la mécanique quantique dans le sens d’une fragmentation épistémologique.

La fonction d’onde, l’entité de base de la mécanique quantique fait l’objet d’un débat controversé sur sa nature physique. Il y a d’abord l’interprétation de Copenhague selon laquelle la fonction d’onde est un objet mathématique qui reflète la probabilité de présence d’une particule dans un endroit précis. La densité de probabilité de présence de la particule dans la position r à l’instant t est alors donnée par le carré du module de la fonction d’onde. La probabilité de présence d’une particule est considérée, par les fondateurs de cette école de pensée, comme la probabilité du résultat d’une mesure. Or, la mesure perturbe le comportement d’une particule quantique et il devient alors impossible de connaitre en même temps deux de ses propriétés (comme l’énergie et la vitesse ou la position et la vitesse) selon le fameux principe d’indétermination de Heisenberg.

La deuxième interprétation est celle de David Bohm qui est appelée aussi l’interprétation de l’onde-pilote de Louis de Broglie. Elle prédit que la fonction d’onde existe réellement dans le monde physique. Une onde-pilote est associée à la particule et détermine sa position et son mouvement. L’onde-pilote est distincte de la particule, laquelle possède une vitesse et une position bien déterminées. Mais elle agit sur la particule à travers un potentiel quantique. Contrairement à la théorie de Bohr-Heisenberg (Ecole Copenhague), la théorie de Broglie-Bohm est déterministe.

Mais ce déterminisme se heurte à des difficultés inhérentes au monde quantique. Par exemple, on peut s’interroger : comment l’onde-pilote agit sur la particule ? On ne connait pas le vecteur qui permet cette interaction d’où les soupçons qui pèsent sur son existence en la qualifiant d’action à distance qui est susceptible de violer la théorie de la relativité restreinte.

La troisième interprétation est celle des univers multiples d’Everett. Celle-ci part du principe que l’observation et la mesure de l’état quantique ne sont pas probabilistes mais déterministes. Le monde quantique est également déterministe. Ces deux postulats représentent un rejet pur et simple de l’interprétation de Copenhague. Selon cette approche, l’Univers se multiplie en plusieurs branches dans lesquelles se réalisent les différents résultats de la mesure sans pour autant que se réalise un effondrement de la fonction d’onde.

C’est à cette condition que le principe de la dualité onde-corpuscule et le principe de superposition des états quantiques peuvent êtres réconciliés.
Lorsqu’on veut connaitre par laquelle des deux fentes un photon est passé (expérience des fentes de Young), il y aura deux bifurcations, c’est-à-dire, la formation de deux branches séparées dans lesquelles le photon passe par une seule fente. L’interprétation d’Everett contourne ainsi le problème de la superposition des états quantiques dont une illustration légendaire n’est autre que le paradoxe du chat de Schrödinger. Concernant ce paradoxe, Everett affirme que le chat est mort et vivant à la fois. Mais ces deux évènements se réalisent dans deux branches séparées de l’Univers.

Toutefois, cette interprétation suscite des interrogations sur deux énigmes auxquelles cette théorie fait face : elle n’explique pas les causes sous-jacentes à l’articulation de l’Univers en plusieurs branches. Par ailleurs, le concept d’intrication des états quantiques qui révèle la corrélation entre les propriétés des particules quantiques qui sont séparées dans l’espace physique (les particules quantiques agissent comme un seul système quantique) entre en contradiction avec l’idée de la formation de plusieurs branches séparées de l’Univers qui correspondent chacune aux résultats observés lors de la mesure22.

Il est intéressant de faire remarquer que cette fragmentation épistémologique entre plusieurs interprétations de la fonction d’onde est un processus en pleine expansion. La liste des interprétations possibles n’est pas close. D’autres ont été proposées et d’autres encore le seront dans les prochaines années, ce qui confirme la thèse de l’induction pessimiste et celle du faillibilisme.

Dans la mesure où les constructions théoriques qui ont été développées pour expliquer la nature de la fonction d’onde ne correspondent à aucune autre construction théorique de la mécanique quantique et a fortiori de la physique classique et que certaines caractéristiques de ces constructions sont continuellement remises en cause par d’autres constructions (par exemple, certaines interprétations de la fonction d’onde remettent en cause la réduction du paquet d’onde qui est au cœur de la théorie de Copenhague. D’autres critiquent la nature probabiliste de la fonction d’onde. D’autres encore ne sont pas conformes au principe de superposition des états quantiques), il y a donc une instabilité des théories ou des hypothèses théoriques et l’unité de la physique est remise en cause.

Voyons un autre exemple : malgré le fait que l’électrodynamique quantique (QED) représente un progrès décisif en physique de l’infiniment petit en raison de la fusion qu’elle implique entre la théorie de la relativité restreinte et la mécanique quantique, elle n’a été possible que grâce à une renormalisation mathématique qui permet d’éliminer les infinis qui sont le résultat inévitable de cette théorie et qui sont contradictoires avec les observations.

La raison de cette aberration mathématique est liée au secret le plus profond de cette théorie physique : un électron n’est pas une particule individualisée et parfaitement identifiable pour un observateur comme une bille ou une boule de billard. Il est entouré d’une myriade de particules virtuelles qui attribuent aux propriétés physiques de l’électron (masse, charge) des valeurs infinies. Les physiciens ne sont parvenus à s’en débarrasser que grâce à une subtilité mathématique en plus d’une certitude expérimentale. Dès lors que l’expérience permet de connaître la valeur des propriétés physiques de l’électron, les infinis qui sont le produit des équations de la théorie sont éliminés mathématiquement.

Cette situation considérée par les physiciens dans les années quarante, durant lesquelles la théorie (QED) a été élaborée, comme inconfortable, confirme la faillibilité de la théorie.

Les infinis sont en fait supprimés des équations en divisant un infini par un autre. Il n’existe pas de consensus entre les physiciens sur la validité physico-mathématique de cette renormalisation. Certains comme Dirac considèrent cette astuce comme peu intelligente, d’autres y voient le résultat d’une sorte de prééminence des modèles mathématiques en physique quantique.

A partir de l’électrodynamique quantique, l’idée de vecteurs de force véhiculés par des particules appelés « bosons » fait son chemin et rencontre un grand succès. Désormais les bosons deviennent les vecteurs de force.
Là, une construction théorique se généralise à toutes les théories traitant des forces de la nature. Mais si l’idée de l’échange « bosonique » entre particules a été un point d’ancrage solide pour les théories du modèle standard, il n’en demeure pas moins vrai que le problème des infinis et la nécessité d’une renormalisation refont à chaque fois surface.

Par ailleurs, de nouveaux concepts théoriques ont été inventés comme les concepts de « saveur », de « couleur », de « charme » et « d’étrangeté » pour les quarks, ces particules énigmatiques qui font parties de la structure interne des protons et des neutrons. Ces concepts ne peuvent pas être rapprochés de concepts plus familiers en physique. On peut simplement rapprocher de concepts théoriques antérieurs.

Tournons-nous maintenant vers la gravité quantique pour remarquer que non seulement les concepts y afférant sont peu intuitifs mais en plus ils ne peuvent être rapprochés d’aucun concept théorique antérieur. L’une des premières difficultés soulevées par les recherches sur la gravité quantique est le fait que la théorie de la relativité générale est une théorie des champs qui admet l’existence d’une infinité de configurations pour la géométrie de l’espace. Cette difficulté rappelle le problème des infinis de l’électrodynamique quantique. Pendant une quarantaine d’années, aucun résultat décisif ne fut atteint.

Par ailleurs, le concept de graviton n’est valable que dans un cadre théorique limité et qui ne s’adapte pas à une théorie aussi fondamentale que la théorie de la relativité générale (les ondes gravitationnelles faibles sont des ondes qui ne transforment pas l’espace dans lequel elles se propagent). En outre, le problème principal avec les gravitons est qu’ils interagissent entre eux, ce qui soulève le problème des infinis. Par ailleurs, le concept de graviton n’est lié à aucune théorie élargie.

Les physiciens ont alors changé complètement de stratégie : au lieu d’explorer la nature des ondes gravitationnelles et d’étudier quelles peuvent être les particules quantiques qui composent ces ondes, ils ont commencé à voir comment les phénomènes quantiques se comportent dans un champ gravitationnel assez puissant pour créer des singularités dans l’espace-temps23.

Mais on peut dire d’emblée que cette démarche est une voie désespérée car elle marque un renoncement à la quantification du champ gravitationnel. Bien qu’elle amorce le début d’une recherche féconde sur les trous noirs, elle ne peut aboutir à aucune théorie cohérente et testable expérimentalement sur la gravité quantique. L’un des résultats théoriques les plus aboutis et qui n’a pas été vérifié sur le plan expérimental, est la théorie de l’évaporation des trous noir par suite de l’action de la puissante gravité de cette entité astrophysique sur les fluctuations quantiques. Mais la théorie de l’évaporation du trou noir (c’est-à-dire la transformation de sa masse en rayonnement) contredit le principe de la conservation de l’information quantique24.

La théorie de la supergravité ou super-symétrie malgré la densité des recherches qui se sont lancées autour d’elle ne représente pas non plus un progrès majeur dans l’unification des deux piliers de la physique. Cette théorie qui cohabite assez bien avec un ensemble de recherches organisées autour de la théorie des super-cordes repose sur l’étude de dimensions assez nombreuses (jusqu’à 26 dimensions) de l’infiniment petit et elle est confrontée à deux difficultés dirimantes : elle ne cohabite pas assez bien avec les postulats de la mécanique quantique et elle ne peut être testée expérimentalement. Les recherches théoriques dans ces domaines difficiles de la physique ont débouché sur une impasse et reflètent deux réalités majeures : On ne peut pas remonter de concepts anciens aux concepts nouveaux. Par ailleurs, l’accès au réel est devenu problématique pour la théorie physique.

Il y a non seulement les incertitudes métaphysiques des notions d’espace et de temps qui sont inhérentes aux deux théories de la relativité, mais aussi le fossé qui sépare l’ontologie de l’infiniment grand et l’ontologie de l’infiniment petit qui est peut-être responsable de la difficulté rédhibitoire d’unifier la théorie de la relativité générale et la mécanique quantique.

L’accès approché et incertain au réel physique ont amené les philosophes à considérer que les théories ne couvrent pas la réalité. Elles sont le résultat de nos simples et subjectives représentations que nous nous faisons du monde. Des recherches récentes laissent entendre que la mécanique quantique qui est à l’origine de la fixation du cadre global de la physique des particules ne parvient plus à décrire la réalité physique dans sa profondeur ontologique et se limite à élaborer une théorie générale de l’information quantique.

Cette difficulté touche également la révolution einsteinienne qui a entraîné non seulement un bouleversement scientifique des concepts d’espace et de temps mais également une révision des fondements épistémologiques de notre connaissance du réel physique. La recherche théorique qui a débouché sur les théories de la relativité n’est pas parvenue à édifier une science définitive et une connaissance ultime et parfaite du monde d’un point de vue métaphysique.

Publicité
Publicité
Publicité

La nouvelle vision du monde physique héritée d’Einstein implique une remise en cause des notions de substance et d’essence inhérentes aux concepts d’espace et de temps qui représentent les notions fondamentales sur lesquelles reposaient la physique newtonienne et plus particulièrement les théories d’espace et de temps absolus.

L’abandon de ces notions a amené Einstein à reprendre dans sa physique les bases d’une philosophie élaborée par Ernst Mach qui l’a grandement influencé et qui est basée sur les relations entre les phénomènes comme le mouvement. Un mouvement détermine un autre mouvement et il n’y a rien qui puisse nous permettre de faire reposer nos connaissances sur les mouvements hormis un autre mouvement. C’est ainsi que s’est forgé le principe de relativité qui rompt avec toute métaphysique de l’essence et de l’absolu25.

Cette nouvelle physique est marquée par le rejet de la métaphysique qui est considérée comme une rupture avec les données empiriques produites par la perception26.Mais comment ce nouveau « phénoménisme » relativiste s’affirme dans notre entendement scientifique ? C’est uniquement grâce au formalisme mathématique. La science se réduit donc à l’étude de phénomènes physiques dont aucune connaissance ne peut être établie avec certitude hormis les relations réciproques entre les phénomènes qui s’expriment uniquement dans le formalisme mathématique27. La conséquence la plus importante du bouleversement phénoméniste provoqué par la théorie de la relativité einsteinienne est donc le rejet du substantialisme et de la chose en soi kantienne.

L’une des théories les plus élaborées de la physique moderne ne parvient pas, quoi qu’on dise, à couvrir de manière disons métaphysique et ontologique le réel. Dans des phrases pleines de sens, Carr résume la quintessence de la théorie de la relativité en rappelant que dans le monde physique décrit par cette théorie : « … Les systèmes de référence sont définitifs sans être absolus, et relatifs sans être conditionnés extérieurement, dans lequel chaque système est suffisant par soi-même et contient sa propre norme28». Il n’y a aucune extériorité qui permet de fonder notre certitude métaphysique.

La physique se réduit à des systèmes qui deviennent les références invariantes de tous les phénomènes physiques. Il n’y a plus aucune « absoluité » dans les concepts physiques et l’accès au réel procède par un travail approximatif qui ne repose sur aucune ontologie29.

La faillibilité structurelle des théories

Examinons ces syllogismes :

La théorie est une famille de propositions vraies.

La vérité est « indivisible ».

La théorie s’assimile donc à une seule proposition vraie qui est la sommation de toutes les propositions vraies.

Une expérience peut infirmer une théorie.

Donc la théorie pourrait être fausse.

Donc une proposition pourrait être vraie et fausse à la fois.

Examinons un autre syllogisme :

La théorie est une famille de propositions.

Si la théorie est vraie.

Alors toute proposition contenue dans la théorie est vraie.

Une expérience donnée peut infirmer une théorie.

Donc la théorie pourrait être fausse.

Donc toutes les propositions contenues dans la théorie pourraient être fausses.

Donc la théorie pourrait être vraie et fausse à la fois.

Ces deux syllogismes montrent que si on suppose que la théorie est un tout indivisible, alors elle devient indécidable (ni vraie, ni fausse).

La vérité est toujours prédéterminée, elle suppose que la théorie est indivisible. Comme la vérité est elle aussi « indivisible », celle-ci est prédéterminée avant même l’expérimentation. Si la théorie est un ensemble de propositions, alors seulement toutes les propositions doivent être vraies. Mais dans ce cas, d’où serait-il possible que la théorie pourrait être fausse ? Si, pour reprendre la réflexion de Popper, on passe des axiomes aux expériences, et s’il est impossible d’infirmer que la théorie est divisible, alors la théorie n’est pas infalsifiable, elle est indécidable (ni vraie ni fausse).

La seule manière de résoudre ce dilemme et de supposer qu’une théorie scientifique soit constituée de propositions indépendantes les unes des autres. Il ne saurait y avoir de sommation de ces propositions d’une façon telle que la théorie dans son contenu général déboucherait sur une « proposition unitaire », ou « moléculaire ». Une théorie n’est pas un ensemble intégré, ni une économie théorique, ni un échafaudage, ni une unité méthodologique, encore moins une proposition univoque, mais plutôt un « conglomérat » de propositions tangibles et indépendantes les unes des autres.

Si la théorie est composée de propositions, sa vérité n’est pas déduite de la vérité de toutes ses propositions. Dans le cas contraire, il faudrait affirmer que toutes les propositions sont soit vraies soit fausses ou que quelques propositions sont vraies et les autres fausses. On part de l’hypothèse qu’il n’est pas prouvé que bien qu’une théorie soit vraie, toutes ses propositions doivent être vraies ou qu’inversement une théorie serait fausse en vertu du fait que toutes ses propositions sont fausses.

La théorie de Newton peut être analysée sous un tel éclairage : la proposition : « deux corps massifs s’attirent en raison inverse du carré de leur distance » correspondant à la deuxième loi newtonienne est vraie. Mais la proposition : « l’attraction d’un corps est fonction des attractions de ses particules, tout comme sa masse est la somme des masses de ces mêmes particules » est fausse, car elle suppose que la loi de Newton s’applique au monde microscopique ou atomique, ce qui est faux en vertu de la mécanique quantique.

De même, la proposition : « les corps se meuvent dans un espace absolu » est fausse30 en raison du concept de relativité du mouvement. Il est évident que l’affirmation relative à la vérité d’une théorie ne présuppose rien de la vérité de toutes les propositions qu’elle contient dans la mesure où on peut accepter comme valable une certaine « atomicité » d’une théorie à l’égard de toutes les propositions contenues en son sein et en ne supposant rien de ce que cette théorie a de déductif ou d’inductif.

Si on se refuse à admettre une certaine « atomicité » des théories scientifiques, on sera inexorablement réduits à un état branlant d’incertitude à l’égard de la validité logique de ces théories et par rapport à leur confrontation avec l’expérience. Cette incertitude a conduit certains philosophes à se résigner à admettre un certain « holisme » des théories scientifiques, au demeurant tout à fait stérile.

Une théorie doit contenir nécessairement des propositions fausses. Cette situation semble heurter le bon sens. Si on n’a pas pu imaginer l’existence de propositions fausses, c’est en raison d’une certaine conception du réalisme. Tant qu’on reste dans les limites fixées par le réalisme, on ne peut pas soupçonner l’existence de propositions fausses. Comme le dit si bien Koyré : « Le possible prime toujours sur le réel et le réel n’est que le résidu du possible »31.

Or, il existe une infinité de choses qui ne sont pas possibles, une infinité de choses que l’on sait d’avance être fausses. Or, il n’est jamais possible que le petit cercle fermé de la théorie reste, tout au cours de son élaboration, imperméable à cet océan, à cette infinité de propositions fausses.

Si on peut comparer la théorie à un programme d’ordinateur, on peut voir de près qu’elle ne se crée pas en une fois mais dans le sillage d’un long processus de mise en œuvre. Voici ce que nous dit un astrophysicien à propos des programmes d’ordinateurs : « Les programmeurs reconnaissent que lorsqu’un programme nouveau et compliqué marche du premier coup, ils sont plutôt embêtés. Cela signifie qu’ils ont commis une erreur tellement imperceptible qu’ils ne voient même pas ce que cela peut être. Il existe tellement de possibilités d’erreurs dans un programme, même dans un petit programme, qu’il est rare qu’il marche du premier coup sans avoir été modifié32».

Il existe en effet tellement de possibilités d’erreurs dans une théorie, que des erreurs s’introduisent parfois dans sa structure. Les propositions fausses peuvent servir à bâtir une théorie, mais souvent elles reflètent un aspect négatif ou plutôt faillible de la théorie et sans la remettre entièrement en cause.

À titre d’exemple, les propositions relatives à l’existence d’un temps et d’un espace absolus ou celle relative à l’action à distance des forces gravitationnelles de la théorie d’Isaac Newton sont entièrement fausses. Mais cette théorie demeure valable grâce à sa proposition vraie relative au principe de l’inertie et au champ gravitationnel.

De la même manière, la théorie de la relativité générale contient une proposition fausse, celle relative à l’existence de la constante cosmologique qui est un paramètre ajouté par Einstein en février 1917 à ses équations de la relativité générale (1915), dans le but de tenir compte de l’existence présumée d’un univers statique qui s’avéra erronée. Toutefois, la proposition relative à la courbure de l’espace-temps par le champ gravitationnel d’une étoile comme le Soleil reste vraie dans tous les cas.

Dans la théorie quantique de l’atome, Niels Bohr utilisa la proposition fausse relative à l’existence d’orbites stationnaires stables des électrons à côté de la proposition relative à l’émission, à l’absorption des quantums du rayonnement et au passage des électrons d’un état stationnaire à un état excité. Malgré la fausseté de la proposition relative à l’existence d’orbites électroniques stables des électrons, la théorie de Bohr ne fut pas entièrement réfutée mais seulement « complétée et améliorée » dans le cadre de nouvelles théories de la mécanique quantique qui sont basées sur le rejet total de la notion d’« orbites électroniques».

L’essor de la modélisation au détriment de la représentation du réel

L’autre aspect du faillibilisme théorique est l’essor des modèles : la physique théorique recourt fréquemment à des modèles formels qui sont souvent très abstraits. Mais en fait, les modèles ont envahi tous les secteurs de la science et de la technique.

L’origine des modèles est bien ancrée dans l’histoire de la science. Mais ce qui est sûr c’est qu’ils sont des paradigmes qui sont très éloignés de la perception. Dans les modèles, l’expérience perceptive est remplacée par des systèmes de représentation qui sont soit de nature numérique, c’est-à-dire mathématique, soit inductive (c’est-à-dire des représentations très généralisées des phénomènes physiques étudiés33). Voici ce que Mach nous dit explicitement de ce processus : « Toute science se propose de remplacer et d’épargner les expériences à l’aide de la copie et de la figuration des faits dans la pensée. Cette copie est en effet plus maniable que l’expérience elle-même34». C’est dans cette digression de Mach qu’on peut voir la véritable nature du modèle. Celui-ci est non seulement antiréaliste, mais il possède en plus une valeur symbolique qui marque une rupture avec toute ontologie et ce, pour une raison simple : il joue un rôle majeur dans la mise en œuvre d’une économie mentale35 sans pour autant qu’il n’acquière une dimension métaphysique.

La physique des particules repose, par exemple, sur des modèles mathématiques ou physico-mathématiques qui se détachent de la réalité des entités physiques. Ces modèles aboutissent parfois au développement de concepts physiques très importants mais le doute subsiste autour de leur réalité.

Par exemple, Dirac a postulé, à partir de 1930, l’existence d’une « mer » d’électrons qui remplit les états d’énergie négative conformément au principe d’exclusion de Pauli. Ce modèle de « mer des électrons » a été proposé afin de
résoudre la difficulté de concevoir l’existence d’un électron stable étant donné que cette particule peut tomber d’un état d’énergie positif à un état d’énergie inférieure36. La difficulté avec un tel modèle est qu’une telle mer de particules possède en principe une énergie infinie, ce qui jette le doute sur la réalité du modèle de Dirac.

Le recours aux modèles a été généralisé à l’électrodynamique quantique qui est une théorie quantique du champ. Le modèle abstrait qui est à la base de ces théories est la transformation de jauge. La transformation de jauge stipule qu’une invariance de symétrie implique l’existence d’une quantité conservée37. Par exemple, en mécanique quantique, l’équation non-relativiste de Schrödinger reste invariante sous une transformation de phase de la fonction d’onde qui permet la conservation de la charge38.

En suivant la logique d’économie de Mach on peut voir que le modèle de transformation de jauge a évolué vers plus d’abstraction en intégrant des aspects nouveaux en économisant les détails du phénomène qui peuvent être révélés par l’expérience. C’est ainsi que l’idée d’une invariance locale de jauge a été lancée par Yang et Mills. Ces derniers ont élaboré une théorie de symétrie générale de groupe en utilisant ces champs locaux de jauge. Toutefois, étant donné qu’il a été associé à chaque champ de jauge, une particule sans masse de spin-1, exactement de la même manière que le potentiel électromagnétique est associé à un photon, le nombre de particules sans masse est devenu théoriquement trop important, chose impossible à confirmer expérimentalement.

Le modèle de Yang-Mills est resté inutilisable jusqu’à l’élaboration de la théorie électrofaible. En 1960, Weinberg et Salam ont combiné le modèle de Yang-Mills avec le mécanisme de Higgs afin de créer une théorie qui unifie l’électromagnétisme avec la force faible39.

Ainsi, les modèles qui sont des outils d’abstraction de nature mathématique dont l’utilisation est très commode dans les processus d’élaboration des théories ont été recyclés afin de bâtir des théories qui ressemblent aux théories antérieures mais qui sont plus robustes. Toutefois, les processus sous-jacents à l’utilisation de ces modèles sont complexes. On peut néanmoins y distinguer les faiblesses épistémologiques suivantes :

– Certains modèles restent inutilisables et leur recyclage est très hypothétique. Ils ne sont pas élaborés à partir des complexes de données empiriques fournies par l’expérience comme l’aurait entendu Mach. Ils introduisent ainsi un processus très incertain et même chaotique dans l’évolution de la physique des particules.

– Le formalisme qui est à la base de ces modèles provoque l’apparition de véritables paradoxes mathématiques comme le fameux problème des infinis, lequel n’a été résolu que par un artifice purement mathématique et peu fiable (la renormalisation). Ce genre de paradoxes apparaissent à chaque étape d’évolution de la physique des particules (électrodynamique quantique, mécanisme de Higgs, théorie électrofaible).

– Les modèles ne sont utiles que lorsque les expériences sont possibles. Les théories qui les intègrent révèlent des aspects empiriques qui peuvent être confirmés par l’expérience. Mais ce processus déductif n’est pas toujours vérifié. Par exemple, les modèles élaborés dans le cadre des travaux théoriques sur les supercordes n’ont pas connu le succès attendu.

– Les modèles ne sont pas réalistes dans une large mesure. Malgré les efforts de Boltzmann visant à rendre possible une visualisation des modèles, il n’en demeure pas moins vrai qu’il n’y a aucune garantie que ces constructions soient vraies. Aucune autre signification ne peut être assignée que celle prévue par les théories elles-mêmes.

Après cet examen de la discontinuité théorique de la physique quantique, de l’antiréalisme de nombreux instruments théoriques de la physique, de l’instabilité durable et de la fragmentation épistémologique des théories physiques, il devient évident que le réalisme des théories n’est plus pertinent. On peut ainsi prendre l’exacte mesure du caractère volatil des lois physiques et des difficultés épistémologiques et métaphysiques de la science physique à approcher le réel.

Ainsi, aucune certitude scientifique ne peut alors constituer un point de départ à la critique d’un autre domaine du savoir, y compris de la religion. Une vision des sciences reposant sur la toute puissance des lois physiques et sur le succès du positivisme est basée sur des présupposés erronés étant donné la faillibilité des théories et des lois physiques. L’absoluité, l’universalité des lois physiques et le positivisme ne sont que des constructions humaines faillibles.

Le scientifique peut s’arrêter à des considérations « plus modestes » comme l’adéquation empirique où la tâche consistant à « sauver les phénomènes40». La vérité est souvent un objectif hors de portée et il n’est pas reconnu que les théories scientifiques ont besoin de décrire parfaitement la réalité. Ces théories aspirent tout au plus à sauver les phénomènes. Van Fraassen a donné la définition suivante de la théorie : « Une théorie est empiriquement adéquate si son contenu à propos des choses observables et des évènements dans le monde est vrai dans le sens où il « sauve le phénomène »41.

Par conséquent, la pensée humaine et notamment la pensé scientifique n’est pas parfaite. Il existe donc une pensée plus parfaite qui est renfermée dans le monde divin. Cette preuve de l’existence de Dieu est un maillon essentiel de l’argumentaire théologique. Le deuxième grand maillon de notre argumentaire est la théorie du dessein intelligent et de l’ajustement-fin.

Mais avant d’aborder cette théorie très importante que les penseurs athées ne sont pas parvenus à remettre en cause à la lumière des dernières découvertes scientifiques que nous allons résumer dans la troisième partie de cet article, nous allons explorer dans une seconde partie, les autres preuves classiques de l’existence de Dieu.

1 Traduit de l’anglais par Marie-France Desjeux-Lefort, Perrin, Paris 2018. Titre original. The God Delusion, 2006.

2Ibid., p.102.

3Ibid.

4Ibid.

5Ibid., p.104.

6Émile Bréhier La philosophie du Moyen âge, Un document produit en version numérique par Jean-Marc Simonet, bénévole, professeur retraité de l’enseignement de l’Université de Paris XI-Orsay,p. 290.

7 In IV Metaph., 5, 593 (edition Cathala-Spiatri).

8James C.Doig Science première et science universelle dans le commentaire de métaphysique de saint Thomas d’Aquin, Revue philosophique de Louvain, p.44

9Ibid., p.50.

10Op.cit. Dawkins, p.108.

11Essais III. Wittgenstein ou les Sortilèges du langage, Agone, 2003, p.15

12Van Fraassen Bas C., The Scientific Image, Oxford, Clarendon Press, 1980, p. 4.

13Ibid.

14Plus particulièrement, le théorème de Reeh-Schlieder (Reeh, H. and S.
Schlieder, 1961)

15Cartwright Nancy How the laws of physics lie: (1983), Oxford, Oxford, University Press, p. 6.

16Varenne Franck Théorie, réalité, modèle Epistémologie desthéories et des modèles face au réalisme dans les sciences, Editions météorologiques Collection Sciences&Philosophie » materiologiques.com août 2012, p. 226.

17Cartwright Nancy Do the laws of physics state the facts? PacificPhilosophicalQuarterly 61. 1980. Traduction française de Dennis Bonnay dans Philosophie des sciences,naturalismes et réalismes, textes réunis par S.Laugier et P.Wagner, Paris, Librairie Philosophique J.Vrin 2004, p.214.

18Ibid, p.227.

19Georges Guinier ; Bulletin de l’Union des Physiciens 75 (1980) p.1294.

20 Ibid.

21 Ortoli Sven / Pharabod Jean-Pierre Le Cantique des Quantiques. Editions la
Découverte, Paris, 1984., p. 36.

22Bryce S. DeWittet al. The Many-Worlds Interpretation of Quantum Mechanics Princeton University Press, 1973.

 

23Smolin Lee The Trouble with physics, Houghton Mifflin Company, Boston, New York, 2007, p.89.

24Ibid. p.91.

25François-Xavier Demoures, Relativité et relativisme : la réception de la théorie d’Einstein. p. 8.

26Ibid.

27Ibid.

28Ibid.

29Ibid.

30On le sait grâce à la théorie de la relativité.

31Alexandre Koyré, Études d’histoire de la pensée scientifique, éd. Gallimard, Paris, 1973, p. 51.

32George Greenstein, Le destin des étoiles, éd. du Seuil, Paris, 1987, p. 136.

33 Mach Ernst, La Mécanique [1904], Paris, Jacques Gabay, 1987, p. 449.

34Ibid.

35Varenne Franck Théorie, réalité, modèle Epistémologie des théories et des modèles face au réalisme dans les sciences, Editions matériologiques Collection « Sciences& Philosophie » materiologiques.com août 2012, p. 145.

36Hesse, M.B. (1966) Models and Analogies in Science. University of Notre Dame Press.

37Cushing James T. Models, High-Energy Theoretical Physics and Realism,PSA, on. p. 40.

38Ibid.

39Ibid., p.43.

40Van Fraassen Bas C., The Scientific Image, Oxford, Clarendon Press, 1980, p.88.

41Ibid, p.54.

Publicité
Publicité
Publicité

4 commentaires

Laissez un commentaire
  1. Donc, de point de vue scientifique toujours , a la vue de nombreux éléments intuitifs , qui suggère que le monde possède un grand architecte, l existence de dieu est théoriquement possible . Mais , cela restera toujours une hypothèse , comme pour la création de l univers..

  2. D un point de vue scientifique , je le précise bien l existence de dieu est pourtant démontrable , La science que je respecte beaucoup se contredit par moment car ses résultats se base sur ce qui est ” observable ” hors les trous noirs par exemple invisible a l l oeil nu dans l espace ont été découvert a cause du champ gravitationnelle autour, le vent qui est invisible, la description et la composition du noyau terrestre , ce que contient l’espace,…

    Donc la science croit en ce qu elle ne voit pas , bien qu elle prétend le contraire.

    Si dieu est invisible , son expression est visible en contrepartie.

  3. @ Waterwater :
    Tout à fait, C’est exactement ce que disait René Guenon, dans “la symbolique de la croix” (il me semble). Pour résumer brièvement D.ieu ne peut pas “exister” (du latin “existere” – sortir de) car D.ieu
    (d’ailleurs cela est révélé dans le Saint Coran avec la sourate al ikhlas).

Laisser un commentaire

Chargement…

0

Les disparitions forcées et autres massacres : des tragédies humaines indélébiles

Tunisie : toujours pas de gouvernement