Menu
in

Une critique philosophique et scientifique de la doctrine athéiste de Stephen Hawking (2/2)

L’athéisme de Stephen Hawking, un engagement personnel précipité

Une critique philosophique et scientifique

Deuxième partie

Publicité

Après avoir abordé la critique de l’hypothèse Hawking sur l’unification de la physique, nous nous attaquerons cette fois à sa deuxième hypothèse sur les lois de la physique qui est un pilier de sa doctrine athéiste.

  1. Critique de la doctrine de Hawking concernant les lois de la physique

Selon Hawking, la connaissance humaine des lois physiques signifie qu’on n’a pas besoin de Dieu pour comprendre l’Univers. On va démontrer dans cette partie de l’article qu’il n’en est rien.

Publicité

Des philosophes contemporains de la science comme Ian Hacking, Baas Van Fraassen et Nacy Carterwright ont prouvé que les théories de la physique sont loin d’être réalistes (c’est-à-dire des théories qui décrivent et représentent la réalité physique) et que les lois fondamentales de la physique sont spéculatives.

Ces philosophes pensent que la réalité physique n’est appréhendée que grâce à la manipulation des entités inobservables du monde physique (électrons, quarks, etc.), à des connaissances phénoménologiques basées sur les expériences, à une inférence s’appuyant sur les causes probables des phénomènes et à des vérités familières tirées de l’expérimentation.

On remarque très bien aujourd’hui combien ces philosophes nous éclairent d’un jour nouveau sur les limites des lois physiques, sur l’inévitabilité d’un contact causal et de la manipulation pour se convaincre de la réalité physique.

Leurs affirmations sont tellement justes que les théories les plus élaborées à l’heure actuelle sont considérées par des physiciens comme hautement spéculatives, voire pseudo-scientifiques. Pour s’en convaincre, il suffit de voir la théorie des super-cordes, la théorie de la gravitation quantique à boucle et celle sur les multi-univers.

    1. Le rôle de l’intervention causale et de la manipulation versus lois physiques

A l’origine de cette situation confuse de la physique qui semble n’avoir pas préoccupé Hawking est ce cul-de-sac idéaliste ou ce que Hacking appelle l’écran des représentations. La philosophie de la connaissance du XXe siècle a simplement perpétué les épistémologies et philosophies de la connaissance du XVIIe siècle, mais en nous enfermant cette fois-ci complètement dans la représentation1.

Publicité

Cet enfermement est le résultat d’une propension à privilégier la théorie du savoir conçue comme « spectacle » en créant un fossé entre la pensée et l’action2. L’intérêt de la philosophie de la connaissance pour la représentation obscurcit l’importance de l’intervention et de l’action qui se déploie dans l’expérimentation3.

C’est pour cette raison que les arguments des antiréalistes contre le principe de l’inférence à la meilleure explication ont fait long feu par l’intermédiaire de Laudan (1981), Fine (1984), Boyd (1991) et Fraassen.

Si les lois physiques ne sont pas un terrain solide pour représenter la réalité physique, comment alors s’en sortir ? C’est grâce à la manipulation et à l’intervention sur les entités physiques que nous pouvons comprendre leur fonctionnement et croire à leur réalité.

Plus nous comprenons certaines forces causales des électrons, plus nous pouvons construire des instruments qui peuvent réaliser des effets très bien connus dans d’autres parties de la nature. Avec le temps, lorsque nous utilisons l’électron pour manipuler d’autres parties de la nature de manière systématique, l’électron cesse d’être quelque chose d’hypothétique et d’inféré.

L’utilisation des électrons ou de toute autre entité inobservable permet, non seulement, d’intervenir dans le monde microscopique mais également de croire en leur réalité. Il y a ainsi un cercle vertueux, qui n’a pas été prévu par les philosophes des théories scientifiques, entre le réalisme et l’intervention. C’est notre capacité à utiliser les électrons comme des outils pour manipuler d’autres entités inobservables qui permet de croire, en même temps, en leur réalité.

Par ailleurs, la meilleure alternative à l’argument de l’inférence à la meilleure explication (IME) qui est à la base des lois physiques est l’inférence rendue possible simplement par l’interaction causale.

Steve Clark dans un article intéressant4 donne un exemple familier de cette inférence : derrière un ordinateur dans le coin en bas à droite, il y a un bouton on/off. Une personne n’ayant jamais observé directement ce bouton quoique elle sache qu’il est situé dans l’endroit indiqué et que c’est un bouton on/off ignore en même temps ce que c’est. Elle n’a aucune notion théorique de ce qu’est un ordinateur. Ses connaissances lui permettent cependant de supposer que des ordinateurs possèdent des boutons on/off dans des endroits autres que le coin en bas à droite.

Toutefois, cette personne est convaincue que le bouton est situé dans ce coin et que c’est est un bouton on/off en raison du fait qu’elle a utilisé un stylo pour manipuler le bouton ce qui provoque l’allumage et l’éteinte de l’ordinateur.

Ainsi, c’est l’interaction causale qui justifie ma croyance en l’existence de ce bouton on/off. Cette personne comprend qu’elle puisse interagir causalement avec ce bouton sans que cette interaction soit fondée théoriquement.

Ses connaissances sont empiriquement et non théoriquement fondées comme par exemple le fait que les ordinateurs s’allument et s’éteignent et que les boutons on/off contrôlent le flux d’électricité vers l’ordinateur. De telles connaissances ne reposent sur aucune théorie fondamentale et élaborée.

S’agissant des expériences de physique, les scientifiques possèdent des connaissances empiriques similaires qui leur permettent d’interagir avec les entités inobservables en les manipulant et en intervenant sur leurs propriétés causales. Ces scientifiques conduisent ces expériences en l’absence de théories fondamentales sur les entités qu’ils manipulent5. La source des croyances des scientifiques ne sont pas des théories mais seulement des croyances formulées sur ces entités qui permettent une interaction causale réussie avec elles.

L’inférence qui est la base de ces croyances est ce qu’on appelle l’inférence à la cause probable (ICP) qui a été élaborée par Nancy Cartwright6.

Grâce à cette inférence, le scientifique intervient dans le processus causal en manipulant les entités impliquées7. A travers une telle inférence, on peut déterminer quelles sont les entités manipulées qui interagissent causalement avec d’autres entités, ce qui permet de ne prendre en considération que les entités qui interagissent dans ce processus8. On peut ainsi inférer que ces entités sont probablement celles qui interagissent causalement dans les expériences sans tenir compte de celles qui n’ont pas cette propriété.

Cette inférence principe repose sur deux arguments fondamentaux : 1/ l’argument de la coïncidence, selon lequel, l’utilisation de ICP ne nécessite pas un choix entre plusieurs causes probables. La coïncidence est bien reflétée par le fait qu’il est possible de mener de multiples expériences qui démontrent chacune et de manière indépendante que la même entité est la cause probable du même effet9. Cette coïncidence permet de s’assurer que toutes ces expériences mettent en jeu un unique processus causal.

2/ L’argument de la non-redondance : l’inférence à la cause probable permet d’inférer l’existence d’une entité qui est la cause de l’effet sans opter pour une quelconque théorie fondamentale décrivant cette entité10. Cette inférence est « neutre » par rapport à la diversité des théories et à l’équivalence empirique entre ces théories.

Le mot « neutre » signifie que notre croyance en l’existence d’une entité causalement efficace est compatible avec la diversité des théories fondamentales décrivant ces entités.

On va donner un seul exemple pour montrer que l’inférence à la cause la plus probable (ICP) permet d’inférer l’existence d’une entité sans opter pour une quelconque théorie fondamentale :

– Grâce aux expériences de Hertz et à la reproduction de résultats similaires à celles de ces expériences par d’autres scientifiques que la confiance des physiciens à propos de l’existence des ondes électromagnétiques a été définitivement acquise.

Or, Hertz a réalisé ces expériences sans qu’une théorie précise sur les ondes électromagnétiques n’ait été retenue comme base de son travail. En réalisant ses expériences, il a juste inféré l’existe des ondes électromagnétiques en exploitant les données empiriques obtenues.

Mais ce qui est important dans les travaux de Hertz, c’est que, non seulement, il y a eu une consolidation des expérimentations néo-hertziennes mais également une prise de conscience sur la possibilité de manipuler ces entités physiques qui sont inobservables (ondes électromagnétiques).

Par ailleurs, une culture de la preuve est née depuis cette date. Les résultats des expériences d’Hertz sont autant de preuves de l’existence de ces ondes. On peut entendre par le mot «preuve » : l’accumulation suffisante de données empiriques qui permettent d’inférer l’existence d’ondes électromagnétiques. En effet, il existe dans les expériences d’Hertz une inférence à l’existence des ondes électromagnétiques qui sont la cause probable des effets enregistrés dans ces expériences.

Ces effets sont par exemple les arcs électriques qui se produisent dans la boucle réceptrice qui sont le résultat d’un courant électrique induit par l’émission d’ondes électromagnétiques (la cause efficace) produites par l’émetteur qui est un circuit LC oscillant au-delà de la limite de claquage.

L’oscillateur comprend deux sphères de cuivre, d’environ 30 cm de diamètre, reliées par un conducteur rectiligne d’environ 3 m, coupé en son milieu par un éclateur constitué de deux petites sphères dont la distance peut être réglée.

Les sphères sont reliées à une bobine de Ruhmkorff qui est un générateur électrique permettant d’obtenir des tensions très élevées à partir d’une source de courant continu (conçue en 1850 par Heinrich Daniel Ruhmkorff). Les charges s’accumulent dans les grandes sphères jusqu’au moment où l’étincelle éclate entre les petites sphères de l’éclateur.

Cette expérience reflète une manipulation de la cause efficace qu’est l’onde électromagnétique qui permet d’inférer l’existence de cette cause. Les historiens des sciences Michel Atten et Dominique Pestre ont affirmé à ce propos « c’est moins de prouver l’existence des ondes (ou de les rendre visibles) qui convainc que de les manipuler11 ».

2.2. L’inférence à la cause probable de Cartwright c’est mieux qu’une loi physique 

Le scientifique peut s’arrêter à des considérations « plus modestes » comme l’adéquation empirique où la tâche consistant à « sauver les phénomènes12». La vérité est souvent un objectif hors de portée et il n’est pas reconnu que les théories scientifiques ont besoin de décrire parfaitement la réalité.

Ces théories aspirent tout au plus à sauver les phénomènes. Van Fraassen a associé les deux concepts de manière étroite dans une même définition : « Une théorie est empiriquement adéquate si son contenu à propos des choses observables et des évènements dans le monde est vrai dans le sens où il « sauve le phénomène13 ». 

Le contenu empirique d’une théorie couvre les conséquences observationnelles qui lui sont liées. Le mot « observationnelles» ne doit pas ici nous égarer : il suffit juste de préciser que Van Fraassen développe un constructivisme empirique s’agissant des entités observationnelles qui ne rejette pas totalement le réalisme. Mais en ce qui concerne les entités inobservables, il est complètement antiréaliste. Il est, selon lui, impossible de prouver l’existence de ce genre d’entités.

Le défi qu’a lancé van Fraassen au réalisme scientifique et à son concept phare qui est l’IME ne peut être relevé par le réalisme que si celui-ci démontre qu’il existe un type d’inférence qui n’a rien à voir avec IME permettant de décrire les entités inobservables.

Une telle inférence ne doit pas dépendre des « vertus pragmatiques » utilisées dans les explications et se conformer au principe de « non-redondance» (un choix possible entre explications empiriquement adéquates)14. Cette inférence doit également permettre de démontrer que ce genre d’entités existe et ne pas se satisfaire de l’« adéquation empirique15 ».

Il est donc inutile de reprendre la discussion sur les vertus d’ICP. Si nous avons parlé ici de la critique antiréaliste de van Fraassen, c’est simplement en raison du fait que nous ne pouvons pas nous contenter de la démonstration relative aux vertus d’ICP par rapport à IME concernant les principes de non-redondance, de coïncidence, de frugalité (selon le principe de frugalité, on peut se contenter de l’adéquation empirique dans toute explication et ne pas chercher si elle est vraie ou approximativement vraie) et du recours aux vertus pragmatiques de Van Fraassen.

Toutefois, il reste une question importante : comment concilier entre le réalisme scientifique et l’antiréalisme empirique de van Fraassen en se débarrassant de tout contenu des lois théoriques ?

En d’autres termes, si l’inférence à la cause probable (ICP) permet de déterminer les entités causalement impliquées dans le processus causal abstraction faite de l’équivalence empirique entre différentes explications tout en étant certain que cette entité existe réellement par la manipulation et l’intervention causale, cela signifie-t-il que nous avons obtenu une explication (de nature causale) sans le recours aux théories? A quel genre appartient l’explication causale si elle n’est pas théorique ?

Van Fraassen admet l’existence de théories concernant les entités inobservables mais ces théories ne peuvent décrire la réalité ni être vraies ou approximativement vraies. Il croit aux théories mais il est antiréaliste dans un sens large en s’opposant au réalisme scientifique qui consacre la prééminence de la vérité de la théorie et sa description de la réalité.

Nancy Cartwright, pour sa part, ne partage pas l’antiréalisme de van Fraassen concernant les théories ou ce qu’elle appelle les « lois fondamentales ». Selon elle, les lois fondamentales ne sont pas utilisées par les scientifiques pour décrire la réalité. Le seul contenu théorique qu’elle reconnait parallèlement à l’inférence de la cause probable, c’est ce qu’elle appelle les « lois phénoménologiques » qui sont plus des modèles idéalisés que lois fondamentales ou des théories élaborées.

Grâce à cette contribution « infra-théorique », elle considère les lois fondamentales comme ni vraies, ni fausses. Elle affirme également que nous ne possédons dans la manipulation et l’intervention causale dans le monde inobservable que de « généralisations » descriptives de faible niveau et de nature causale et étroitement liées aux données empiriques et non aux lois scientifiques.

Par exemple, nous savons que l’électron possède une charge qui est l’unité minimum et l’une des constantes de la nature, une masse, un spin et bien d’autres choses. Millikan a déterminé cette charge. Quant à la notion de spin, elle a été introduite pour les électrons, par George Eugene Uhlenbeck et Samuel Abraham Goudsmit en 1925, pour rendre compte de propriétés particulières des spectres atomiques, notamment les dédoublements de raies.

Ce sont là, des connaissances empiriques sur les électrons et non de théories ou de lois fondamentales. Les théories fondamentales et globales comme celle de Bohr et de Lorentz qui prétendent expliquer toutes ces propriétés causales (masse, spin, etc.) et toute la réalité au sujet de l’électron ne sont pas reconnues par cette auteure.

Cartwright a affirmé « La route de la théorie à la réalité passe de la théorie au modèle puis du modèle à la loi phénoménologique. Les lois phénoménologiques sont certes vraies des objets dans la réalité– ou pourraient l’être ; mais les lois fondamentales [les théories] sont vraies seulement des objets dans le modèle16 ».

On remarque dans cette affirmation un refus de recourir aux théories : il est illusoire de penser que les théories accèdent à la réalité car il existe quelque chose entre les théories et l’expérience : ce sont les lois phénoménologiques qui sont le plus liées aux données empiriques.

Les théories fondamentales en sont les plus éloignées. Il n’est pas possible de vérifier si les énoncés théoriques disent vrai dans la mesure où ces énoncés ne peuvent être confrontés directement à la réalité17.

Il est important de souligner que cette vision des choses est étroitement liée à la notion d’explication causale. Selon Cartwright il y deux sortes d’explications : l’explication causale et l’explication théorique18 : tandis que l’explication causale permet de vérifier directement la réalité des entités ou des phénomènes qui font l’objet de cette explication, l’explication par les théories décrit l’entité en relation avec beaucoup d’autres entités et phénomènes dans le cadre d’un cadre théorique très élaboré incluant des lois fondamentales.

Ces lois « dématérialisent » les données empiriques en faveur d’une explication théorique élargie qui prétend expliquer beaucoup de choses concernant cette entité. Ce genre d’explication n’atteint jamais l’objectif d’être directement vérifiable dans les objets de la réalité.

En revanche, l’explication causale dont on a vu toutes les vertus dans la satisfaction des principes de non-redondance grâce à l’ICP permet le recours aux lois phénoménologiques qui sont vérifiables par l’expérience.

Mais comment Cartwright développe-t-elle son antiréalisme à l’égard des théories ? C’est précisément en reprenant la critique antiréaliste de van Fraassen contre elle-même.

Dès lors que les raisons qui nous amènent à retenir des théories ne sont pas nécessairement liées à la confrontation avec la réalité mais plutôt à des critères de commodité, de simplicité, de cohérence et généralement de tout ce qui relève de ce que van Fraassen appelle les « vertus pragmatiques » et que Cartwright désigne par le terme « commodité19 », les lois fondamentales qui forment le contenu de ces théories ne sont pas nécessairement la source des lois phénoménologiques, lesquelles sont directement confrontées aux données empiriques.

Par exemple, la théorie de Théodore Franz Éduard Kaluza (1921) proposant d’ajouter à l’espace-temps quadridimensionnel une cinquième dimension afin d’unifier dans un même appareil mathématique force électromagnétique et gravitation a été « abandonnée » mais non « réfutée », alors même qu’elle était en parfaite cohérence avec la théorie de la relativité générale. Rappelons que cette théorie a tenté d’unifier la gravitation et la force électromagnétique en ajoutant une cinquième dimension. L’idée de base est l’extension de la théorie de la relativité générale en exploitant sa stratégie d’ajouter des dimensions supplémentaires.

En fait, les équations de cette théorie cohabitent bien avec les équations de Maxwell mais de manière formalisée qui tient compte de l’existence d’une cinquième dimension. Mais c’est Oscar Klein qui a donné une description précise de cette dimension supplémentaire. Il a imaginé qu’elle est enroulée en cercle.

Toutefois, ces lois fondamentales (cinquième dimension enroulée en cercle, cohabitation des équations de la relativité générale avec les équations de Maxwell) n’ont jamais été confrontés avec la réalité mais relèvent de considérations théoriques liées à une certaine cohérence mathématique et de l’idée qui semble « séduisante » mathématiquement d’ajouter une dimension supplémentaire pour unifier les deux forces (gravitation et électromagnétisme).

On peut dire également que cette théorie est commode selon le critère de Cartwright puisqu’elle a trouvé une issue rapide au problème de l’unification entre les deux forces fondamentales. Mais cette issue à occulté le problème de la cohabitation entre la mécanique quantique et la théorie relativiste de la gravitation.

Par ailleurs, la théorie de Kaluza-Klein n’a pas aboutit à des lois phénoménologiques20 qui sont confrontées à des données empiriques. Bien au contraire, l’expérience ne peut pas prouver une théorie qui stipule que la cinquième dimension est invisible et dont la taille est équivalente à la longueur de Planck, soit 10-33 cm.

Il est en fait impossible d’expérimenter un phénomène physique à cette dimension.

Même la théorie des cordes qui a succédé à la théorie de Kaluza-Klein prévoyant un Univers à dix dimensions ne comprend aucune loi phénoménologique permettant de la confirmer ou de décrire des données empiriques et repose uniquement sur ce que van Fraassen appelle les « vertus pragmatiques ». La cohérence mathématique et la commodité dictée par l’intérêt d’unifier les forces de la nature font parties de ces vertus pragmatiques.

Lorsque Kaluza a présenté sa théorie à Einstein en 1919, ce dernier disait, dans un article, qu’il ne pensait pas que la théorie à cinq dimensions de Kaluza soit susceptible de contenir beaucoup d’arbitraire. Il est du moins douteux que le mot « arbitraire » puisse concorder avec le réalisme et la vérification expérimentale, même si Einstein avait évoqué, comme exigence supplémentaire pour la validité d’une théorie, en sus de l’expérimentation, le critère de la « perfection interne ». L’on ne peut finalement que se résigner à l’idée que ce critère n’a pas fait ses preuves avec la théorie de Kaluza.

Cette dernière a été, en dépit de sa cohérence mathématique, sa simplicité et sa séduisante architecture, tout de même abandonnée pour des raisons de commodité parce que les chercheurs avaient emprunté une autre voie pour établir des théories sur l’unification des forces21. Au lieu d’enrichir l’espace–temps à quatre dimensions en lui ajoutant une dimension supplémentaire, le mathématicien Hermann Weyl proposa, en 1918, de conserver l’espace quadridimensionnel, mais de compliquer sa structure22.

Pour les mêmes raisons de commodité, la théorie de Kaluza et son concept d’« introduction de dimensions supplémentaires » a été reprise par la théorie des cordes à dix dimensions. Mutatis mutandis la théorie de Weyl fut également abandonnée par les physiciens parce qu’elle ne reproduisait pas correctement la gravitation. Toutefois, le concept d’« invariance de jauge » lui a survécu, et fut inclut dans un nouveau formalisme mathématique utilisé par les théories des champs (comme le modèle standard).

2.3. Les limites des lois fondamentales : les lois physiques « mentent »

Dans la mesure où les lois fondamentales sont imprégnées de fictions et de représentations idéalisées et irréelles, le réalisme structurel ne peut plus refléter la réalité des structures dans les théories physiques et des autres invariants fondamentaux. En suivant le raisonnement de Cartwright, on peut conclure que ces structures et ces invariants sont tout aussi fictifs que les lois fondamentales qui les portent.

Cette façon de voir est le résultat d’une approche privilégiant les connaissances phénoménologiques qui regroupent les observations empiriques qui ne sont pas liées nécessairement aux lois fondamentales sur lesquelles les théories sont basées.

Par ailleurs, en poursuivant jusqu’au bout sa réflexion sur les lois fondamentales, Cartwright affirme que les théories « mentent », c’est-à-dire que les énoncés théoriques sont faux. Etant donné que les théories scientifiques sont le résultat d’une construction en utilisant des « matériaux symboliques divers », elles ne sont pas valides si on veut appliquer leurs lois dans la pratique. Cartwright s’attaque principalement à la généralité de l’application des lois fondamentales Ceteris paribus (toutes choses égales par ailleurs)23.

Par exemple, la loi de la gravitation stipule Ceteris paribus que la force gravitationnelle s’exerçant entre deux corps est inversement proportionnelle au carré de leur distance.

Dans la réalité, la force de gravitation n’est pas la seule force qui agit sur les corps. Ce qui signifie que lorsque la théorie de Newton se veut aussi générale en disant que la force de gravitation est in fine la force qui va s’exercer comme si elle est la seule force à l’œuvre, est fausse24. Cette théorie ne peut être vraie que lorsqu’on parle de forces gravitationnelles, ce qui est un cas très limité. La loi nous dit que la force entre deux masses de valeur m et m’ séparées par une distance r est Gmm’.

Mais cette loi n’est valable que lorsqu’il n’y a pas de charges électriques, pas de forces nucléaires, etc. Lorsque la théorie veut être vraie, son explication devient très limitée car elle ne peut expliquer des cas où il y a une composition de causes, ce qui caractérise généralement le monde empirique.

C’est le même cas de figure avec la loi d’inertie. Pour qu’on puisse vérifier cette loi, il faudrait faire une expérience dans une région de l’univers ou aucune force gravitationnelle n’agit, ce qui est impossible dans le monde empirique. Par conséquent, la loi d’inertie n’est pas vérifiable.

L’approche de Cartwright nous incite à voir dans les lois fondamentales des instruments symboliques aux pouvoirs explicatifs très limités.

On va donc poursuivre l’éclaircissement de cette approche en donnant d’autres exemples.

– Le modèle de Bohr continent des énoncés faux. Il convient de rappeler que Bohr a élaboré en 1913 une théorie sur la base du modèle planétaire de Rutherford, cherchant à comprendre la constitution d’un atome et plus particulièrement, celui de l’hydrogène et expliquant de manière simple les raies spectrales des éléments hydrogénoïdes tout en effectuant un rapprochement entre les premiers modèles de l’atome et la théorie des quanta.

Toutefois, il a été révélé concernant cette théorie que « l’intégration de l’équation de Schrödinger pour l’atome H à un seul électron introduit 3 nombres quantiques : n, 1, m. Le moment cinétique dépend des deux derniers : 1 et m ; l’énergie, du premier : n. La condition de quantification posée par Bohr, n k, est fausse25 ». Par ailleurs, les « orbites de Bohr » sont une « fiction » si on applique l’équation de Schrödinger.

« L’électron de l’atome d’hydrogène ne tourne pas autour du proton en décrivant une orbite képlérienne, circulaire ou elliptique ; mais, sauf si 2 = 0, il a un moment cinétique non nul. Dans un autre atome, les électrons ayant un moment cinétique sont souvent assez nombreux : 6 sur 11 dans celui de sodium ; 78 sur 92 dans celui d’uranium26 ». « Toutefois, par suite de compensations, le moment cinétique résultant pour l’ensemble des électrons de l’atome soit est nul, comme pour Na, soit correspond à un quantum petit27 ».

C’est pour cette raison que le modèle de Bohr a survécu. Par ailleurs, ce modèle tel que reconnu inclut des notions comme les couches électroniques et la longueur de la fonction d’onde qui n’ont pas été prévus par Bohr dans son modèle initial de l’atome mais proviennent des versions ultérieures de la mécanique quantique28.

Par conséquent, les théories ou les lois fondamentales « mentent » comme l’affirme Cartwright. Une analyse détaillée de la plupart des théories comme on l’a bien remarqué avec la théorie de Bohr montrent qu’elles sont très faillibles et ne résistent pas à une confrontation très précise avec les données empiriques.

Elles apparaissent, par ailleurs, très imparfaites en termes techniques lorsqu’on compare ces théories avec les développements théoriques qui leurs sont ultérieures.

Ces caractéristiques « négatives » des lois fondamentales disqualifient les théories dans le processus de confrontation avec la réalité et ne peuvent ainsi être considérées comme vraies. En revanche, les modèles reflètent, selon Cartwright, des relations causales et peuvent par conséquent prétendre à la vérité.

En abandonnant les lois fondamentales et en rapprochant les lois phénoménologiques des données empiriques à travers les modèles, Cartwright a réhabilité l’explication causale car les lois fondamentales ne peuvent être considérées comme vraies contrairement à l’explication causale.

C’est ce qu’elle appelle la « réalité des causes». Elle affirme à ce propos « bien que les philosophes croient généralement en des lois et nient les causes, la pratique explicative en physique montre juste l’inverse29 ».

En revenant à Stephen Hawking, ce dernier reconnait lui-même l’existence d’une contradiction lorsqu’on recoure aux lois physiques dans des domaines comme la naissance de l’Univers. Il explique cette contradiction de la manière suivante :

« Pour prédire comment l’univers aurait pu commencer, on a besoin de lois qui tiennent le coup au commencement du temps…Toutes les lois de la physique que nous connaissons ne sont plus valables en un tel point. On pourrait inventer de nouvelles lois valables aux singularités, mais il serait très difficile tout de même de les formuler en de tels points au comportement aberrant, et nous n’aurions aucun guide fourni par les observations pour nous montrer en quoi elles pourraient bien ressembler30 »

Rafik Hiahemzizou

1 Ian Hacking Representing and Intervening, Cambridge University Press (1983), p.218.

2 Ibid.

3 Ibid.

4 Clarke Steve Defensible Territory for Entity Realism, Oxford University Press 2001, p.710.

5 Ibid.

6 Cartwright Nancy How the laws of physics lie: (1983), Oxford, Oxford University Press, p.92.

7 Ibid.

8 Ibid, p. 712.

9 Ibid, p.82.

10 Op.cit. Steve Clark, p.713.

11 Pestre Dominique et Atten Michel, Heinrich Hertz. L’administration de la preuve, PUF, collection Philosophies, 2002.

12 Van Fraassen Bas C., The Scientific Image, Oxford, Clarendon Press, 1980, p.88.

13 Ibid, p.54.

14 Op.cit. Steve Clark, p.707

15 Ibid.

16 Op.cit. Cartwright, p. 6.

17 Varenne Franck Théorie, réalité, modèle Epistémologie des théories et des modèles face au réalisme dans les sciences, Editions météorologiques Collection « Sciences& Philosophie » materiologiques.com août 2012, p. 226.

18 Ce terme est de notre invention et il ne peut être attribué à Nancy Cartwright.

19 Op.cit. Cartwright, p.1.

20 Ibid.

21 Freedman Daniel Z. et Van Nieuwenhuizen Peter, Les Dimensions cachées de l’espace-temps, in Pour la Science (mai 1985), p.56.

22 L’idée centrale de la théorie de Weyl était que l’on ne modifie pas la description d’une force si l’on change les échelles de longueur ou de temps des instruments de mesure que l’on utilise en différents points de l’espace. Le principe est appelé invariance de jauge (d’après les jauges, c’est-à-dire les instruments de mesure auxquels Weyl faisait référence). Cette théorie est appelée théorie des champs de jauge, ou plus brièvement théorie de jauge.

23 Cartwright Nancy Do the laws of physics state the facts? Pacific Philosophical Quarterly 61. 1980. Traduction française de Dennis Bonnay dans Philosophie des sciences, naturalismes et réalismes, textes réunis par S.Laugier et P.Wagner, Paris, Librairie Philosophique J.Vrin 2004, p.214.

24 Ibid, p.227.

25 Georges Guinier ; Bulletin de l’Union des Physiciens 75 (1980) p.1294.

26 Ibid.

27 Ibid.

28 Ibid.

29 Op.cit. Cartwright, p. 86.

30 Op.cit. Hawking, p. 173.

Laissez un commentaire