in ,

La science et la religion : pour un nouveau débat (4/4)

La discontinuité des théories physiques et la fragmentation
des concepts théoriques

On va examiner plusieurs exemples qui montrent que les théories scientifiques sont faillibles, c’est-à-dire qu’elles font l’objet d’une discontinuité dans leur évolution à un point où on n’est pas certain que les théories actuelles qui sont le résultat de la réfutation de théories anciennes ne peuvent pas être réfutées à leur tour. Cette interrogation alimente la réflexion sur l’antiréalisme des théories (les théories ne permettent pas de déterminer la réalité des entités qu’elles décrivent) et sur l’argument de l’induction pessimiste.

Il convient de préciser que la discontinuité de la physique est un fait général qui renforce l’antiréalisme des théories. Par exemple, dans la mécanique classique il y a une grande variété de cadres interprétatifs associés à une formulation mathématique distincte pour chacun de ces cadres interprétatifs.

Publicité
Publicité
Publicité

En ignorant les fondements de la théorie de Bohr-Sommerfeld, la mécanique ondulatoire de Schrödinger, la mécanique des matrices de Heisenberg et les théories contemporaines de Feynman et Schwinger interprètent le monde quantique de l’infiniment petit de manières différentes en utilisant les mêmes formulations mathématiques.

C’est le cas de la mécanique céleste. Par exemple, les cadres interprétatifs des mouvements planétaires sont différents. Le premier cadre est celui de Newton et il est basé sur la loi de la gravitation universelle qui n’a rien à voir avec la notion de localité. La force gravitationnelle est associée aux positions instantanées et les masses des corps massifs dans l’espace vide. Le deuxième cadre interprétatif décrit la force gravitationnelle de manière locale en introduisant un nouveau concept physique, à savoir le champ potentiel. Cette diversité interprétative et conceptuelle reflète une discontinuité dans l’évolution des théories. La mécanique quantique présente également une variété de cadres interprétatifs.

L’atome de Bohr reprend en fait le modèle planétaire de Rutherford dans lequel les électrons et le noyau sont des particules physiques qui obéissent aux lois de la physique newtonienne et des lois sur l’électromagnétisme tout en y introduisant la constante de Planck qui n’a aucun équivalent en mécanique classique. Cette juxtaposition de notions quantiques et de notions classiques explique le caractère bizarre des sauts électroniques : « Les électrons obéissent aux lois de Newton tant qu’ils sont sur leurs orbites et aux lois de Planck-Einstein quand ils sautent d’une orbite sur une autre1 »

Publicité
Publicité
Publicité

L’incapacité des théories scientifiques à délimiter les frontières du réalisme scientifique en raison de la discontinuité de la science alimente l’induction pessimiste et rend l’argument de l’induction à la meilleure explication insuffisant.

La mécanique quantique ne prétend nullement expliquer la réalité sous-jacente des phénomènes quantiques. C’est pour cette raison qu’elle n’a nul besoin des variables cachées qu’Einstein voulait introduire dans cette physique sous le prétexte qu’elle est incomplète. La mécanique quantique ne va pas au-delà des principes sur lesquels elle est articulée. En d’autres termes, il n’y a nul besoin de faire des hypothèses sur la réalité physique et il est primordial de se conformer uniquement aux observations empiriques. Isaac Newton a formulé une thèse similaire : Hypotheses non fingo « Je n’avance pas d’hypothèses ».
Cette doctrine est l’essence même de l’empirisme sur lequel la science a été basée depuis Newton.

Mais tout cela ne devrait pas cependant occulter l’essentiel de notre interrogation, à savoir le faillibilisme des théories scientifiques.
Il y a, d’une part, une fragmentation des postulats de ce domaine de la physique et, d’autre part, une multiplicité des interprétations de certains concepts les plus importants comme la fonction d’onde. Dès lors que l’interprétation d’un concept comme la fonction d’onde n’est pas unique, il ne peut alors correspondre à aucun autre concept théorique que ce soit en mécanique classique ou en mécanique quantique. Par ailleurs, le principe de superposition n’est pas vraiment induit par les autres principes ou postulats de la mécanique quantique.

Les postulats de la mécanique quantique ont chacun leur logique sous-jacente propre qui leur confère une certaine autonomie épistémologique. Cette façon de voir est appuyée par l’interprétation de Copenhague selon laquelle la fonction d’onde ne peut être expliquée comme entité existant réellement dans le monde physique.

C’est uniquement après l’opération de mesure, que l’état quantique devient réel. Cette manière très étrange de décrire la nature de la fonction d’onde signifie qu’elle oscille entre réalité physique et réalité mathématique.
Malgré ce caractère étrange de la fonction d’onde, il n’en demeure pas moins vrai que cette oscillation est ce qui caractérise véritablement la mécanique quantique dans le sens d’une fragmentation épistémologique.

Il y non seulement une fragmentation en termes d’interprétation de la fonction d’onde mais également une fragmentation du reste des postulats théoriques de la mécanique quantique. Ces deux types de fragmentation relèvent de logiques différentes. La première est de nature épistémologique est elle est liée à la connaissance précise de la réalité et de la nature de la fonction d’onde, l’entité la plus fondamentale de la mécanique quantique. Quant à la deuxième, elle concerne l’état actuel de nos connaissances selon lesquels, on ne peut pas déterminer à l’avance si l’un des postulats ne sera pas réfuté. Ces postulats n’ont pas le même destin et le processus de leur élaboration est différent.

Publicité
Publicité
Publicité

Commençons d’abord, par le premier type de fragmentation qui est d’un intérêt particulier pour notre étude de l’argument du faillibilisme des théories ou de l’induction pessimiste. La fonction d’onde fait l’objet d’un débat controversé sur sa nature physique. Il y a d’abord l’interprétation de Copenhague selon laquelle la fonction d’onde est un objet mathématique qui reflète la probabilité de présence d’une particule dans un endroit précis. La densité de probabilité de présence de la particule dans la position r à l’instant t est alors donnée par le carré du module de la fonction d’onde.

La probabilité de présence d’une particule est considérée, par les fondateurs de cette école de pensée, comme la probabilité du résultat d’une mesure.

Or, la mesure perturbe le comportement d’une particule quantique et il devient alors impossible de connaitre en même temps deux de ses propriétés (comme l’énergie et la vitesse ou la position et la vitesse) selon le fameux principe d’indétermination de Heisenberg. C’est pour cette raison qu’on parle de probabilité de présence d’une particule. Il y a une indétermination de principe à connaître le résultat d’une mesure de la position et de l’état d’une particule. Une fois, la mesure effectuée, la fonction d’onde s’effondre. C’est ce qu’on appelle la réduction du paquet d’onde. Cette interprétation fait l’objet d’un large consensus parmi les physiciens.

La deuxième interprétation est celle de David Bohm qui est appelée aussi l’interprétation de l’onde-pilote de Louis de Broglie. Elle prédit que la fonction d’onde existe réellement dans le monde physique. Une onde-pilote est associée à la particule et détermine sa position et son mouvement. L’onde-pilote est distincte de la particule, laquelle possède une vitesse et une position bien déterminées. Mais elle agit sur la particule à travers un potentiel quantique. Contrairement à la théorie de Bohr-Heisenberg (Ecole Copenhague), la théorie de Broglie-Bohm est déterministe.

Mais ce déterminisme se heurte à des difficultés inhérentes au monde quantique. Par exemple, comment l’onde-pilote agit sur la particule. On ne connait pas le vecteur qui permet cette interaction d’où les soupçons qui pèsent sur son existence en la qualifiant d’action à distance qui viole la théorie de la relativité restreinte.

La troisième interprétation est celle des univers multiples d’Everett. Celle-ci part du principe que l’observation et la mesure de l’état quantique ne sont pas probabilistes mais déterministes. Le monde quantique est également déterministe. Ces deux postulats représentent un rejet pur et simple de l’interprétation de Copenhague. Selon cette approche, l’Univers se multiplie en plusieurs branches dans lesquelles se réalisent les différents résultats de la mesure sans pour autant que se réalise un effondrement de la fonction d’onde.

C’est à cette condition que le principe de la dualité onde-corpuscule et le principe de superposition des états quantiques sont réconciliés.
Lorsqu’on veut connaitre par laquelle des deux fentes un photon est passé (expérience des fentes de Young), il y aura deux bifurcations, c’est-à-dire, la formation de deux branches séparées dans lesquelles le photon passe par une seule fente. L’interprétation d’Everett contourne ainsi le problème de la superposition des états quantiques dont une illustration légendaire n’est autre que le paradoxe du chat de Schrödinger. Concernant ce paradoxe, Everett affirme que le chat est mort et vivant à la fois. Mais ces deux évènements se réalisent dans deux branches séparées de l’Univers.

Toutefois, cette interprétation suscite des interrogations sur deux énigmes auxquelles cette théorie fait face : elle n’explique pas, d’une part, les causes sous-jacentes à l’articulation de l’Univers en plusieurs branches.

Le concept d’intrication des états quantiques qui révèle la corrélation entre les propriétés des particules quantiques qui sont séparées dans l’espace physique (les particules quantiques agissent comme un seul système quantique) entre, d’autre part, en contradiction avec l’idée de la formation de plusieurs branches séparées de l’Univers qui correspondent chacune aux résultats observés lors de la mesure2.

Il est intéressant de faire remarquer que cette fragmentation épistémologique entre plusieurs interprétations de la fonction d’onde est un processus en pleine expansion. La liste des interprétations possibles n’est pas close. D’autres ont été proposées et d’autres encore le seront dans les prochaines années, ce qui confirme la thèse de l’induction pessimiste et du faillibilisme.

Dans la mesure où les constructions théoriques développées pour expliquer la nature de la fonction d’onde ne correspondent à aucune autre construction théorique de la mécanique quantique et a fortiori de la physique classique et que certaines caractéristiques de ces constructions sont continuellement remises en cause par d’autres constructions (par exemple, certaines interprétations de la fonction d’onde remettent en cause la réduction du paquet d’onde qui est au cœur de la théorie de Copenhague. D’autres critiquent la nature probabiliste de la fonction d’onde.

D’autres encore ne sont pas conformes au principe de superposition des états quantiques), il y a donc une instabilité des théories ou des hypothèses théoriques.

Poursuivant notre examen du faillibilisme en s’attaquant cette fois aux plus sophistiquées tentatives de fusion entre la mécanique quantique et les théories dites classiques (plutôt réalistes) comme l’électrodynamique, la théorie de la relativité restreinte et la théorie de la relativité générale afin de montrer toutes les difficultés que suscitent ces théories.

Malgré le fait que l’électrodynamique quantique (QED) représente un progrès décisif en physique de l’infiniment petit en raison de la fusion qu’elle implique entre la théorie de la relativité restreinte et la mécanique quantique, de l’approfondissement qu’elle permet des théories des champs ainsi que l’élaboration d’une interprétation ingénieuse du champ électromagnétique comme un phénomène purement quantique, elle reflète néanmoins un faillibilisme théorique.

Le succès de cette théorie n’a été possible que grâce à une renormalisation mathématique qui permet d’éliminer les infinis qui sont le résultat inévitable de cette théorie et qui sont contradictoires avec les observations. La raison de cette aberration mathématique est liée au secret le plus profond de cette théorie physique : un électron n’est pas une particule individualisée et parfaitement identifiable pour un observateur comme une bille ou une boule de billard. Il est entouré d’une myriade de particules virtuelles qui attribuent aux propriétés physiques de l’électron (masse, charge) des valeurs infinies. Les physiciens ne sont parvenus à s’en débarrasser que grâce à une subtilité mathématique en plus d’une certitude expérimentale. Dès lors que l’expérience permet de connaître la valeur des propriétés physiques de l’électron, les infinis qui sont le produit des équations de la théorie sont éliminés mathématiquement.

Cette situation considérée par les physiciens dans les années quarante, durant lesquelles la théorie (QED) a été élaborée, comme inconfortable, confirme la faillibilité de la théorie. Les infinis sont en fait supprimés des équations en divisant un infini par un autre. Il n’existe pas de consensus entre les physiciens sur la validité physicomathématique de cette re-normalisation.

Certains comme Dirac considèrent cette astuce comme non intelligente, d’autres y voient le résultat d’une sorte de prééminence des modèles mathématiques en physique quantique.

A partir de l’électrodynamique quantique, l’idée de vecteurs de force véhiculés par des particules appelés « bosons » fait son chemin et rencontre un grand succès. Désormais les bosons deviennent les vecteurs de force.
Là, une construction théorique se généralise à toutes les théories traitant des forces de la nature.

Mais si l’idée de l’échange « bosonique » entre particules a été un point d’ancrage solide pour les théories du modèle standard, il n’en demeure pas moins vrai que le problème des infinis et la nécessité d’une renormalisation refont à chaque fois surface. Par ailleurs, de nouveaux concepts théoriques ont été inventés comme les concepts de « saveur », de « couleur », de « charme » et d’« étrangeté » et il n’est pas possible de les rapprocher de concepts théoriques antérieurs.

Tournons-nous maintenant vers la gravité quantique pour remarquer que non seulement les concepts y afférant sont peu intuitifs. Ils ne peuvent être rapprochés d’aucun concept théorique antérieur. L’une des premières difficultés soulevées par les recherches sur la gravité quantique est le fait que la théorie de la relativité générale est une théorie des champs qui admet l’existence d’une infinité de configurations pour la géométrie de l’espace. Cette difficulté rappelle le problème des infinis de l’électrodynamique quantique.

Pendant une quarantaine d’années, aucun résultat décisif ne fut atteint pour deux raisons principales : aucune expérience n’a permis de trancher entre les différentes théories. Par ailleurs, le concept de graviton n’est valable que dans un cadre théorique limité qui ne s’adapte pas à une théorie aussi fondamentale que la théorie de la relativité générale (les ondes gravitationnelles faibles sont des ondes qui ne transforment pas l’espace dans lequel elles se propagent).

En outre, le problème principal avec les gravitons est qu’ils interagissent entre eux, ce qui soulève le problème des infinis. Par ailleurs, le concept de graviton n’est lié à aucune théorie élargie aussi récente soi-elle.

Les physiciens ont alors changé complètement de stratégie : au lieu d’explorer la nature des ondes gravitationnelles et d’étudier quelles peuvent être les particules quantiques qui composent ces ondes, ils ont commencé à voir comment les phénomènes quantiques se comportent dans un champ gravitationnel assez puissant pour créer des singularités dans l’espace-temps3.

Mais on peut dire d’emblée que cette démarche est une voie désespérée car elle marque un renoncement à la quantification du champ gravitationnel.

Bien qu’elle amorce le début d’une recherche féconde sur les trous noirs, elle ne peut aboutir à aucune théorie cohérente et testable expérimentalement sur la gravité quantique. L’un des résultats théoriques les plus aboutis et qui n’a pas été vérifié sur le plan expérimental, est la théorie de l’évaporation des trous noir par suite de l’action de la puissante gravité de cette entité astrophysique sur les fluctuations quantiques. Mais la théorie de l’évaporation du trou noir (c’est-à-dire la transformation de sa masse en rayonnement) contredit le principe de la conservation de l’information quantique4.

La théorie de la supergravité ou super-symétrie malgré la densité des recherches qui se sont lancées autour d’elle ne représente pas non plus un progrès majeur dans l’unification des deux piliers de la physique. Cette théorie qui cohabite assez bien avec un ensemble de recherches organisées autour de la théorie des super-cordes repose sur l’étude de dimensions assez nombreuses (jusqu’à 26 dimensions) de l’infiniment petit et elle est confrontée à deux difficultés dirimantes : elle ne cohabite pas assez bien avec les postulats de la mécanique quantique et elle ne peut être testée expérimentalement : deux difficultés majeures.

Les recherches théoriques dans ces domaines difficiles de la physique ont débouché sur une impasse et reflètent deux réalités épistémologiques majeurs : On ne peut pas remonter de concepts anciens aux concepts nouveaux.
Par ailleurs, l’accès au réel est ce qui est vraiment problématique pour la théorie physique.

Il y a non seulement les incertitudes métaphysiques des notions d’espace et de temps qui sont inhérentes aux deux théories de la relativité, mais également le fossé qui sépare l’ontologie de l’infiniment grand et l’ontologie de l’infiniment petit qui est peut être responsable de la difficulté rédhibitoire d’unifier la théorie de la relativité générale et la mécanique quantique.

Ce qui certain c’est que l’accès approché et incertain au réel physique ont amené les philosophes à considérer que les théories ne couvrent pas la réalité.

Elles sont le résultat de nos simples et subjectives représentations que nous nous faisons du monde. Des recherches récentes laissent entendre que la mécanique quantique qui est à l’origine de la fixation du cadre global de la physique des particules ne parvient plus à décrire la réalité physique dans sa profondeur ontologique et se limite à élaborer une théorie générale de
l’information quantique.

Cette difficulté touche également la révolution einsteinienne qui a entraîné non seulement un bouleversement scientifique des concepts d’espace et de temps mais également une révision des fondements épistémologiques de notre connaissance du réel physique. La recherche théorique qui a débouché sur les théories de la relativité n’est pas parvenue à édifier une science définitive et une connaissance ultime et parfaite du monde d’un point de vue métaphysique.

La nouvelle vision du monde physique héritée d’Einstein implique une remise en cause des notions de substance et d’essence inhérentes aux concepts d’espace et de temps qui représentent les notions fondamentales sur lesquelles reposaient la physique newtonienne et plus particulièrement les théories d’espace et de temps absolus. L’abandon de ces notions a amené Einstein à reprendre dans sa physique les bases d’une philosophie élaborée par Ernst Mach qui l’a grandement influencé qui est basée sur les relations entre les phénomènes comme le mouvement.

Un mouvement détermine un autre mouvement et il n’y a rien qui puisse nous permettre de faire reposer nos connaissances sur les mouvements hormis un autre mouvement. C’est ainsi que s’est forgé le principe de relativité qui rompt avec toute métaphysique de l’essence et de l’absolu5.

Cette nouvelle physique est marquée par le rejet de la métaphysique qui est considérée comme une rupture avec les données empiriques produites par la perception6.

Mais comment ce nouveau « phénoménisme » relativiste s’affirme dans notre entendement scientifique ? C’est uniquement grâce au formalisme mathématique. La science se réduit donc à l’étude de phénomènes physiques dont aucune connaissance ne peut être établie avec certitude hormis les relations réciproques entre les phénomènes qui s’expriment uniquement dans le formalisme mathématique7.

La conséquence épistémologique la plus importante du bouleversement phénoméniste provoqué par la théorie de la relativité einsteinienne est donc le rejet du substantialisme et de la chose en soi kantienne.

L’une des théories les plus élaborées de la physique moderne ne parvient pas, quoi qu’on dise, à couvrir de manière disons métaphysique et ontologique le réel. Dans des phrases pleines de sens, H.Wildon Carr résume la quintessence de la théorie de la relativité en rappelant que dans le monde physique décrit par cette théorie : « […] les systèmes de référence sont définitifs sans être absolus, et relatifs sans être conditionnés extérieurement, dans lequel chaque système est suffisant par soi-même et contient sa propre norme8». Il n’y a aucune extériorité qui permet de fonder notre certitude métaphysique. La physique se réduit à des systèmes de référence qui deviennent les références invariantes de tous les phénomènes physiques. Il n’y a plus aucune « absoluité » dans les concepts physiques et l’accès au réel procède par un travail approximatif qui ne repose sur aucune ontologie9.

L’essor des modèles, ces instruments irréalistes

L’autre aspect du faillibilisme théorique est l’essor des modèles : la physique théorique recourt fréquemment à des modèles formels qui sont souvent très abstraits. Mais en fait, les modèles ont envahi tous les secteurs de la science et de la technique.

L’origine des modèles est enfouie dans l’histoire de la science.

Mais ce qui est sûr est qu’ils sont des paradigmes qui sont très éloignés de la perception. Dans les modèles, l’expérience perceptive est remplacée par des systèmes de représentation qui sont soit de nature numérique, c’est-à-dire mathématique, soit inductive (c’est-à-dire des représentations très généralisées des phénomènes physiques étudiés10).

Voici ce que Mach nous dit explicitement de ce processus : « Toute science se propose de remplacer et d’épargner les expériences à l’aide de la copie et de la figuration des faits dans la pensée. Cette copie est en effet plus maniable que l’expérience elle-même11».

C’est dans cette digression de Mach qu’on peut voir la véritable nature du modèle. Celui-ci est non seulement antiréaliste, mais il possède en plus une valeur symbolique qui marque une rupture avec toute ontologie et ce, pour une raison simple : il joue un rôle majeur dans la mise en œuvre d’une économie mentale12 sans pour autant qu’il acquière une dimension métaphysique.

On peut considérer alors que la physique des particules repose sur des modèles mathématiques ou physico-mathématiques qui se détachent de la réalité des entités physiques. Ces modèles aboutissent parfois au développement de concepts physiques très importants mais le doute subsiste autour de leur réalité.

Par exemple, Dirac a postulé, à partir de 1930, l’existence d’une « mer » d’électrons qui remplit les états d’énergie négative conformément au principe d’exclusion de Pauli. Ce modèle de « mer des électrons » a été proposé afin de
résoudre la difficulté de concevoir l’existence d’un électron stable étant donné que cette particule peut tomber d’un état d’énergie positif à un état d’énergie inférieure
13. La difficulté avec un tel modèle est qu’une telle mer de particules possède en principe une énergie infinie, ce qui jette le doute sur la réalité du modèle de Dirac.

Le recours aux modèles a été généralisé à l’électrodynamique quantique qui est une théorie quantique du champ. Le modèle abstrait qui est à la base de ces théories est la transformation de jauge. La transformation de jauge stipule qu’une invariance de symétrie implique l’existence d’une quantité conservée14. Par exemple, en mécanique quantique, l’équation non-relativiste de Schrödinger reste invariante sous une transformation de phase de la fonction d’onde qui permet la conservation de la charge15.

En suivant la logique d’économie de Mach on peut voir que le modèle de transformation de jauge a évolué vers plus d’abstraction en intégrant des aspects nouveaux mais en économisant les détails du phénomène qui peuvent être révélés par l’expérience. C’est ainsi que l’idée d’une invariance locale de jauge a été lancée par Yang et Mills qui ont élaboré une théorie de symétrie générale de groupe en utilisant ces champs locaux de jauge.

Toutefois, étant donné qu’il a été associé à chaque champ de jauge, une particule sans masse de spin-1, exactement de la même manière que le potentiel électromagnétique est associé à un photon, le nombre de particules sans masse est devenu théoriquement trop important, chose impossible à confirmer expérimentalement.

Le modèle de Yang Mills est resté inutilisable jusqu’à l’élaboration de la théorie électrofaible. En 1960, Weinberg et Salam ont combiné le modèle de Yang-Mills avec le mécanisme de Higgs afin de créer une théorie qui unifie l’électromagnétisme avec la force faible16.

Ainsi, les modèles qui sont des outils d’abstraction de nature mathématique dont l’utilisation est très commode dans les processus d’élaboration des théories ont été recyclés afin de bâtir des théories qui ressemblent aux théories antérieures mais qui sont plus robustes.

Toutefois, les processus sous-jacents à l’utilisation de ces modèles sont complexes. On peut néanmoins y distinguer les faiblesses épistémologiques suivantes :

– Certains modèles restent inutilisables et leur recyclage est très hypothétique. Ils ne sont pas élaborés à partir des complexes de données empiriques fournies par l’expérience comme l’aurait entendu Mach. Ils introduisent ainsi un processus très incertain et même chaotique dans l’évolution de la physique des particules.

– Le formalisme qui est à la base de ces modèles provoque l’apparition de véritables paradoxes mathématiques comme le fameux problème des infinis, lequel n’a été résolu que par un artifice purement mathématique et peu fiable (la renormalisation). Ce genre de paradoxes apparaissent à chaque étape de la physique des particules (électrodynamique quantique, mécanisme de Higgs, théorie électrofaible).

– Les modèles ne sont utiles que lorsque les expériences sont possibles. Les théories qui les intègrent révèlent des aspects empiriques qui peuvent être confirmés par l’expérience. Mais ce processus déductif n’est pas toujours vérifié. Par exemple, les modèles élaborés dans le cadre des travaux théoriques sur les supercordes ou les twistors n’ont pas connu le même destin et demeurent dans une incertitude durable.

– Les modèles ne sont pas réalistes dans une large mesure. Malgré les efforts de Boltzmann visant à rendre possible une visualisation des modèles, il n’en demeure pas moins vrai qu’il n’y a aucune garantie que ces constructions soient vraies. Aucune autre signification ne peut être assignée que celle prévue par les théories elles-mêmes.

Après cet examen de la discontinuité théorique de la physique quantique, de l’antiréalisme de nombreux instruments théoriques de la physique et de l’instabilité durable et la fragmentation épistémologique des théories physiques, il devient évident que le réalisme des théories n’est plus pertinent.

Conclusion

Après cette longe explication, on peut prendre l’exacte mesure du caractère volatil des lois physiques et des difficultés épistémologiques et métaphysique de la science physique à approcher le réel. Le naturalisme ne survit que grâce au réalisme et les difficultés de ce mouvement de pensée ont des implications négatives sur le naturalisme qui tend à expliquer la vie par le milieu dans laquelle elle évolue.

Ainsi, aucune certitude scientifique ne peut alors constituer un point de départ à la critique d’un autre domaine du savoir, y compris de la religion.

Les deux articles phares du programme sur la quête du Sens qui ont été examinés dans la première partie de cet article et qui reposent sur la toute puissance des lois physiques et sur le succès du naturalisme sont édifiés sur des présupposés erronés étant donné la faillibilité des théories et des lois physiques.

Les pouvoirs de la perception humaine et de la possibilité pour l’homme de comprendre l’Univers sont des dons de Dieu. Cette croyance est en parfaite concordance avec l’absence de certitude à propos de la réalité des entités de la physique en se basant uniquement sur l’absoluité et l’universalité des lois physiques et sur le naturalisme qui ne sont que des constructions humaines faillibles.

Rafik Hiahemzizou

1 Op.cit. Ortoli/ Pharabod, p. 36.

2 Bryce S. DeWitt et al. The Many-Worlds Interpretation of Quantum Mechanics Princeton University Press, 1973.

3 Smolin Lee The Trouble with physics, Houghton Mifflin Company, Boston, New York, 2007, p.89.

4 Ibid. p.91.

5François-Xavier Demoures, Relativité et relativisme : la réception de la théorie d’Einstein. p. 8.

6 Ibid.

7 Ibid.

8 Ibid.

9 Ibid.

10 Mach Ernst, La Mécanique [1904], Paris, Jacques Gabay, 1987, p. 449.

11 Ibid.

12 Varenne Franck Théorie, réalité, modèle Epistémologie des théories et des modèles face au réalisme dans les sciences, Editions matériologiques Collection « Sciences& Philosophie » materiologiques.com août 2012, p. 145.

13 Hesse, M.B. (1966) Models and Analogies in Science. University of Notre Dame Press.

14 Cushing James T. Models, High-Energy Theoretical Physics and Realism, PSA, Vol. 1982.p. 40.

15 Ibid.

16 Ibid., p.43.

Commentaires

Laissez un commentaire

Laisser un commentaire

Chargement…

0

Chicago : le leader de la communauté musulmane ouvre un match de baseball de la réconciliation et contre l’islamophobie

Riyad Mahrez, ce héros du football pour sa mère marocaine et son défunt père algérien