in

La falsifiabilité des théories scientifiques est-elle un argument ultime contre la religion ? (3/3)

Dans cette dernière partie de l’article, nous poursuivons notre critique de la falsifiabilité des concepts scientifiques en abordant cette fois la mécanique classique et céleste. Nous terminerons en évoquant deux éléments de conclusion : le premier est la dépendance de l’expérience vis-à-vis de la théorie scientifique et le second a trait à la reconnaissance du fait que la philosophie de la réfutabilité et de la falsification n’est que le produit du positivisme qui est une doctrine insatisfaisante pour la science.

  1. Cinquième critique : la présence de concepts infalsifiables et métaphysiques en mécanique classique

Voyons un autre exemple d’une non-falsifiabilité des théories scientifiques qui aurait cette fois le mérite d’être contemporain de l’apogée de la science classique.

Duhem a affirmé que la loi de la gravitation universelle de Newton n’est pas une simple généralisation des deux énoncés qu’ont fournis les lois de Kepler1et qu’elle est en contradiction avec celles-ci. Selon lui, les énoncés de Kepler basés sur la notion réaliste d’orbite est « approchée » et nettement moins suffisante que les notions de masse et de force introduites par la dynamique newtonienne2. Pour Duhem la traduction des lois de Kepler en lois symboliques pour l’utilité de la théorie implique une adhésion préalable du physicien à tout un faisceau d’hypothèses3.

Publicité

Par ailleurs, comme les lois de Kepler ne sont que des lois approchées, la dynamique autorisait d’en donner une gamme infinie de traductions symboliques différentes les unes des autres, dont il n’y a qu’une seule à s’accorder avec le principe de Newton.

On trouve une meilleure explication de l’« antagonisme » entre la théorie de Newton et celle de Kepler chez Karl Popper qui en dit explicitement la chose suivante : « La théorie de Newton offre pour un système à deux corps ‒ un système d’étoile double ‒ une loi que les astronomes appellent souvent – loi de Kepler ‒ à cause de son étroite ressemblance avec la troisième loi de Kepler. Cette loi dite de « Kepler » dit que si m0 est la masse de l’un des deux corps ‒ disons le Soleil ‒ et m1 la masse de l’autre corps ‒ disons une planète ‒ alors, en choisissant des unités de mesure appropriées, on peut dériver de la théorie de Newton : (1) a3/ T2 = m0 +m1, ou a désigne la distance moyenne entre les deux corps, et T la durée d’une révolution complète. Or la véritable troisième loi de Kepler affirme que : (2) a3/ T2 = constante, c’est-à-dire, la même constante pour toutes ‒ les italiques sont dans le texte ‒ les planètes du système solaire. Il est claire qu’on ne peut obtenir cette loi de (1) que si on suppose m0 + m1 = constante ; et puisque m0 = constante pour notre système solaire si on identifie m0 avec la masse du soleil, on obtient (2), pourvu qu’on suppose m1 identique pour toutes les planètes ; ou bien, si cela est effectivement faux ‒ en italiques dans le texte ‒ (comme c’est en réalité le cas, puisque Jupiter est plusieurs milliers de fois plus grosse que les plus petites planètes), pourvu qu’on suppose que les masses des planètes sont toutes égales à zéro en comparaison avec celle du Soleil, de manière à pouvoir écrire m1 = 0 pour toutes les planètes ‒ en italiques dans le texte ‒. Ceci constitue une excellente approximation du point de vue de la théorie de Newton ; mais en même temps, écrire m1 = 0 n’est pas seulement faux à strictement parler, mais dépourvu de sens du point de vue de la théorie de Newton (un corps de masse zéro n’obéirait plus aux lois newtoniennes du mouvement.) Ainsi, même si nous oublions tout ce qui concerne l’attraction mutuelle entre les planètes, la troisième loi de Kepler (2) contredit la théorie de Newton qui engendre»4

L’explication de cet état de fait est fort complexe : pour certains, comme pour Duhem, la théorie de Newton introduit des paradigmes nouveaux (force, masse) alors que celle de Kepler est simplement approchée. Les conséquences seraient les limites du concept d’induction (Duhem et Popper) et les degrés de profondeur différents selon les cas comme entre la troisième loi de Kepler et la loi de Newton. Pour Popper la dernière corrige tout en expliquant la première5.

En affinant l’analyse, Duhem émet la considération suivante : « Les faits d’expérience, pris dans leur brutalité native, ne sauraient servir au raisonnement mathématique ; pour alimenter ce raisonnement, ils doivent être transformés et mis sous forme symbolique 6»

Publicité

C’est à partir de cette conclusion, qu’on pourrait déceler le trait authentique de la théorie scientifique : sa non falsifiabilité partielle. En effet, est-il légitime de penser qu’il existe au sein d’une théorie, plusieurs hypothèses confrontées, une à une, face à l’expérience et vis-à-vis desquelles, une vérification, assurément expérimentale, serait inexorablement nécessaire ?

Il est nécessaire « de ne pas multiplier les hypothèses outre mesure et de ne pas les faire que l’une après l’autre, si nous construisons une théorie fondée sur des hypothèses multiples et si l’expérience la condamne, quelle est, parmi, nos prémisses, celle qu’il est nécessaire de changer ? Il sera impossible de le savoir7».

Au lieu d’entrevoir un quelconque degré de profondeur dans la loi de Newton par rapport à la troisième loi de Kepler (Popper), ou une plus grande généralisation inductive, ou une plus substantielle vertu symbolique du principe de Newton sur l’énoncé « approché » de Kepler, il est préférable plutôt de reconnaître l’erreur de Popper et de Duhem qui tient à ce qu’ils considèrent tous les énoncés contenus dans une théorie comme étant nécessairement vérifiables par l’expérience.

Le dilemme de Duhem n’aurait aucune raison d’exister, si, au lieu de conclure à cette contradiction manifestement « holiste » entre la théorie de Newton et la théorie de Kepler, il avait étudié plus profondément, l’origine et la préhistoire de cette fameuse troisième loi de Kepler.

Publicité

Aussi étonnant que cela puisse paraître, la motivation ayant conduit Kepler à cette fameuse loi n’était pas la confrontation avec les observations de l’époque renfermées dans les travaux de Tycho Brahé, mais plutôt des considérations d’ordre esthétique qui le hantaient depuis sa prime jeunesse.

D’après la troisième loi de Kepler, si l’on divise le carré de la période de chaque planète par le cube du grand axe de l’ellipse qu’elle décrit, on obtient le même nombre pour toutes les planètes. Cette découverte mathématique surprenante dont le corollaire est la théorie suivante : les plans des orbites des planètes, voisins, mais non confondus, passent par le Soleil, est le résultat direct de la fascination que Kepler éprouva envers cette harmonieuse figure géométrique : un triangle équilatéral entouré d’un cercle qui touche ses trois sommets, et à l’intérieur duquel est inscrit un autre cercle.

Cette image géométrique, inclinaison parfaite de l’harmonie universelle tant adulée par Kepler, exalta l’esprit de ce dernier car les rapports des rayons des deux cercles sont les mêmes que ceux de Jupiter et de Saturne.

Il pensa que la figure de triangle et la forme géométrique parfaite et simple et il complexifia son schéma en ajoutant successivement d’autres figures géométriques (carré, pentagone, hexagone) à l’intérieur du cercle, pensant trouver en cela la description exacte et harmonieuse de l’Univers.

C’est donc une notion métaphysique, qui fut à l’origine de la troisième loi de Kepler.

Toujours sous le même angle : les objets obscurs, imaginés par des chercheurs dès la fin XVIIe siècle dans le cadre de la théorie de la gravitation universelle newtonienne sont les précurseurs des trous noirs conçus dans le cadre de la théorie de la Relativité générale. Même le concept de « déviation des rayons lumineux à proximité d’un champ gravitationnel » fut découvert bien avant la théorie de la Relativité générale, c’est-à-dire dès la fin du XVIIIe siècle et au début du XIXe siècle, par des savants comme Cavendish (1785), Herschel (1791), Laplace et Soldner (1800).

Bien plus intéressant encore : des études récentes8 montrent que Newton n’a révolutionné la mécanique, qui n’était au début du XVIIe siècle qu’une physique du contact et des chocs, qu’en introduisant des forces d’attraction et de répulsion récupérées et rafistolées d’une littérature fort ancienne connue chez les Alchimistes et les Hermétistes. Newton a développé tout une œuvre alchimique peu connue des spécialistes qui déboucha sur les Principia Mathemtica Philosophica. Toutes sortes d’idées ésotériques, anthropomorphiques, alchimiques et même magiques se sont introduites dans le corps épars des théories scientifiques durant la Renaissance9.

Concernant Newton, Alexandre Koyré a démontré grâce à de précieux travaux sur ce grand savant que pour comprendre sa physique il faudrait appréhender toute sa dimension métaphysique.

« Dans le monde newtonien et dans la science newtonienne….ce ne sont pas les conditions du savoir qui déterminent les conditions de l’être phénoménal des objets de cette science – ou des étant-. Mais c’est au contraire, la structure objective de l’être qui détermine le rôle et la valeur de nos facultés de savoir. Ou pour employer une vielle formule de Platon : dans la science newtonienne, et dans le monde newtonien, ce n’est pas l’homme, c’est Dieu qui est la mesure des choses. Les successeurs de Newton ont pu l’oublier, ont pu croire qu’ils n’avaient pas besoin de l’hypothèse Dieu, échafaudage désormais inutile d’une construction qui tenait par elle-même : ils se sont trompés ; privés de leur support divin, le monde newtonien s’est avéré instable et précaire10 »

Du XVIe siècle jusqu’au siècle suivant, la notion de vérité avait un sens religieux puisque Galilée, Kepler et Newton ont tous évoqué Dieu comme source de l’ordre cosmique, de l’ordre mathématique de la Nature, voire même l’incarnation même des concepts d’espace et de temps. C’est plutôt Emmanuel Kant qui a «laïcisé » la science en établissant les concepts de catégories de pensée et d’objectivation de l’expérience. Mais en cela, il n’a pas compris la physique newtonienne11.

Retournant à Newton, les difficultés intellectuelles engendrées par les concepts d’espace et de temps absolus l’ont amené à insérer un chapitre spécial, le fameux General Scholium, à la fin de ses Principia. En voici des extraits : « Le Dieu suprême est un Être éternel et infini, omnipotent et omniscient ; sa durée va de l’éternité à l’éternité ; sa présence de l’infini à l’infini ; il gouverne toutes choses et connaît toutes choses qui sont ou peuvent être créées. Il n’est pas l’éternité ou l’infinité, mais il est éternel et infini ; il n’est pas la durée ou l’espace, mais il dure et il est présent ; il dure pour toujours et il est présent partout et, du fait qu’il existe toujours et partout, il constitue la durée et l’espace. Dieu ne subit rien du mouvement des corps, les corps n’éprouvent aucune résistance de la part de l’omniprésence de Dieu12. »

Il y a bien donc des concepts métaphysiques dans les sciences, ce qui relativise l’importance de la testabilité et de la réfutabilité prônés par Popper.

  1. Sixième critique : la théorie prend parfois le dessus sur l’expérience

Les philosophes ont affirmé que la théorie et l’expérience sont si étroitement liées que l’on ne peut rien affirmer de la « vérité » de ce que l’on expérimente sans que la théorie y soit pour quelque chose.

La théorie ponctue notre expérience d’une façon telle que les résultats sont toujours en relation de signification avec nos prémisses théoriques, comme si les expériences s’« arrangeaient » pour donner des résultats en cohérence avec le système théorique. Il est intéressant de remarquer ici l’étonnante similitude entre cette conclusion et le postulat épistémologique important de la mécanique quantique ayant divisé les physiciens de l’École de Copenhague et ceux appartenant au courant réaliste : le monde quantique s’« arrange » toujours pour donner des expériences qui sont en parfaite cohérence avec les énoncés théoriques.

Les philosophes réalistes affirment que si l’expérience confirme la théorie, cette dernière « transcende » toujours l’expérience. Elle la transcende parce que la « vérité » ne peut être définie expérimentalement, seule la théorie pourrait le faire. De cette façon, on ne peut rien affirmer de la vérité de ce qu’on expérimente sans que la théorie y soit pour quelque chose.

Il n’y a jamais eu d’expériences univoques par elles-mêmes et coupées des autres, ni d’expériences « neutres », c’est-à-dire a-théoriques et totalement indépendantes. En l’absence du substratum théorique, une expérience donnée ne serait qu’un « maillon faible » dans une longue chaîne qui n’a ni début ni fin.

Personne ne se serait dirigé dans une « direction » déterminée sans savoir à l’avance où il aurait pu arriver. Du moins, l’on s’attend toujours à certains résultats, et même les surprises sont souvent en cohérence avec nos théories. Gaston Bachelard disait si bien dans son « Nouvel Esprit Scientifique » que la « vérité en science n’est qu’une erreur rectifiée ».

L’on peut seulement conjecturer sur le fait que la « vérité » de la théorie ponctue l’expérience en ce sens où non seulement elle lui confère une signification, mais lui révèle également un cheminement épistémologique (ou elle doit commencer et ou elle doit finir).

Toutefois, cette proposition ne suffit pas à démontrer la relation entre la théorie et l’expérience. Si l’expérience est à ce point tributaire de la théorie, c’est qu’il y a des raisons objectives de dépendance, c’est-à-dire quelque chose où l’expérience ne peut rien affirmer et que seule la théorie peut définir.

Si la théorie définit les limites de l’expérience dans le sens d’une ponctuation, cela ne suffit pas à priver l’expérience de signification en dehors de la théorie. Il doit y avoir des raisons plus profondes : si la théorie délimite toujours le champ de l’expérience, il est inévitable qu’il faille y revenir pour éviter l’erreur. Si plusieurs expériences se contredisent plusieurs fois, on peut conclure que certaines d’entre elles sont fausses et contiennent des erreurs.

Mais comment savoir celles qui sont justes et celles qui sont fausses, dans la mesure où on a déjà montré que les expériences sont une chaîne qui n’a ni début ni fin ? Il n’est pas légitime de supposer qu’il existe des expériences qui soient a priori supérieures à d’autres. Les philosophes affirment que s’il y a des expériences qui sont cruciales, c’est parce qu’elles recourent à la vérité de la théorie. Le paradoxe est le suivant : une expérience ne peut déterminer l’erreur sur le plan scientifique. Seule la théorie permet d’éviter l’incertitude qui touche l’expérience dans tous les sens. Le probable hante toujours l’expérience, non la théorie, en ce sens que celle-ci est beaucoup moins sensible à l’incertitude et aux bruits de fond de l’expérience.

L’erreur est un concept qui ne peut être expérimenté scientifiquement, car il relève d’un principe qui le transcende et qui n’est autre que la vérité. Nos connaissances empiriques et expérimentales sont définies de telle façon que notre jugement et notre confiance à l’égard des résultats de nos expériences sont toujours tributaires de ce qui est extérieur à l’espace de cette même expérience, surtout lorsque celle-ci s’écarte sensiblement des résultats attendus.

Tandis que des termes comme « perfection interne », « harmonie », « théorie de principe » et « simplicité » expliquent la robustesse métaphysique de la théorie, l’expérience reste fondamentalement fragile à l’impitoyable diversité des faits.

Par ailleurs, la nécessaire convergence dans le temps des résultats expérimentaux entraîne une incertitude importante sur les risques d’erreurs encourus. La seule façon de les évacuer, c’est toujours par le retour improvisé à l’économie théorique. La fausseté d’une théorie est beaucoup plus difficile à déterminer que la fausseté de l’expérience lorsque les résultats expérimentaux contredisent la théorie.

La théorie de l’éther n’avait jamais été abandonnée à cause de la non-concordance des expériences tentant de prouver son existence. C’est, au contraire, une nouvelle conception du temps et de l’espace due à Einstein qui avait eu le mérite de permettre la réfutation du mythe de l’éther. D’autres exemples montrent que la découverte de l’atome et la fameuse expérience de Rutherford qui laisse penser à une démarche hautement expérimentale n’auraient pas eu le succès attendu sans le mûrissement de la vision mécaniste et la notion de point matériel, qui supposent une structure atomiste de la matière.

Par ailleurs, les travaux théoriques de Boltzmann dans le domaine de la thermodynamique ont joué un rôle déterminant dans le mûrissement des idées sur l’atome, bien avant les expériences de Rutherford et de Thomson.

En revanche, l’observation d’un décalage entre les résultats de certaines mesures et les résultats prévus n’entraîne pas nécessairement une découverte. On a un exemple frappant avec les spéculations théoriques sur la prétendue cinquième force.

Certains physiciens se sont basés sur l’expérience d’Eötvös et sur la comparaison des mesures de la constante de gravitation universelle par des méthodes géophysiques et par des méthodes de laboratoire pour considérer les différences entre les deux types de mesures comme révélatrice de l’existence d’une nouvelle interaction fondamentale13. Les atermoiements qu’avait entraîné cette théorie empirique sont symptomatiques et révèlent souvent l’impossibilité de déduire l’existence de quelque chose sur la base de résultats expérimentaux ou d’un décalage entre les résultats théoriques et ceux obtenus. Ce qui est le cas, en l’occurrence, de l’expérience d’Eötvös.

La nécessaire convergence des résultats dans le temps, entraîne une incertitude relative sur les risques d’erreurs encourus, puisque on ne peut catégoriquement et dans des conditions certaines de précision, trancher dans le cas d’un écart significatif entre les résultats obtenus et ceux attendus, entre la probabilité d’un décalage purement statistique ou révélateur d’une réalité sous-jacente.

Un autre exemple concerne la fameuse histoire des « anomalons » : ces noyaux atomiques de taille anormalement grande, soi-disant produits lors des collisions atomiques et dont l’existence pouvait sembler solidement établie au début des années 1980. Observés par certains physiciens, ils demeuraient invisibles pour d’autres. Il a été finalement admis qu’ils n’existent pas14.

Rien ne peut assurer d’une certitude absolue lorsqu’on est en face d’un écart très faible mais constant dans les résultats de nos expériences.

  1. Septième critique : Le critère de falsification est le produit du positivisme

Sans remettre en cause le rôle de l’expérience en comparant certaines connaissances astronomiques grecques et la nouvelle science Galileo-newtonienne, Koyré affirme que le positivisme a été inventé par les Grecs et qui n’est qu’« un sauvetage des phénomènes », alors que la nouvelle science est à la base d’une description de la « réalité intime des phénomènes ».

Il affirme : « Le positivisme est fils de l’échec et du renoncement. Il est né de l’astronomie grecque et sa meilleure expression est le système de Ptolémée. Le positivisme fut conçu et développé, non pas par les philosophes du XIIIe siècle, mais par les astronomes grecs qui, ayant élaboré et perfectionné la méthode de la pensée scientifique – observations, théorie hypothétique, déduction et finalement vérification par de nouvelles observations – se trouvèrent dans l’incapacité de pénétrer le mystère des mouvements vrais des corps célestes et qui, en conséquence, limitèrent leur ambition à un sauvetage des phénomènes, c’est-à- dire à un traitement purement formel des données de l’observation….C’est cette conception….que les positivistes du XIVe siècle, assez proches en cela de ceux du XIXe et du XXe siècles qui ont seulement remplacé la résignation par la fatuité, ont essayé d’imposer à la science de la nature. C’est par révolte contre ce défaitisme traditionnel que la science moderne, de Copernic…..à Galilée et à Newton, a mené sa révolution contre l’empirisme stérile des Aristotéliciens, révolution qui est basée sur la conviction profonde que les mathématiques sont plus qu’un moyen formel d’ordonner les faits et sont la clef même de la compréhension de la Nature15.».

La science ne s’est pas développée grâce au positivisme mais plutôt grâce au réalisme mathématique. Newton croyait à l’existence de la force de gravitation même en l’absence d’une explication raisonnable de cette force. C’est le réalisme des atomes de Boltzmann qui a pris le dessus sur les descriptions positivistes des énergéticiens comme Klein.

La controverse entre les fondateurs de la mécanique quantique qui sont regroupés autour de l’école de Copenhague (Bohr et Heisenberg principalement) et qui ont proposé une vision du monde quantique basée sur les probabilités et non sur la réalité du monde et Einstein qui n’a jamais reconnu cette nature probabiliste en se réclamant d’une théorie basée sur l’existence d’un monde réel et déterministe représente en fait une controverse entre une position métaphysique et une position positiviste.

Les tenants de l’école de Copenhague à l’instar de Bohr sont des positivistes parce qu’ils se contentent de décrire le monde microscopique grâce à des constructions mathématiques élaborées par la raison seule et qui collent parfaitement aux résultats expérimentaux. Par exemple, Werner Heisenberg a élaboré en 1925 la mécanique des matrices afin de représenter les atomes. Ces matrices qui sont des concepts mathématiques abstraits ont été utilisées par ce physicien afin de représenter les propriétés des particules. L’une des particularités de cette construction mathématique est la non-commutativité : A X B n’est pas égale à B X A. Cette particularité d’ordre mathématique ne peut pas être décrite intuitivement vis-à-vis de la réalité physique.

Une discussion entre Bohr et Schrödinger reflète les sources philosophiques des deux courants de pensée en mécanique quantique et montre cette lutte intellectuelle entre Einstein et Bohr. Schrödinger s’est associé à Einstein dans sa critique de l’interprétation de Copenhague. Tandis que Bohr soutenait que les transitions photoniques dans les atomes représentent une description satisfaisante pour les atomes, Schrödinger s’y opposait en démontrant l’impossibilité d’observer de telles transitions.

Par ailleurs, la mécanique ondulatoire qui a été développée grâce à ses travaux postule l’existence d’ondes de matière réelles selon la théorie des ondes-matière de Louis de Broglie. Mais Bohr a refusé de reconnaître l’existence réelle d’ondes dans les atomes.

Les ondes de Schrödinger et de De Broglie sont devenues par la suite et dans le cadre de l’interprétation de Copenhague des ondes de probabilité d’existence de la particule dans un espace donné plutôt que des ondes réelles dans le cadre de ce qu’on appelle une fonction d’onde.

On peut remarquer une telle divergence de points de vue quasiment philosophiques en examinant de près la controverse Bohr-Einstein qui a pris le haut du pavé des discussions lors de la cinquième conférence de physique de l’Institut Solvay qui a eu lieu à Bruxelles en octobre 1927. Lors de cette conférence, Einstein et ses collègues ont déclaré que la mécanique quantique n’était pas une théorie complète et que des entités cachées se tapissent dans l’ombre et expliquent les phénomènes quantiques.

Ces variables cachées permettent selon eux de mettre fin aux aspects déroutants de la théorie quantique comme la dualité onde-corpuscule et le principe de superposition. « Pour Einstein et plus encore pour ses partisans, le côté flou et indéterminé de la physique quantique, ne peut satisfaire un scientifique et montre bien qu’il doit y avoir quelque chose là- dessous : on doit retrouver des petites billes, ou des ondes, enfin quelque chose que nous sachions nous représenter. Si on ne les voit pas encore, c’est que nos moyens d’observation sont insuffisants16 ».

Einstein n’a pas renoncé au réalisme en supposant l’existence d’entités cachées. Pour l’école de Copenhague, en revanche, ces concepts n’ont plus droit de cité dans la théorie qu’ils défendent. La source de la théorie devient la raison seule puisqu’elle repose sur une formulation abstraite mais cohérente de la réalité qui se résume à l’existence d’une entité mathématique et abstraite qui est la fonction d’onde17.

A chaque fois donc les physiciens positivistes s’opposent aux physiciens réalistes.

Mais comme le rappelle Koyré dans sa conférence précitée «…le renoncement – la résignation –positiviste n’est qu’une position de retraite qui ne dure qu’un temps et que si l’esprit humain, dans la poursuite du savoir, assume périodiquement cette attitude, il ne l’accepte jamais….l’attitude philosophique qui à la longue s’avère bonne n’est pas celle de l’empirisme positiviste ou pragmatiste, mais au contraire, celle du réalisme mathématique. En bref, non pas celle de Bacon ou de Compte, mais celle de Descartes, Galilée et Platon 18 ». Ajoutons seulement aux côtés des hérauts du positivisme, Karl Popper.

Cette propension positiviste illusoire qui consiste à négliger le réalisme en faveur d’un empirisme qui renonce à connaître le réel s’effondre lorsque les physiciens suggèrent l’existence d’entités réelles19. Par exemple, l’existence en physique des particules de «structures» comme les groupes de symétrie et les invariances de jauge n’aurait pas de sens en l’absence des particules comme les bosons de jauge qui sont des entités réelles et qui vont au-delà de notions purement mathématiques.

Conclusion

A la lumière de ce qui a dit tout au long de cet article, on peut tirer les enseignements suivants : la pensée scientifique n’a jamais été entièrement séparée de la métaphysique, de la philosophie et de la religion et que les changements majeurs des théories scientifiques sont accompagnés de visions métaphysiques et même religieuses. Ce n’est pas un hasard que pour les physiciens réalistes, il existe toujours un Dieu même si des divergences apparaissent de tant en tant à propos de sa relation avec le monde. C’est le cas de Newton, de Galilée, de Kepler et d’Einstein.

En revanche, pour les physiciens positivistes comme Bohr et Heisenberg pour ne prendre que les modernes, la nature fonctionne d’elle-même en vertu de ses propres lois. Le corollaire de cette vision positiviste n’est autre que la reconnaissance du rôle de la falsification dans les sciences en recourant à l’expérience avec comme principe de base la démarcation entre sciences et non sciences. La religion est rejeté de l’autre côté de cette barrière.

Nous avons remis en cause la validité d’un tel « mur de Berlin » entre les sciences et les autres connaissances humaines au nom de l’unité du savoir humain. Par conséquent, le critère de falsification n’est pas recevable pour repousser la religion de l’espace des connaissances humaines valides.

Rafik Hiahemzizou

1 À savoir, la deuxième loi : l’orbite de chaque planète est une ellipse dans le Soleil et un foyer ; et la troisième loi : les carrés des durées de révolution des diverses planètes sont proportionnels aux cubes des grands axes de leurs orbites.

2 Pierre Duhem « La Théorie Physique », Son Objet et sa Structure, Paris Chevalier et Rivières, 1906.

3 Ibid.

4 Karl Popper, La connaissance objective, trad. de Jean Jacques Rosat, éd. Flammarion, Paris, 1998, p. 310

5 Ibid., p. 311.

6 Ibid.

7 Poincaré, la Science et l’Hypothèse, Flammarion, Paris 1968, p. 166.

8 Daniel Andler, Anne Fagot-Largeault et Bertrand Saint-Sernin, Philosophie des sciences, I, Gallimard, 2002, p. 46.

9 Il est important de rappeler dans ce contexte qu’il n’est pas de notre propos d’évoquer une simple influence des idées anciennes sur la pensée scientifique moderne. Dans le cas de la théorie de Newton, l’idée d’attraction et de répulsion a bel et bien été empruntée à la tradition hermétiste.

10 De l’influence des conceptions philosophiques sur l’évolution des théories scientifiques. Conférence prononcée à la réunion de l’American Association for the Advancement of Science in Boston, 1954 ; cf. The Scientific Monthly, 1955.

11 Cette réalité a été rappelée par Koyré (op.cit.).

12 Op.cit. Hoffmann, 1985 p. 54.

13 P.G. Roll, R.Krotkov, R.H.Dicke « The Equivalence of Internial and Passive Gravitational Mass », Annals of Physics », 1964.

14 Un cas d’erreur scientifique : les anomalons La Recherche, juillet/août 1997, p. 904.

15 Alexandre Koyré « Etudes d’Histoire de la Pensée Scientifique », Editions Flammarion, 1984, p. 81

16 Ortoli Sven / Pharabod Jean-Pierre Le Cantique des Quantiques. Editions la Découverte, Paris, 1984 p. 53

17 Ibid.

18 Koyré op.cit.

19 Koyré donne les exemples suivants : la thermodynamique Boltzmann et de Gibbs contre celle de Carnot et de Fourier -La chimie atomiste contre la chimie des proportions définies – la physique atomique de Bohr et de Rutherford contre le système période, etc. (Koyré op.cit.).

Publicité

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité

Gérard Noiriel: “Zemmour a un talent rhétorique pour faire croire des choses qui ne sont pas vraies”

Quand les Ecossais découvrent que le “tartan islamique” fait partie de leur patrimoine depuis 7 ans