|
La raison en révolte
Philosophie dialectique et science moderne
V. Une révolution en Physique
Ted Grant et Alan Woods
1er mai 1995
Il y a deux mille ans, on pensait que la géométrie d’Euclide recouvrait toutes les lois de l’univers. Il n’y avait rien à ajouter. C’est l’illusion de chaque époque. Longtemps après la mort de Newton, les scientifiques pensaient qu’il avait dit le dernier mot sur les lois de la nature. Laplace se lamentait sur le fait qu’il n’y avait qu’un univers et que Newton avait eu la chance de découvrir toutes ses lois. Pendant deux siècles, la théorie de Newton sur les particules de lumière était généralement acceptée – en opposition avec la théorie du physicien hollandais Huygens, selon laquelle la lumière est une onde. Puis la théorie des particules de lumière fut rejetée par le Français A. J. Fresnel, dont la théorie ondulatoire fut confirmée de façon expérimentale par J. B. Foucault. Newton pensait que la lumière, qui se déplace à 300 000 kilomètres par seconde dans le vide, irait encore plus vite dans l’eau. Les partisans de la théorie ondulatoire prédisaient au contraire une vitesse moindre, et il fut démontré qu’ils avaient raison.
Cependant, la percée majeure en faveur de la théorie ondulatoire fut réalisée, dans la deuxième moitié du XIXe siècle, par le très grand scientifique écossais James Clerk Maxwell. En premier lieu, Maxwell se basa sur le travail expérimental de Michael Faraday, qui avait découvert l’induction électromagnétique et fait des recherches sur les propriétés de l’aimant, dont les deux pôles, nord et sud, impliquaient des forces invisibles s’étirant d’un bout à l’autre de la Terre. Maxwell donna une forme universelle à ces découvertes empiriques en les traduisant en termes mathématiques. Ce travail déboucha sur des découvertes relatives aux champs magnétiques sur lesquelles, plus tard, Einstein a basé sa théorie générale de la relativité. Chaque génération se tient sur les épaules de ses prédécesseurs ; elle nie et, tout à la fois, préserve les découvertes passées, les approfondissant continuellement et leur donnant une forme et un contenu plus généraux.
Sept ans après la mort de Maxwell, Hertz détecta pour la première fois les ondes électromagnétiques dont Maxwell avait prédit l’existence. La théorie des particules, qui prédominait depuis Newton, semblait être annihilée par l’électromagnétique de Maxwell. Encore une fois, les scientifiques pensaient être en possession d’une théorie susceptible de tout expliquer. Il ne restait plus que quelques questions à éclaircir – et nous pourrions connaître tout ce qu’il y a à connaître du fonctionnement de l’univers. Certes, il y avait encore quelques petites discordances gênantes, mais elles semblaient n’être que des petits détails que l’on pouvait ignorer sans problèmes. Cependant, en quelques décennies, ces détails « mineurs » se sont révélés suffisants pour renverser tout l’édifice et susciter une véritable révolution scientifique.
Tout le monde sait ce qu’est une onde. De même que des ondes peuvent être provoquées par la nage d’un canard à la surface d’un étang, une particule chargée, par exemple un électron, peut provoquer une onde électromagnétiquelorsqu’elle se déplace à travers l’espace. Les mouvements oscillatoires de l’électron perturbent les champs électriques et magnétiques, ce qui cause une propagation continuelle d’ondes, comme les rides à la surface de l’étang. Naturellement, cette analogie n’est qu’approximative. Il y a une différence fondamentale entre une onde à la surface de l’eau et une onde électromagnétique. Cette dernière n’a pas besoin d’un milieu continu – comme l’eau – à travers lequel se déplacer. Une oscillation électromagnétique est une perturbation périodique qui se propage à travers la structure électrique de la matière. Ceci dit, cette comparaison peut nous aider à rendre l’idée plus compréhensible.
Le fait que nous ne puissions pas voir ces ondes ne signifie pas que nous ne puissions pas détecter leur présence dans notre vie quotidienne. Nous faisons l’expérience directe des ondes lumineuses et radiologiques, et mêmes des rayons X. La seule différence entre elles, c’est leur fréquence. Nous savons que, selon son intensité, une onde à la surface de l’eau fera plus ou moins vite monter et descendre un objet flottant – selon, par exemple, qu’il s’agisse d’ondes causées par un canard ou de celles provoquées par un hors-bord. De la même façon, les oscillations des électrons seront proportionnelles à l’intensité de l’onde lumineuse.
Les équations de Maxwell, appuyées par les expériences réalisées par Hertz et d’autres, constituaient une preuve très solide en faveur de la théorie des ondes lumineuses, caractérisées comme électromagnétiques. Cependant, au début du siècle, des preuves s’accumulaient qui suggéraient que cette théorie était fausse. En 1900, Max Planck montrait que la théorie ondulatoire classique faisait des prédictions qui ne se vérifiaient pas dans la pratique. Il avançait que la lumière existait sous forme de particules ou de « paquets » (quanta). La situation était compliquée par le fait que différentes expériences prouvaient différentes choses. On pouvait prouver qu’un électron était une particule en le projetant sur un écran fluorescant et en observant les scintillements qui en résultaient ; ou en regardant les traces du mouvement des électrons dans une chambre à brouillard ; ou grâce à la toute petite tâche qui apparaît sur une plaque photographique. En revanche, des électrons émis d’une source unique et passant par deux trous percés dans un écran créaient un effet d’interférence, indiquant ainsi la présence d’une onde.
Cependant, le résultat le plus étrange fut obtenu par la célèbre expérience des deux fentes, au cours de laquelle un seul électron est projeté contre un écran comportant deux fentes et derrière lequel se trouve une plaque photographique. Par laquelle des deux fentes l’électron passe-t-il ? La structure de l’interférence sur la plaque correspond clairement à celle d’un passage par deux trous. Cela prouve que l’électron a dû passer par les deux fentes, et créer ainsi une interférence. Cela va contre toutes les lois du bon sens, mais s’est révélé tout de même irréfutable. L’électron se comporte à la fois comme une particule et comme une onde. Il est à deux (et même plus de deux) endroits à la fois, et dans différents états de mouvements à la fois !
« Ne nous imaginons pas », commente Banesh Hoffmann, « que les scientifiques ont accepté ces nouvelles idées avec des cris de joie. Ils ont lutté contre elles et leur ont résisté autant qu’ils le pouvaient. Ils ont inventé toutes sortes de pièges et d’hypothèses alternatives afin de les réfuter. Mais les paradoxes flagrants étaient connus dès 1905 – et même avant – dans le cas de la lumière, et personne n’a eu le courage ni l’intelligence de les résoudre avant l’avènement de la nouvelle mécanique quantique. Si les nouvelles idées sont aussi difficiles à accepter, c’est parce que nous nous efforçons toujours instinctivement de les concevoir sur la base de notre vieille conception de la particule, et ce malgré le principe d’indétermination de Heisenberg. Nous sommes toujours réticents à visualiser un électron comme quelque chose qui, en mouvement, puisse n’avoir aucune position, et lorsqu’il a une position, puisse n’avoir ni mouvement ni repos. » [1]
Ici, nous voyons la négation de la négation à l’œuvre. A première vue, il semble que nous soyons revenu au point de départ. La théorie newtonienne des particules de lumière a été niée par la théorie ondulatoire de Maxwell. Celle-ci, à son tour, a été niée par la nouvelle théorie des particules défendue par Planck et Einstein. Cependant, cela ne signifiait pas un retour à la vieille théorie de Newton, mais un saut qualitatif en avant impliquant une authentique révolution scientifique. Toute la science a dû être révisée, y compris la loi de la gravitation de Newton.
Cette révolution n’a pas invalidé les équations de Maxwell, qui restent toujours valables pour un grand nombre d’applications. Elle a simplement montré qu’au-delà de certaines limites, les idées de la physique classique n’étaient plus opérantes. On ne peut comprendre les phénomènes du monde subatomique avec les méthodes de la physique classique. C’est ici qu’entrent en jeu les idées de la mécanique quantique et de la relativité. Pour la plus grande partie du XXe siècle, la physique a été dominée par la théorie de la relativité et la mécanique quantique, lesquelles furent d’abord rejetées d’un revers de main par une communauté scientifique qui s’accrochait avec acharnement aux vieilles conceptions. Il y a là une importante leçon. Toute tentative d’imposer une « solution finale » à notre conception de l’univers est condamnée à l’échec.
Le développement de la physique quantique a constitué un pas de géant pour la science, une rupture décisive avec le déterminisme mécanique et étouffant de la science « classique » (la « méthode métaphysique », comme l’appelait Engels). Il s’agit d’une conception de la nature plus souple, dynamique – en un mot, dialectique. Lorsque Planck fit la découverte de l’existence du quantum, cela apparut d’abord comme un petit détail, presqu’une anecdote, mais le visage de la physique en a été complètement transformé. Cette nouvelle approche scientifique pouvait expliquer le phénomène de la transformation radioactive et analyser dans le détail les données complexes de la spectroscopie. Cela a directement mené à l’émergence d’une nouvelle science – la chimie théorique, qui résolvait des problèmes jusqu’alors insolubles. De manière générale, l’adoption du nouveau point de vue permettait de solutionner toute une série de difficultés théoriques. La nouvelle physique révélait les forces prodigieuses que renferme le noyau atomique. Le résultat direct en fut l’exploitation de l’énergie nucléaire, laquelle peut mener soit à la destruction de toute vie sur la planète – soit, à travers une utilisation pacifique de la fusion nucléaire, à la perspective d’une abondance et d’un progrès social illimités.
La théorie de la relativité d’Einstein explique que la masse et l’énergie sont équivalentes. Si l’on connaît la masse d’un objet, on obtient son énergie en la multipliant par le carré de la vitesse de la lumière. Einstein a montré que la lumière, jusqu’alors considérée comme une onde, se comporte comme une particule. En d’autres termes, la lumière n’est qu’une autre forme de matière. Cela fut prouvé en 1919, en montrant que la lumière est sensible à la force de gravitation. Louis de Broglie a plus tard indiqué que la matière, que l’on pensait consister en particules, possède des caractéristiques propres aux ondes. La séparation entre matière et énergie était abolie une fois pour toute. Matière et énergie sont… une même chose. C’était là un progrès colossal pour la science. Et du point de vue du matérialisme historique, la matière et l’énergie sont identiques. Engels décrivait l’énergie (le « mouvement ») comme « le mode d’existence, l’attribut inhérent de la matière. » [2]
Le débat qui avait longtemps dominé la physique – pour déterminer si les particules subatomiques telles que les photons et les électrons sont des particules ou des ondes – était finalement tranché par la mécanique quantique. Celle-ci affirme que les particules subatomiques peuvent se comporter, et se comportent effectivement, à la fois comme des particules et comme une onde. Comme une onde, la lumière produit une interférence ; mais un photon de lumière rebondit au contact de tous les électrons, comme une particule. Cela va à l’encontre des lois de la logique formelle. Comment le « bon sens » peut-il accepter qu’un électron puisse être en même temps à deux endroits – ou même se déplacer simultanément dans différentes directions lorsque sa vitesse est énorme ? L’idée que la lumière ce comporte à la fois comme une onde et comme une particule était considérée comme une intolérable contradiction. Les tentatives d’expliquer les phénomènes contradictoires du monde subatomique au moyen de la logique formelle ont débouché sur un abandon de la pensée rationnelle. Dans la conclusion de son ouvrage sur la révolution quantique, Banesh Hoffmann est capable d’écrire :
« Où est donc la limite de notre émerveillement devant la puissance étonnante de Dieu, qui créa ciel et terre à partir d’une essence primordiale d’une subtilité exquise, telle qu’à partir d’elle, il pouvait façonner des cerveaux et des esprits enflammés du don divin leur permettant de pénétrer ses mystères ? Si l’esprit d’un simple Bohr ou Einstein nous étonne par sa puissance, comment pouvons-nous ne serait-ce que commencer à saisir la gloire de Dieu, qui les a créés ? » [3]
Ce n’est malheureusement pas un cas isolé. Une large partie de la littérature scientifique moderne, y compris parmi celle des scientifiques eux-mêmes, est complètement imprégnée ce genre de notions mystiques, religieuses ou quasi-religieuses. C’est le résultat direct de la philosophie idéaliste qu’ont adoptée – consciemment ou inconsciemment – un grand nombre de scientifiques.
Les lois de la mécanique quantique heurtent de front le « bon sens » (la logique formelle), mais sont parfaitement conformes au matérialisme dialectique. Prenez par exemple la conception du point. Toute la géométrie traditionnelle se dérive à partir du point, qui devient ensuite une ligne, un plan, un cube, etc. Cependant, un examen plus approfondi montre que le point n’existe pas.
Le point est conçu comme la plus petite expression de l’espace, quelque chose qui n’a pas de dimension. En réalité, un tel point est composé d’atomes, qui sont à leur tour composés d’électrons, de noyaux, de photons et de particules plus petites encore. Finalement, le point se perd dans le flux incessant d’ondes quantiques tourbillonnantes. Et c’est un processus sans fin. Il n’y a strictement aucun « point » fixe. C’est la réponse définitive aux idéalistes qui essayent de trouver des « formes parfaites » supposées résider « au-delà » de la réalité matérielle observable. La seule « réalité ultime » est l’univers matériel infini, éternel, en changement perpétuel, et qui est beaucoup plus merveilleux dans son inépuisable diversité que toutes les fabuleuses aventures de la science-fiction. Au lieu d’un endroit fixe – un « point » –, nous avons un processus, un flux incessant. Toute tentative de lui imposer des limites, sous la forme d’un début ou d’une fin, sera vouée à l’échec.
Bien avant la découverte de la relativité, la science avait établi deux principes fondamentaux – la conservation de l’énergie et la conservation de la masse. Le premier fut découvert par Leibniz au XVIIe siècle, puis développé au XIXe siècle comme corollaire d’un principe de la mécanique. Il y a beaucoup plus longtemps, les premiers hommes découvraient dans la pratique le principe de l’équivalence du travail et de la chaleur en faisant du feu au moyen de la friction, c’est-à-dire en convertissant une certaine quantité d’énergie (travail) en chaleur. Au début du XXe siècle, on a découvert que la masse était simplement l’une des formes de l’énergie. Une particule de matière n’est rien de plus que de l’énergie hautement concentrée et localisée. La quantité d’énergie concentrée dans une particule est proportionnelle à sa masse, et la somme totale d’énergie reste toujours la même. La perte d’un type d’énergie est compensée par le gain d’un autre type d’énergie. Bien qu’elle change constamment de forme, l’énergie reste toujours la même.
La révolution réalisée par Einstein a consisté à démontrer que la masse elle-même contient une quantité stupéfiante d’énergie. L’équivalence de la masse et de l’énergie s’exprime par la formule E = mc2, où c désigne la vitesse de la lumière (environ 300 000 kilomètres par seconde), E l’énergie contenue dans le corps immobile, et m sa masse. L’énergie contenue dans la masse m est égale à cette masse multipliée par le carré de la vitesse – immense – de la lumière. La masse est par conséquent une forme d’énergie énormément concentrée, dont on peut se faire une idée de la puissance en considérant que l’énergie libérée au cours d’une explosion atomique représente moins qu’un millième de la masse converti en énergie. Normalement, la vaste quantité d’énergie enfermée dans la matière ne se manifeste pas, et par conséquent passe inaperçue. Mais si les processus au sein du noyau atteignent un point critique, une partie de l’énergie est libérée sous la forme d’énergie cinétique.
Puisque la masse n’est qu’une des formes de l’énergie, la matière et l’énergie ne peuvent être ni crées ni détruits. D’un autre côté, les formes de l’énergie sont extrêmement diverses. Par exemple, lorsque les protons, dans le soleil, s’unissent pour former des noyaux d’hélium, de l’énergie nucléaire est libérée. Cela peut initialement apparaître comme l’énergie cinétique du mouvement des noyaux, qui contribue à l’énergie calorifique du soleil. Le soleil émet une partie de cette énergie sous la forme de photons, qui contiennent des particules d’énergie électromagnétique. Celle-ci, à son tour, se transforme, à travers le processus de photosynthèse, en l’énergie chimique emmagasinée dans les plantes. Cette énergie est ensuite récupérée par l’homme lorsqu’il mange des plantes ou des animaux qui ont mangé des plantes, ce qui fournit la chaleur et l’énergie pour les muscles, pour la circulation sanguine, le cerveau, etc.
En général, les lois de la physique classique ne peuvent être appliquées aux processus du niveau subatomique. Cependant, il y a une loi qui ne connaît pas d’exception dans la nature : la loi de la conservation de l’énergie. Les physiciens savent que ni une charge positive ni une charge négative ne peuvent être créées à partir de rien. Ce fait est exprimé par la loi de la conservation de la charge électrique. Ainsi, dans le processus de production d’une particule beta, la disparition du neutron (qui n’a pas de charge) produit une paire de particules aux charges opposées – un proton, chargé positivement, et une électron, chargé négativement. Ensemble, les deux nouvelles particules ont une charge électrique combinée égale à zéro.
Prenons le processus inverse : lorsqu’un proton émet un positron et se transforme en neutron, les particules qui en résultent (le neutron et le positron), sont, prises ensembles, chargées positivement, tout comme la particule originelle (le proton). Dans cette myriade de changements, la loi de la conservation de la charge électrique est maintenue, comme le sont toutes les autres lois de conservation. Il n’y a pas même la plus petite fraction d’énergie qui soit crée ou détruite, et un tel phénomène ne se produira jamais.
Lorsqu’un électron et son anti-particule, le positron, se détruisent, leur masse « disparaît » en ce sens qu’elle se transforme en deux particules de lumière (photons) qui s’envolent dans des directions opposées. Cependant, l’énergie totale de ces dernières est la même que celle de la particule dont elles ont émergé. La masse-énergie, la vitesse linéaire et la charge électrique ont toutes été conservées. Ce phénomène n’a rien à voir avec une disparition au sens d’une annihilation. De façon dialectique, l’électron et le positron sont à la fois niés et préservés. La matière et l’énergie (qui sont simplement deux manières de désigner la même chose) ne peuvent être ni créées, ni détruites, mais seulement transformées.
Du point de vue du matérialisme dialectique, la matière est la réalité objective qui nous est communiquée par notre perception sensible. Cela n’inclue pas seulement les objets « solides », mais aussi la lumière. Les photons sont de la matière au même titre que les électrons et les positrons. La masse se change constamment en énergie (y compris la lumière – photons) et l’énergie en masse. L’« annihilation » d’un positron et d’un électron produit une paire de photons, mais on peut aussi observer le processus inverse : lorsque deux photons se rencontrent, cela peut produire un électron et un positron, à condition que les photons possèdent suffisamment d’énergie. Ceci est parfois présenté comme une création de matière « à partir de rien ». C’est tout à fait inexact. Il ne s’agit ni de la destruction ni de la création de quoi que ce soit, mais de la transformation continuelle de matière en énergie, et vice versa. Lorsqu’un photon heurte un atome, il cesse d’exister comme photon. Il disparaît, mais provoque un changement dans l’atome – un électron saute d’une orbite à une autre dont l’énergie est plus grande. Ici aussi, le processus inverse existe : lorsqu’un électron saute d’une orbite à une autre de moins grande énergie, un photon est produit.
Le processus de transformation permanente qui caractérise le monde au niveau subatomique est une confirmation frappante du fait que la dialectique n’est pas une invention subjective de l’esprit, mais correspond effectivement aux processus objectifs à l’œuvre dans la nature. Ce processus de transformation a existé, sans interruption, de toute éternité. C’est une démonstration concrète de l’indestructibilité de la matière.
Des siècles durant, les scientifiques ont essayé, en vain, de découvrir des « briques de matière » – c’est-à-dire les particules ultimes, les plus petites qui soient. Il y a cent ans, ils ont cru les trouver dans l’atome (qui, en grec, signifie « ce qui ne peut être divisé »). La découverte des particules subatomiques a mené les physiciens à sonder plus en profondeur la structure de la matière. En 1928, des scientifiques se sont imaginés qu’ils avaient trouvé les particules les plus petites – les protons, les électrons et les photons. Toute la réalité matérielle était supposée être constituée de ces trois éléments. Plus tard, cette conviction fut ruinée par la découverte du neutron, du positron, du deuteron – puis d’une foule de particules toujours plus petites et fugaces : les neutrinos, les pions, les muons, les kaons, et bien d’autres encore. L’espérance de vie de certaines de ces particules est si petite – peut-être un milliardième de seconde – qu’elles ont été décrites comme des « particules virtuelles », ce qui était complètement impensable à l’ère pré-quantique.
Au bout d’un trillionième de seconde, le tauon se décompose en un muon, puis en un électron. Le pion (neutre) est encore plus évanescent : en moins d’un quadrillionème de seconde, il se décompose pour former une paire de rayons gamma. Cependant, ceux-ci ont une bien longue vie si on les compare aux autres, dont la vie ne dure qu’un centième de microseconde. La particule neutre sigma, par exemple, se décomposent au bout d’un cent-trillionième de seconde. Mais même cela fut dépassé, dans les années soixante, avec la découverte de particules si évanescentes que leur existence ne pouvait être déterminée que par la nécessité d’expliquer les éléments issus de leur décomposition. La demi-vie de ces particules se situe aux alentours de quelques trillionièmes de seconde. Elles sont connues sous le nom de « particules de résonance ». Mais même là, ce n’était pas la fin de l’histoire.
Plus de cent cinquante nouvelles particules ont ensuite été découvertes, qui ont été appelées hadrons. La situation devenait extrêmement confuse. Dans sa tentative d’expliquer la structure des particules subatomiques, un physicien américain, Dr. Murray Gell-Mann, postula l’existence d’autres particules, plus fondamentales, les quarks, qui cette fois encore furent présentés comme « les ultimes blocs constitutifs de la matière. » Gell-Mann a suggéré qu’il y avait six différents types de quarks, et que la famille des quarks était parallèle à une autre famille de six particules plus légères appelées leptons. Toute la matière était censée être constituée de ces 12 particules. Mêmes celles-ci, qui sont les formes de la matière les plus élémentaires connues à ce jour, possèdent les qualités contradictoires que l’on observe dans toute la nature, conformément à la loi dialectique de l’unité des opposés. Les quarks existent aussi par paires, et possèdent une charge positive et négative – bien que celle-ci, de façon inhabituelle, s’exprime en fractions.
Bien que l’expérience ait démontré qu’il n’y a pas de limites à la matière, des scientifiques persistent à chercher en vain les « briques de la matière ». Il est vrai que de telles formules sont souvent les inventions de journalistes à sensation et de scientifiques doués d’un sens excessif de l’auto-promotion. La recherche de particules toujours plus petites est sans aucun doute une activité scientifique sérieuse et qui permet d’approfondir notre connaissance de la nature. Ceci dit, on a quand même l’impression que certains scientifiques croient vraiment qu’il est possible d’atteindre une sorte de niveau ultime de la réalité, au-delà duquel il n’y aurait plus rien à découvrir, tout au moins au niveau subatomique.
Le quark est supposé être le dernier des douze « blocs » dont toute la matière serait constituée. D’après le Dr. David Schramm, « ce qui est excitant, c’est qu’il s’agit de l’ultime particule de la matière telle que nous la connaissons, conformément à ce qui a été prévu par la cosmologie et le « modèle standard » de la physique des particules. C’est la dernière pièce du puzzle. » [4]. Ainsi le quark serait l’« ultime particule ». Il est censé être fondamental et sans structure. Mais on déjà a connu de telles affirmations, dans le passé, au sujet de l’atome, puis du proton, et ainsi de suite. Aussi peut-on prédire sans hésitation que des formes de matières encore plus « fondamentales » seront découvertes à l’avenir. Le fait que l’état actuel de nos connaissances ne nous permette pas de déterminer les propriétés du quark ne nous autorise pas à affirmer qu’il n’a pas de structure. Les propriétés du quark attendent toujours d’être analysées, et il n’y a aucune raison de penser que la science n’y parviendra pas, ce qui ouvrira la voie à de nouveaux progrès dans notre connaissance des propriétés de la matière. La science a toujours avancé de cette façon. Les limites de la connaissance qu’une génération suppose infranchissables sont brisées par la génération suivante. Il en a toujours été ainsi. L’ensemble de l’expérience passée nous donne toutes les raisons de croire que le processus dialectique de la progression de nos connaissances est aussi interminable et infini que l’univers lui-même.