Roberto Fondi
Épistémologie de la physique moderne

  Vous avez tracé un tableau très clair de la réalité physique. Mais, plus d’une fois, en parlant avec des physiciens, il m’est arrivé de constater chez eux une incertitude évidente, pour ne pas dire un embarras presque pénible, lorsqu’ils devaient répondre à des questions concernant leur vision du monde personnelle, telle qu’ils l’avaient élaborée […]

 

Vous avez tracé un tableau très clair de la réalité physique. Mais, plus d’une fois, en parlant avec des physiciens, il m’est arrivé de constater chez eux une incertitude évidente, pour ne pas dire un embarras presque pénible, lorsqu’ils devaient répondre à des questions concernant leur vision du monde personnelle, telle qu’ils l’avaient élaborée sur la base de leur expérience de scientifiques.

J’ai eu moi aussi cette impression.

Quelle est donc, selon vous, la Weltanschauung actuellement la plus répandue parmi les physiciens, en dehors, naturellement, de cas particuliers comme Heitler, Costa de Beauregard et Capra ?

Je l’identifierais à une vision du type de celle représentée en Italie par Piero Caldirola. En règle générale, cette vision semble rester dans le sillon de l’interprétation fournie par Bohr et Heisenberg des phénomènes de la mécanique quantique (interprétation dite aussi « de Copenhague » et fondée sur l’indéterminisme le plus strict des faits naturels). Mais elle est en même temps caractérisée par un fort état d’esprit « opportuniste » (l’adjectif est de Caldirola lui-même), puisqu’elle se déclare partiellement insatisfaite des fondements conceptuels de la mécanique quantique orthodoxe, non plus liée aux dogmatismes de la philosophie néopositiviste (et néomarxiste [1]), fidèle surtout à la logique classique-aristotélicienne [2] et ouverte à toute orientation théorique susceptible d’aider à prévoir avec exactitude — et non plus de façon probabiliste — le résultat de chaque mesure particulière.

Par ailleurs, les physiciens opposés au probabilisme de l’orthodoxie de Copenhague, et qui sont restés fidèles aux positions réalistes de Planck, Einstein, de Broglie et Schrödinger, lesquels nièrent toujours obstinément que l’interprétation de Copenhague pouvait être considérée comme définitive, ne manquent pas. Actuellement, les représentants les plus connus de ce deuxième front sont l’Américain David Bohm, professeur au Birkbeck College de l’université de Londres ; le Français Pierre Vigier, ancien élève de Broglie et directeur de recherche au CNRS ; l’Italien Franco Selleri et quelques autres (Halbwachs, Schiller, Weizel, Yevick).

Il y a ensuite un troisième front dont, curieusement, on parle peu, et qui se trouve dans une position intermédiaire entre l’interprétation probabiliste et l’interprétation réaliste. Il est représenté par Costa de Beauregard, par l’Italien Elio Conte, l’Américain H.P. Stapp et quelques autres (Rietdijk, Werbos) et semble proche des thèses de Fantappié. Parmi les autres physiciens « hétérodoxes », on peut encore citer E. Nelson, L. de la Penã-Auerbach et E.T. Jaynes.

Commençons donc par l’interprétation de Copenhague.

Pour la conception réaliste — représentée par les physiciens classiques et les physiciens relativistes —, la science avait pour tâche exclusive de donner des descriptions de plus en plus précises et objectives de la réalité, considérée comme existant indépendamment de nos observations. Mais pour l’interprétation de Copenhague, l’homme ne peut pas connaître la vraie relation existante entre ses modèles scientifiques et expérimentaux, d’une part, et la réalité, de l’autre ; en fait, il ne peut même pas savoir ce qu’est la réalité, ni si elle est accessible à la raison et à la science. Il ne reste à l’homme qu’à se contenter de ses modèles opérationnels, qui de toute façon ne seront jamais des représentations définitives de ce que ses sens expérimentent. Ce qu’il peut espérer de mieux, c’est une correspondance prédictive satisfaisante entre ses modèles rationnels et les faits expérimentaux. Et puisque, en ce sens, les modèles indéterministes de la physique quantique fonctionnent à merveille, il ne reste qu’à accepter l’indéterminé comme vue ultime de tout ce que l’homme peut connaître. En conséquence, le principe métaphysique de cause, n’ayant aucune correspondance effective dans l’expérience soumise à l’analyse critique, cesserait d’avoir une valeur indiscutable et resterait simple hypothèse verbale privée de toute raison d’être.

Vous comprenez bien que cette conclusion est d’une gravité inouïe, parce qu’elle sape à la base tout le grand cycle culturel qui, inauguré par la philosophie grecque au VIème siècle avant J.-C., s’est appuyé sur une recherche toujours plus approfondie des « causes » de chaque phénomène ou événement perçu : recherche qui constitue précisément l’un des fondements de la civilisation dans laquelle nous vivons.

« Si l’on ajoute, écrit Tonini, que ces critiques ont été semées sur une terre déjà profondément labourée par le conventionnalisme d’Avenarius, de Mach, de Duhem, de Poincaré, et que cette terre avait été précédemment retournée par la théorie de la relativité d’Einstein, on comprend aisément que les physiciens modernes aient rapidement trouvé le chemin de la négation de toute probabilité de déterminer une « vérité », qu’ils aient même une authentique terreur des « vérités ontologisées » ; et que ces jugements ou idées que l’intellect humain croyait avoir rigoureusement formulés et établis pour toujours, comme conséquences de vérités évidentes, doivent être complètement renversés. Le vieux langage logique que nous traînons lourdement derrière nous, et qui vient de la plus grossière expérience de faits macroscopiques limités, semble désarmais désuet, anachronique, quasiment un langage primordial d’hommes des cavernes ! » [3].

Il me paraît incontestable que la pensée philosophique moderne, pour une large part intrinsèquement nihiliste, a fortement contribué — comme le reconnaît d’ailleurs Tonini — à l’apparition de cette attitude. L’une des caractéristiques les plus évidentes de cette pensée, c’est en effet son empirisme ou, mieux, son asservissement pratique à la vision du monde et à l’establishment culturel dominants, qui fait d’elle un bien de consommation au même titre que tous les autres, et qui la détache des valeurs du passé, cette pensée ne se penchant que sur les problèmes du présent, posés comme absolus. À ce sujet, les meilleurs exemples restent le positivisme logique et la philosophie analytique, qui ne s’intéressent pas à des faits ou phénomènes, mais seulement à des assertions. Pour le philosophe se réclamant de ces courants, c’est une prétention tout à fait illusoire que de tirer des vérités ou des significations des choses et des faits considérés en eux-mêmes ; c’est au contraire à la raison seule qu’il incombe de créer ou de définir des choses et de leur assigner valeurs et significations. Ce qui est communément appelé « réalité » ne serait qu’un jeu d’assignations de noms et de conventions logiques et linguistiques.

Un ouvrage récent, où sont rassemblés les actes du colloque sur le réalisme organisé en 1978 Florence par le Centre Florentin d’Histoire et de Philosophie de la Science [4], illustre fort bien ce que je viens de dire. Ce volume, qui contient des contributions dues à d’importantes personnalités du monde philosophique et scientifique international (Alfred J. Ayer, Alistair C. Crombie, Bernard d’Espagnat, David Finkelstein, Nelson Goodman, Stephen Jay Gould, Richard L. Gregory, Hilary Putnam, Giuliano Toraldo di Francia, etc.), débouche en effet sur des conclusions « ouvertes », c’est-à-dire hétérogènes et incertaines.

Du point de vue philosophique, le processus cognitif est ici assimilé à l’établissement de cartes différentes d’un même territoire. « Un territoire — écrit Massimo Piattelli Palmarini, éditeur de l’ouvrage — peut être totalement ou partiellement inaccessible, actuellement ou pour une longue période. Mais un territoire inaccessible n’est pas un territoire inexistant. L’accessibilité peut être garantie ‘à la limite’, c’est-à-dire après une longue série de tentatives et par comparaison exhaustive de toutes les meilleures cartes. Le territoire peut être pratiquement inaccessible, mais objectivement existant. Cette position est celle du réaliste métaphysique (l’expression est de Hilary Putnam), qui se distingue du réaliste interne (autre expression de Putnam). Pour ce dernier, la réalité du territoire est partie intégrante des conventions cartographiques. La carte doit, comme nécessité contractuelle, correspondre à son territoire, selon les multiples règles de ce type de carte. La correspondance et la réalité du territoire sont donc réputées internes, il n’y a pas de notion de correspondance et de réalité valable pour chaque carte (…) La vérification n’est pas directe, mais se fait par la médiation d’autres cartes, d’autres lois scientifiques. En dernière instance, la vérification est une traduction. Le contrôle de chaque carte se fait toujours et seulement sur une autre carte » [5].

En d’autres termes, selon le « réalisme interne » qui inspire pratiquement toute la partie philosophique de l’ouvrage en question, « si l’on enlève les cartes, il ne reste plus aucun territoire », et « les événements n’existent plus quand on fait abstraction de chaque récit de ces événements » [6].

Voulez-vous dire qu’influencée par de telles positions philosophiques, l’interprétation de Copenhague finit par mener bien plus loin que le simple refus du déterminisme ? Qu’elle finit par affirmer carrément que chercher dans le monde une structure sous-jacente n’a pas de sens ?

Mais cela est explicitement confirmé par l’ouvrage dont je parlais. Il est intéressant de constater que, dans ce livre, les contributions des philosophes s’appuient essentiellement sur la défense de la position réaliste « interne », alors que celles des scientifiques tendent à s’en éloigner, car ils font remarquer qu’elle crée plus de problèmes qu’elle n’en résout lorsqu’elle est appliquée aux particules, aux champs de probabilités et au monde microphysique en général. Toraldo souligne fortement que les physiciens et les scientifiques en général se servent à chaque instant d’un concept de vérité qui, bien qu’il ne plaise pas aux réalistes « internes », est exactement le concept courant : une assertion est vraie si et seulement si ce qu’elle énonce se produit (« La neige est blanche » est une assertion vraie si et seulement si la neige est blanche). Malgré cela, Toraldo affirme également en toutes lettres que « le dilemme réalisme contre idéalisme (…) ne concerne vraiment, à l’heure actuelle, que le physicien en général ; au lieu de discuter pour savoir si le monde est réel ou non, si les choses existent ou non, nous avons plutôt tendance aujourd’hui à nous demander ce que nous entendons quand nous disons que quelque chose existe. Et, par-là, nous découvrons qu’il y a des significations multiples, différents niveaux de signification » [7].

Toraldo fait en effet remarquer que le concept de réalité prend des sens différents selon les moments traversés par l’histoire de la pensée scientifique. C’est donc un concept foncièrement instable et incertain, inexorablement destiné à changer de valeur selon les théories grâce auxquelles nous nous efforçons d’ordonner rationnellement tout ce que nous percevons. Alors qu’à l’époque de Newton, par exemple, étaient réputés réels la séparabilité de la matière et le caractère absolu du temps et de l’espace, nous considérons aujourd’hui comme réelles la non-séparabilité de la matière et la relativité de l’espace et du temps. Mais si, au-delà de toute construction théorique possible, il y a vraiment un monde réel, si celui-ci, supposer qu’il existe, est ordonné ou chaotique — ce sont là des questions, précise Toraldo, qui « n’intéressent guère » les scientifiques.

Étant donné cette forme mentale, il n’y a pas lieu de s’étonner si de nombreux physiciens jugeaient privées de sens ou embarrassantes les questions que vous leur posiez. Quelle conception de la nature peuvent-ils avoir ? La vérité, c’est que pour ces physiciens aucune conception spécifique de la nature n’existe ou ne saurait exister, tout étant destiné à rester indéterminé et « indéterminable ». Pour eux, ce qui importe vraiment, ce n’est pas tant d’interpréter les phénomènes de la réalité d’une manière ou d’une autre, que d’être simplement en mesure de les prévoir et de les relier entre eux d’une manière pouvant être vérifiée expérimentalement. En conséquence, tout formalisme mathématique capable de décrire une classe donnée de phénomènes ne devra être considéré — selon eux — que comme instrument pratique, et cela indépendamment de toute interprétation de caractère général, irrévocablement destinée, par sa nature même, à avouer ses limites.

Telle est aussi, par exemple, la position adoptée par Josef Maria Jauch dans son livre Are Quanta Real ? [8] où il imagine que Salviati, Sagredo et Simplet (les fameux protagonistes du dialogue de Galilée) se rencontrent à notre époque pour discuter de nouveau. Cette fois, Simplet personnifie ceux qui croient que le monde a une réalité indépendamment de notre observation, et que la tâche de la science est de révéler cette réalité en en déterminant les lois, vues comme absolues et immuables. Salviati, qui est le porte-parole de Jauch lui-même, nie tout cela fermement et affirme que les seules lois naturelles qu’on puisse valablement inférer de l’observation et de l’expérience ont un caractère statistique. Les théories qui englobent ces lois dans des systèmes rationnels plus larges, d’autre part, n’auraient aucun caractère déductif, mais dériveraient généralement d’inductions, d’hypothèses ou d’analyses enfonçant leurs racines dans des domaines totalement extrascientifiques, tels que les traditions, les habitudes, les idéaux esthétiques et des archétype inconscients de type jungien. Selon Salviati, il ne faut donc pas avoir peur des idéologies et de leurs systèmes d’images ; on doit en fait les prendre au sérieux et les considérer comme des expressions symboliques de la structure archétype de l’âme humaine et comme une source potentielle, infiniment riche, de nouveaux concepts scientifiques. En d’autres termes, la science ne peut pas se ramener simplement à des observations et enregistrements de phénomènes, observations intégrées ensuite dans une quelconque structure conceptuelle ou théorique, mais doit s’appuyer surtout sur l’intuition et sur l’imagination créatrice. Ces deux qualités, en effet, sont les seules qui nous permettent d’abstraire, du fatras de phénomènes aléatoires qui nous entourent, les phénomènes vraiment susceptibles de jouer un rôle important et significatif dans notre travail de compréhension logique du monde auquel nous appartenons.

Constamment atteint par des messages « extérieurs » de toutes sortes, l’homme ressent l’urgente nécessité de les interpréter de façon compréhensible et ordonnée. Il élabore donc ces codes interprétatifs particuliers qu’on appelle des « théories ». Mais celles-ci, répétons-le, ne peuvent pas être seulement le produit d’abstractions ; et ce qui n’a pas été pris en considération reste comme « bruit de fond » limitant de fait toute précision. Il est donc clair que toute théorie est condamnée dès le départ à n’avoir qu’une valeur relative ; elle pourra certainement interpréter une bonne partie des messages, et même la majorité des messages, mais jamais tous les messages. En outre, la valeur de toute donnée extérieure particulière ne pourra que changer en fonction du cadre théorique où elle sera intégrée : ainsi, une donnée très importante et significative dans l’optique d’une certaine théorie, pourra fort bien apparaître banale et peu signifiante dans le contexte d’une autre théorie.

Selon Jauch, en somme, la théorie copernicienne ne pourrait pas être considérée comme « plus vraie » ou « plus réelle », dans l’absolu, que la théorie ptolémaïque. Étant donné la valeur relative des théories, nous pourrions même soutenir le contraire. Puisqu’un même ensemble de phénomènes peut, en règle générale, être expliqué de manière également satisfaisante par des constructions théoriques très différentes, et même opposées entre elles, on serait autorisé à en conclure que ces théories, bien qu’elles énoncent des choses très diverses et même contraires, peuvent toutes être réputées « vraies ».

C’est exactement cela, et un seul exemple suffira à ce sujet. Comme l’a démontré Einstein, un homme enfermé dans une cabine sans fenêtres qui se sentirait tout à coup poussé vers l’une des parois de la cabine pourrait imputer le phénomène soit à un mouvement de la cabine, soit à l’action d’une quelconque masse gravitationnelle agissant de l’extérieur sur la cabine immobile ; et les deux interprétations seraient également valables. Puisque la masse gravitationnelle et la masse inertielle sont exactement proportionnelles dans tous les corps matériels, on pourrait construire une théorie générale de la relativité qui comprendrait tous les types de mouvement accéléré en les combinant opportunément avec les forces de la gravitation. Selon cette théorie, on pourrait alors très bien prendre en considération une description de l’univers avec la Terre immobile : elle serait tout aussi valable et adhérerait tout autant aux phénomènes que n’importe quelle autre théorie, celle de Copernic par exemple. Certes, une description de type copernicien serait incontestablement beaucoup plus simple à utiliser qu’une description de type ptolémaïque ; mais dans ce cas, serait-il juste de voir dans la simplicité un critère suffisant pour garantir la réalité d’un phénomène ?

En conclusion, pour l’École de Copenhague parler de la réalité d’un événement n’a de sens que si cet événement est vérifié par des observations et des expériences menées dans le cadre d’une certaine construction théorique : construction qui, en définitive, est toujours le fruit d’une libre invention de l’esprit humain. Je ne crois pas me tromper en disant qu’il y a dans cette façon de voir des éléments que vous partagez. Au début de notre entretien, vous aussi souteniez que la science ne nous fournit pas une description « vraie » de la réalité, mais une représentation subjective, un Umwelt relatif à notre conformation psychique particulière.

En effet. Je ne crois pas moi non plus que parler de connaissance rationnelle indépendamment de nos observations et donc de notre esprit qui organise précisément ces observations (selon les modalités inhérentes à sa structure spécifique et naturelle), ait un sens. Mais je ne peux pas non plus être d’accord avec Jauch et les tenants de l’École de Copenhague, lorsqu’ils en arrivent à douter ou carrément à nier que le monde ait une structure ontologique propre. Déclarer qu’on reste indifférent devant la question de savoir si le monde existe vraiment ou non, cela représente à mon avis une forme de nihilisme culturel qui correspond tout à fait à celui de la philosophie analytique « interne ». Cette attitude peut fort bien être adoptée par certains scientifiques qui — pleinement satisfaits dans leur domaine — ont décidé de s’enfermer dans une tour d’ivoire ; mais elle ne sera certainement pas adoptée par ceux qui, avant d’être des scientifiques — ou des philosophes, ou encore des artisans, des commerçants, des ouvriers, des chômeurs — se sentent tout d’abord des hommes.

D’accord pour l’essentiel avec le réalisme « métaphysique » (bien que l’adjectif me paraisse superflu et inopportun), je ne peux absolument pas partager les thèses du réalisme « interne » : pour la bonne et simple raison qu’elles naissent d’une équivoque consistant à considérer comme réel ce qui est propre au champ d’application du verbe « connaître », mais en donnant exclusivement à ce verbe le sens réducteur de « construire en termes rationnels ». Or, la connaissance, comme je l’ai déjà dit (cf. chapitre I), est un processus dont le déroulement peut s’effectuer à des niveaux très différents. Et s’il est certain que, parmi ces niveaux, il y en a un de nature sensible et un de nature rationnelle, il est tout aussi certain qu’il y en a un de nature éminemment spirituelle, bien que le nihilisme culturel contemporain s’en désintéresse et fasse même tout pour lui enlever toute importance ou pour le nier.

Pour reprendre la métaphore territoriale de Piattelli Palmarini, je pense — à l’opposé de ce que soutiennent les « réalistes internes » — que le territoire peut être connu directement, sans aucune carte, et qu’il subsiste donc, indépendamment du fait qu’on s’efforce ou non de le décrire avec des instruments cartographiques plus ou moins précis. Mais dans ce cas, il est sous-entendu que cette connaissance est de nature spirituelle, et non simplement scientifique et rationnelle.

Ceux qui pratiquent sérieusement une forme quelconque de discipline authentiquement spirituelle, qu’il s’agisse du yoga (qui est, traditionnellement, tout autre chose qu’une gymnastique perfectionnée) ou de la méditation Zen, pour ne citer que ces deux exemples, savent parfaitement qu’au-delà du seuil du sensible et du rationnel, on ne rencontre ni l’immobile fixité d’un « néant », ni l’agitation désordonnée d’un « chaos », mais la stabilité calme et limpide d’un « tout » vibrant et lumineux, « tout » qui peut-être approfondi et intégré à de multiples niveaux. La position des physiciens qui suivent l’interprétation de Copenhague est donc, à mes yeux, la conséquence d’un préjugé scientiste [9].

Face à cette situation, je crois que l’analyse menée depuis 1948 par l’épistémologue Valerio Tonini, afin de restituer un fondement ontologique à la physique quantique [10], revêt une importance qu’on ne soulignera jamais assez.

Je serais heureux que vous en parliez, car les conclusions de l’École de Copenhague semblent en effet plutôt désolantes et décevantes.

Tonini s’était parfaitement rendu compte du fait que les conclusions auxquelles parvenait l’École de Copenhague n’étaient pas seulement, comme vous dites, désolantes et décevantes, mais vraiment limitatives, paralysantes, évasives. Elles ne pouvaient que mener à une conception conventionnaliste ou nominaliste (économiste, historiciste, axiomatique, structuraliste ou autre) des théories physiques, en les privant de toute correspondance possible avec des vérités ontiques naturelles. Il y a plus : elles poussaient inévitablement à admettre que la physique — paradoxalement — était impuissante à rendre compte du rapport, institué par elle-même, entre les prémisses d’observation et les systèmes théoriques. De nouveau se posait donc la question d’aborder concrètement ce rapport, et de parvenir à l’éclairer au moyen d’un rigoureux processus de sémantisation. Ne pas reconnaître ce problème et ne pas en ressentir l’urgence, cela aurait signifié s’enfermer automatiquement dans une position limitative a priori qui aurait été considérée, forcément, comme dogmatique et rétrograde.

Évidemment, la solution de ce problème impliquait de répondre aux deux grandes questions soulevées par la science :

1) De quelle manière peut-on rendre compréhensible, en la ramenant à des principes simples, la variété des phénomènes qui se vérifient dans la nature ?

2) Jusqu’à quel point peut-on objectiver ce que nous percevons ? Ou, en d’autres termes, est-il possible de déterminer un fait objectif qui se déroule indépendamment de l’observateur, en partant des phénomènes observés ?

Comme le fera après lui Bunge dans son étude monumentale sur la causalité, Tonini considère que les exigences implicites dans ces deux questions n’ont pas été satisfaites par les recherches que nous pourrions appeler « axiomatiques » ou « empiristes », ou encore « syntaxiques ». Des recherches qui s’étaient aussi donné pour but l’analyse approfondie de la façon dont s’organisent les théories scientifiques. Des noms comme ceux de Bertrand Russell, Rudolf Carnap, Otto Neurath, Percy Bridgman, Hans Reichenbach, Ludwig Wittgenstein, Karl Popper viennent immédiatement à l’esprit. Sans remettre en question la valeur des recherches logiques menées par ces hommes, Tonini fait toutefois remarquer qu’elles se sont développées sur un plan étranger à la progression concrète du discours scientifique, lequel a dû faire face à des problèmes différents et bien plus difficiles. L’inutilité de ces recherches philosophiques pour l’étude scientifique est du reste confirmée par le fait que les sciences — y compris celles dites « humaines » — ont énormément progressé sans se soucier le moins du monde de se conformer aux « modèles de connaissance » proposés par les recherches logiques.

Or, toute théorie physique bien construite — affirme Tonini —, en tant que dotée d’un appareil cohérent et complet sur le plan du formalisme mathématique, a déjà subi sa critique « de l’intérieur », et a déjà été parfaitement mise au point sous l’angle logique ou syntaxique. Au contraire, ce qu’il faut vraiment connaître, le vrai problème de fond, c’est celui du contenu, de la signification de chaque théorie. Et le contenu et la signification d’une théorie restent parfaitement indépendants, c’est-à-dire premiers et extérieurs, par rapport à la structure logique de la théorie. De l’emploi de certaines règles formelles plutôt que d’autres, on ne peut inférer aucune règle interprétative du réel. L’usage de règles euclidiennes n’implique pas que l’espace réel doive être euclidien. Et en effet, à y regarder de près, le fait de préciser en quoi la science est explication de la réalité, chose qui devrait constituer la seule raison d’être de chaque science, est en règle générale totalement esquivé par les empiristes logiques, conscients — au moins sur ce point précis — de leurs limites.

Par conséquent, loin de pouvoir être réduit au problème de leur structure logique et syntaxique, le problème de la signification et du contenu des théories scientifiques doit être rapporté essentiellement au langage de l’observation, c’est-à-dire à des éléments premiers et extérieurs à la doctrine formelle, éléments qui constituent la seule raison de fond pour laquelle chaque théorie scientifique est conçue. L’analyse opérationnelle doit donc indiquer avec la plus grande précision possible, pour chaque théorie, quelles sont les conditions réelles qui font qu’on estime légitime d’employer telle ou telle formalisation.

Or, le jugement spontané qui nous porte à établir, préliminairement et phénoménologiquement, à travers chacune de nos activités, cette base indispensable de toute vraie connaissance qu’est la notion de réalité, se traduit en physique, comme l’a montré Alfred North Whitehead, dans le concept d’action (ou événement) réelle. Mais chaque action réelle observable est formée d’un nombre immense d’actions élémentaires. L’action élémentaire, ou quantum de Planck, est précisément la plus petite action réelle observable et ne peut être décrite que dans les termes d’une « cellule » spatio-temporelle, dont le paramètre temporel doit donc avoir une valeur non nulle. Ce quantum d’action élémentaire fournit justement la limite de l’exacte causalité déterministe, et les relations d’indétermination (ou d’incertitude) de Heisenberg indiquent précisément de quelle façon se conjuguent, à l’intérieur de cette limite, les paramètres complémentaires nécessaires à la description de l’action élémentaire elle-même.

Nous avons déjà vu que le monde subatomique ne peut être observé que si l’on recourt à des actions qui, en elles-mêmes, finissent inévitablement par altérer l’état de ce monde. Les diverses observations effectuées seront donc toujours indéterminées, mais pourront en tout cas être réunies dans des schémas rationnels de type statistique (qui constitueront sans aucun doute un lien logique précis, bien que de nature non déterministe, entre les faits observés).

Le fait que l’évolution d’un état physique ne puisse pas être déterminée de manière exacte et univoque provient en même temps, si l’on y réfléchit, d’un critère d’observabilité minimale et d’un principe de dualité.

Le critère d’observabilité minimale établit qu’une opération d’observation (ou mesure d’état) quelconque d’un événement réel implique une certaine durée nécessaire à son accomplissement : durée qui, si petite soit-elle, ne pourra jamais être nulle. De cette seule considération opérationnelle du temps minimum nécessaire pour effectuer une observation quelconque, on déduit l’impossibilité de principe de toute détermination exacte de mesure. C’est ainsi, par exemple, que si nous voulons déterminer l’état x d’un événement réel quelconque, il nous faut un temps infinitésimal d’observation ?t aussi petit qu’on voudra, mais jamais nul. À moins de bloquer ou de « congeler » le déroulement de cet événement pour la durée de ce temps minimal (en altérant dans ce cas le développement naturel de cet événement), nous aurons toujours une certaine imprécision x dans la détermination de l’état de l’événement.

L’impossibilité de principe d’une détermination exacte est inhérente à chacune de nos opérations de mesure, qui pour nous est toujours un fait temporel. Par conséquent, si nous voulons décrire des événements de l’ordre de grandeur des quanta d’action, nous sommes nécessairement obligés de nous servir d’une théorie essentiellement indéterministe, ce qu’est précisément la mécanique ondulatoire. Ce n’est donc pas la réalité en elle-même qui est indéfinie et privée de structure (comme le voudrait l’interprétation de Copenhague), mais c’est la représentation que nous nous faisons de la réalité qui, nécessairement, ne peut pas ne pas être indéterminée.

Venons-en maintenant au principe de dualité. Ce principe établit que pour déterminer une quantité physique quelconque, ou bien un quelconque degré de liberté d’un système physique, il faut au moins deux paramètres conjugués entre eux. Et rien ne peut garantir que les conditions d’observation capables de nous donner, avec la plus grande exactitude possible, l’un de ces deux paramètres laisseront inaltéré l’état du paramètre complémentaire.

La détermination d’au moins deux paramètres étant toujours nécessaire pour décrire l’état d’un événement quelconque, la mesure de chaque paramètre impliquera une opération distincte. Et puisque chaque opération comporte une altération de cet état, l’ordre d’exécution des deux opérations nécessaires pour déterminer les deux paramètres ne sera pas indifférent : en effet, quand on fera la première opération, on altérera l’état même sur lequel on voudrait effectuer la seconde. Cela veut dire que le résultat final, c’est-à-dire le produit des mesures des deux paramètres, n’est pas indépendant de la succession de ces mesures. En d’autres termes, pour ces mesures la propriété commutative ne vaut pas.

Comme l’écrit Tonini « entre la réalité objective (ensemble des actions qui arrivent dans le monde) et la possibilité d’observation, il y a une barrière quantique : on ne peut rien savoir au-delà d’elle, si ce n’est à travers des actions quantiques spécifiques d’observation ; mais à peine fait-on cela, et quelque chose tombe, comme action observable, dans la sphère d’observation possible, cette observation s’articule avec certaines caractéristiques nécessaires d’espace et de temps qui, étant conjuguées entre elles, offrent des marges d’incertitude qui dans certains cas, macroscopiques, peuvent être négligeables ; dans d’autres, non. Mais il faut ajouter que dès qu’un ensemble quelconque de ces actions observables devient ‘objet’ de la réflexion humaine, il peut être réuni dans des schémas ou cadres ordonnés, c’est-à-dire dans des formes mathématiques qui, si elles ne peuvent pas toujours être des expressions formelles de dépendance causale rigide, expriment cependant une connexion rationnelle des faits observés » [11]. Bunge appellerait « causalité statistique » cette connexion rationnelle.

Sur la base de ce qui précède, Tonini en conclut qu’étendre l’indéterminisme du cadre de notre capacité représentative élémentaire de la réalité à la réalité elle-même, est une extrapolation injustifiée. Physique classique et physique quantique sont des représentations complémentaires de la réalité, de même que la continuité déterministe et la discontinuité indéterministe. Dans la construction de tout système rationnel sur une base scientifique, la considération de chacun de ces aspects complémentaires se constitue comme système hypothético-déductif de concepts cohérent en soi-même, ayant son domaine d’application propre et pertinent, défini par des limites qui doivent être tirées des représentations complémentaires. Celles-ci (nous pouvons actuellement en distinguer quatre types : déterministes, probabilistes, indéterministes et informationnelles) sont donc vraies en même temps, bien qu’elles ne puissent être appliquées que là où s’étend leur domaine d’application. Selon Tonini, le processus de développement de la science n’est donc pas dialectique, il est « synectique ».

La « synectique » entre des représentations complémentaires n’est pas une donnée hypothétique, ou pouvant être déduite des hypothèses sur lesquelles tel ou tel système conceptuel a été construit ; au contraire, elle est fournie, en définitive, par l’observation et, à la limite, par l’action observable minimale (qui est le quantum matériel). La seule antinomie logique des systèmes de concepts ne fournirait aucune règle de complémentarité, si la convergence des doctrines opposées ne se réalisait sur la base d’un élément unique, qui est l’observation de contrôle. Cet acte d’observation est une action qui possède certaines caractéristiques intrinsèques, lesquelles sont indépendantes des références et des systèmes de concepts qui tendent à les représenter. C’est ce caractère intrinsèque de l’acte d’observation qui constitue la limite de fait « extérieure » au système conceptuel adopté. Le principe de complémentarité trouve ainsi une base à la fois réaliste et opérationnelle.

La complémentarité de plusieurs systèmes logico-déductifs antithétiques mène directement à la formulation de l’épistémologie des systèmes, que nous devons désormais considérer, d’après Tonini, comme la plus lucide synthèse actuellement possible de la pensée scientifique.

Or, si détermination, probabilité, indétermination et information sont des species expressae humaines décrivant des aspects complémentaires de la réalité, ces expressions logiques ne sont possibles que parce qu’il y a un principe logique, le principe de raison suffisante, qui nous permet de classifier les événements naturels dans telle ou telle classe typique. Ce principe nous interdit d’affirmer qu’au même instant et sous le même aspect, une chose donnée est existante et non existante, vraie et non vraie. Ainsi, chaque fois que de l’« extérieur » quelque chose frappe notre système de perception (intellect passif ou « pathétique »), cette chose est immédiatement rationalisée, à la lumière du principe de raison suffisante, par notre système représentatif (intellect actif ou « poétique ») c’est-à-dire « pensée ». Et ce processus mène à un ordre logique, de quelque type qu’il soit : une

species expressa déterministe, probabiliste, indéterministe ou informationnelle.

Ces expressions psychiques, nous les extrayons complémentairement, comme les différentes faces d’un tétraèdre, d’une réalité qui, en elle-même, reste globalement irréductible à chacune d’elles.

Mais qu’est-ce qui nous garantit que nos schémas logico-déductifs, destinés à « penser » des aspects différents et complémentaires de la réalité, adhèrent vraiment à celle-ci ?

Je crois que pour donner une réponse juste à cette question, le mieux est de se référer directement à ce qu’écrivait Tonini dans un livre paru en 1953. La citation sera un peu longue, mais elle vaut vraiment la peine d’être insérée.

« Chaque loi naturelle a pour contenu, non le fait matériel en soi, innombrablement entouré de contingences aléatoires, mais une certaine invariance ou ordre abstrait qui ne s’impose qu’en vertu d’une idée intrinsèque de raison suffisante. Il est légitime d’estimer que cette structure de notre méthodologie correspond à une structure contraignante de la réalité, non par juxtaposition, mais par analogie. De cette structure de réalité, chacune des lois que nous tirons est une transcription humaine partiellement adaptée et complémentaire.

« L’hypothèse d’un ordre dans la réalité, d’un Logos ontologique, nous donne le maximum de probabilité (qui deviendra ensuite certitude). En effet, il serait toujours possible d’avancer une hypothèse quelconque à partir d’une incohérence ou d’une liberté indéterminée. Mais toutes ces hypothèses, si elles étaient toutes également légitimes, rendraient très improbable l’efficacité du processus de vérification de chacune de ces lois naturelles qui sont indispensables à nos ‘expériences sensées’, à notre vie même d’êtres humains.

« L’hypothèse la plus simple et la moins incohérente est donc celle d’un ordre général réel, indépendant de mon existence particulière, et non chaotique. De cet ordre je tire une série de lois particulières, dont chacune est valable dans un certain champ d’application, qui très souvent est aussi un domaine d’activités pratiques, technologiques. En effet, dans l’état actuel des connaissances, aucune expérience et aucune loi scientifique, même quantique ou statistique, n’est en contradiction avec l’hypothèse d’un ordre réel. Je dois en conclure que cet ordre réel me fournit le maximum de cohérence et comme une méthode indispensable à toute affirmation : je l’admets donc au moins comme le plus possible. Il me donne, en d’autres termes, le maximum de certitude, en tant qu’il me donne raison suffisante de toutes les lois naturelles particulières, dont chacune, à son tour, représente un maximum de certitude dans un champ donné du connaissable.

« Je ne vois aucune raison — et aucun homme, de fait, ne voit jamais aucune raison — d’abandonner ce critère de certitude maximale acquise à travers un long processus de non-contradiction. Il serait même excessivement miraculeux qu’à partir d’une irrationalité fondamentale du réel chaotique, l’homme inventât gratuitement les formes pures de ses cadres rationnels. Un esprit de finesse [En français dans le texte. N.D.T.] aussi métaphysique, une création à partir de rien, voilà l’attribut d’une imagination par trop débridée.

« L’ordre des choses, inatteignable en soi, mais analogique à mon intime rationalité constructrice, et pouvant être inféré de lois de position relative, je l’appelle réalité et Logos de cette réalité. Et c’est ici qu’il faut faire le dernier pas : je transfère à la réalité, par analogie, un ordre rationnel, non dans ses expressions humaines d’espace, de temps et de cause, mais dans le principe moteur interne en vertu duquel nous-mêmes sommes capables de formuler ces expressions. Ou encore : nous ne devons pas transférer à l’œuvre de Dieu, ni le déterminisme causal mécaniste, ni l’indéterminisme des cas fortuits : nous transférons à la réalité un principe intérieur purifié de Logos, dont nos logoi particuliers et complémentaires sont à peine un reflet. Mais aussi un indice.

« Nous n’appliquons pas à la réalité objective et universelle autre-que-nous (mais dans laquelle nous sommes) un déterminisme de type classique, ni le principe contingent exprimé dans la notion de causalité physique, ni un indéterminisme irréfléchi ; nous estimons légitime d’attribuer à la réalité, seule et entière, l’essence d’une raison qui, étant en nous principe moteur de notre intellection, doit au moins correspondre partiellement à une rationalité analogue, mais plus haute, que nous appelons ‘Vérité’. Vérité extrême et finale ou ontologique de toutes choses, dont notre logique est à peine un possible reflet adéquat.

« Sans cette limite de vérité ontologique, ‘dont notre logos formel est reproduction’, il n’y aurait aucune probabilité de calcul, aucune probabilité maximale ou minimale, aucune garantie de résultat quelconque. Toutes ces possibilités de calcul, vraies et effectives, supposent un ordre réel nécessaire, formel et transcendant (…) En d’autres termes, s’il existe une intelligibilité relative des choses observables, il doit exister une intellection apte à les comprendre » [12].

Ces considérations sont capitales et nous autorisent à penser que le monde — c’est-à-dire cet immense et extraordinaire jeu d’interaction entre les êtres pensants que nous sommes et tout ce qui nous apparaît comme « extérieur » — a sans nul doute une structure ontologique propre, est donc une réalité ordonnée et non chaotique. Quel jeu, en effet, peut se passer de règles bien précises ? Nous humains, qui sommes partie intégrante de la logique de ce jeu (que nous pourrions appeler Logica Entis ou Logica maior), nous nous servons de notre logique, infiniment plus limitée bien que qualitativement analogue à la précédente (nous pouvons l’appeler logica mentis ou logica minor), pour chercher à comprendre la première de manière de plus en plus juste, à travers d’innombrables tentatives gnoséologiques et scientifiques. Par conséquent, bien qu’il soit illusoire de prétendre que notre esprit limité puisse arriver à comprendre la logique cosmique (à moins de réussir à ne faire qu’un avec elle, ce qui suppose une rupture radicale de niveau), il sera toujours licite, pour nous, de considérer comme conforme ou non à la logique de la réalité toute théorie sortant victorieuse, ou non, du contrôle des observations et des expériences. Nous pourrions donc très bien parvenir à formuler plusieurs théories contradictoires entre elles mais également conformes à la réalité, sans que cela nous autorise à dire que l’une est, dans l’absolu, « plus vraie » que les autres.

Je crois que nous en avons terminé avec l’École de Copenhague dans ses extrapolations de caractère parascientifique. Passons donc aux physiciens qui s’affirment explicitement en désaccord avec cette interprétation.

Comme vous le savez, le Vème Congrès Solvay de Physique, qui se tint à Bruxelles en 1927, bien qu’il ait sanctionné la victoire de l’interprétation fournie par Bohr, Heisenberg, Born, Dirac et Pauli, vit cependant une forte minorité — représentée, rappelons-le, par Einstein, de Broglie et Schrödinger — se déclarer ouvertement hostile à cette interprétation et soutenir que les probabilités observées en physique quantique ne constituent que la limite objective de fréquences réelles résultant d’un enchevêtrement de phénomènes déterministes à un niveau plus profond. En d’autres termes, la statistique ne traduirait pas l’absence de déterminisme dans les racines ultimes de la matière, mais seulement notre incapacité à le saisir, si bien qu’elle doit être interprétée à l’aide de variables « cachées » à un niveau sub-quantique plus profond.

Même dans les années qui suivirent le Congrès Solvay de 1927, certaines thèses de l’École de Copenhague ne furent jamais acceptées par Planck, ni par Einstein, ni par Schrödinger ; tandis que de Broglie, après une longue réflexion, recommença à développer, à partir de 1952, son point de vue original.

En effet, s’il est assez facile d’argumenter que l’introduction de grandeurs expérimentalement inaccessibles finirait par alourdir inutilement le formalisme d’une théorie avec des suppositions incontrôlables, l’histoire même de la physique nous apprend que cette argumentation s’est révélée plusieurs fois tout à fait fallacieuse et paralysante. Comme l’écrivent Andrade e Silva et Lochak, « une nouvelle interprétation d’une quantité physique ou d’un formalisme mathématique ne débouche pas seulement sur une nouvelle vision du monde, mais sur une autre théorie capable de mener à de nouveaux résultats qui, sans être contraires à l’ancienne théorie, lui échappent complètement. Par conséquent, si l’on doit introduire des quantités physiques hypothétiques, inobservables sur le moment, on le fait évidemment dans l’espoir qu’un jour l’expérience en rendra compte directement ou indirectement. L’histoire montre que cet espoir n’a jamais été déçu, si mince qu’il ait paru au début » [13].

Dans son combat contre l’interprétation de l’École de Copenhague, Einstein attaqua surtout le principe de non-séparabilité, formulant — j’y reviens comme promis — le fameux « paradoxe EPR » (ou d’Einstein-Podolsky-Rosen). Ce paradoxe a de nombreuses variantes, mais l’une des plus simples est la suivante : imaginons qu’un électron et son équivalent anti-matériel, un positron, s’annulent en entrant en contact. Dans ce cas se forment deux photons qui sont projetés dans des directions opposées. Or, bien que ces photons puissent être projetés à des distances qui les éloignent considérablement l’un de l’autre, ils restent corrélés, en ce sens que quelques-unes de leurs propriétés devront alors avoir des valeurs opposées. Si, par exemple, le photon A a un spin (le moment magnétique provoqué par son mouvement de rotation) égal à +1, le spin de B devra être -1.

Là réside le paradoxe. Selon la physique quantique orthodoxe, une particule n’a aucune propriété bien définie, tant qu’elle n’est pas observée ou mesurée. Au moment de la mesure, la fonction d’onde de cette particule « se réduit » dans une valeur donnée, qui, dans le cas du spin, sera positive ou négative avec une égale possibilité. De quelle façon, alors, la mesure du spin de A peut-elle faire « s’actualiser » la fonction d’onde de B — qui se trouve, éventuellement, à des millions d’années-lumière de distance — dans la valeur identique et opposée ? Faut-il donc admettre qu’une particule connaît « à l’instant », comme par une espèce de télépathie, le résultat d’une mesure faite sur l’autre ? Ou bien faut-il admettre l’existence de signaux ou de messages qui se transmettraient à des vitesses supérieures à celle de la lumière ?

Pendant de nombreuses années, ce paradoxe a constitué un dilemme embarrassant, suscitant des discussions qui semblaient cependant destinées à rester sur un plan purement spéculatif. Aussi bien personne ne pouvait-il établir avec certitude qui de Bohr ou d’Einstein avait raison. Mais la situation a commencé à changer en 1964, année où John Bell, des laboratoires du CERN de Genève, démontra mathématiquement que la thèse d’Einstein et celle de la non-séparabilité ne menaient pas — contrairement à ce qu’on pensait — aux mêmes prévisions dans certaines situations expérimentales, mais à des prévisions très différentes. Il devenait par conséquent possible de tester la validité des deux positions théoriques opposées au moyen d’expériences appropriées.

Des expériences de ce type ont donc été effectuées dans plusieurs pays et ont conduit à des résultats qui semblent généralement contredire les positions d’Einstein. Cependant, ces résultats n’impliquent pas encore nécessairement le rejet du réalisme et sont interprétés par les chercheurs en des termes souvent très différents. Bernard d’Espagnat y voit une confirmation de la validité des positions de l’École de Copenhague ; en résumé, la physique aurait un caractère totalement expérimental ou, mieux, phénoménologique, et les processus au niveau microphysique ne se prêteraient en rien à une description pouvant nous faire découvrir des mécanismes déterministes fondamentaux.

Mais il y a d’autres scientifiques pour qui les résultats expérimentaux récemment obtenus peuvent être interprétés, bien qu’ils condamnent une vision réaliste de type einsteinien, autrement que par la phénoménologie rigoureuse de l’École de Copenhague. Ces scientifiques appartiennent à deux grandes directions de recherche : la direction dite causale de Bohm, Vigier et Selleri, et celle dite fondamentaliste de Costa de Beauregard, Stapp et Conte.

Commençons par la première.

Le point de vue de Bohm est particulièrement intéressant [14]. Ce physicien admet sans hésiter que la mécanique quantique est capable d’expliquer correctement un grand nombre de choses et réussit plutôt bien ses prévisions statistiques ; elle a toutefois le grave défaut de ne pas s’interroger sur les processus élémentaires qui se déroulent, affirmant que cela n’est pas nécessaire. « Mais cette affirmation, écrit Bohm, est fondée uniquement sur le fait que la mécanique quantique refuse de discuter les processus élémentaires, et qu’on ne peut arriver à aucune conclusion à ce sujet si l’on s’en tient aux schémas actuels. Mais il existe d’autres schémas à l’intérieur desquels on peut faire cette tentative. Alors, pourquoi ne pas essayer ? » [15]. Selon Bohm, toute spéculation susceptible de mener à un dépassement de la mécanique quantique, y compris dans une direction sub-quantique, n’est pas seulement légitime, elle est carrément nécessaire, et ce pour de solides raisons historiques, physiques et philosophiques.

Cela étant, Bohm développe sa vision à partir de trois éléments fondamentaux :

1) Bien qu’Einstein n’y soit pas parvenu, il est possible d’expliquer les résultats de la mécanique quantique de manière plus précise que ce que permet le principe d’indétermination de Heisenberg, en arrivant aussi à des résultats crédibles dans les domaines où la mécanique quantique a montré ses plus grandes faiblesses.

2) Contrairement à l’opinion générale, il est possible de décrire les « ondes » du monde quantique au moyen de modèles du type de ceux que Heisenberg avait refusés. À ce sujet, il suffirait de reprendre le modèle microphysique de Broglie, selon lequel l’espace n’est pas vide, mais serait un éther formé par une distribution de particules sub-quantiques en mouvement violent, et tel qu’il ne peut pas être mis en évidence par des observateurs en mouvement. Chaque élément volumétrique infinitésimal de l’éther est traversé par une infinité de particules et contient donc une énergie infinie. Les particules sont comme des oscillateurs se propageant dans une onde physique (appelée aussi « onde-pilote »), laquelle vibre en phase avec eux, un peu comme un avion volant à la vitesse du son qui reste plongé en résonance dans sa propre onde sonore. Ces ondes-pilote peuvent se propager dans l’éther selon des lignes de courant temporel, sautant souvent d’une ligne à l’autre à la vitesse de la lumière (il s’agit donc de mouvements de type « retardé », dans un temps irréversible). Mais si l’on admet que l’action physique de l’onde (c’est-à-dire ce qu’on appelle « potentiel quantique ») se propage à travers les particules et seulement par elles, à la manière d’une action collective sur un moyen physique réel, on voit que ce moyen peut propager des ondes de pression (c’est-à-dire des mouvements collectifs de phase d’origine stochastique) qui voyagent plus rapidement que la lumière.

Dans cette perspective, les probabilités et la statistique de la mécanique quantique peuvent être traitées de nouveau comme les probabilités et la statistique de type courant, donc comme des affirmations concernant la moyenne entre de nombreuses turbulences dans le même champ d’énergie sub-quantique. En outre, de ce point de vue, un électron ou tout autre système microphysique n’est plus une « particule », mais un événement transitoire qui a lieu dans un milieu générique — un « champ » physique, précisément — où, pour toute onde divergeant d’un point quelconque du champ pour se disperser dans tout ce dernier, une autre onde devra converger dans le même point, y produisant une impulsion très forte. Et ce parce que, dans la théorie de Bohm, les deux types d’ondes, convergentes et divergentes, dépendent l’un de l’autre d’une certaine façon. Lorsque l’onde converge apparaît l’électron, destiné à disparaître immédiatement lorsque l’onde recommence à diverger. Nous sommes donc en présence de « quelque chose qui n’est ni une particule, ni une onde », et qui n’est donc pas une chose « pouvant passer à travers telle ou telle fente ». En fait, c’est « quelque chose qui se forme et se dissout continuellement » et qui, dans la plupart des cas, « se comportera différemment lorsqu’elle passera à travers deux fentes, car chaque impulsion se formera d’une manière qui dépend de la façon dont toute l’onde incidente passe à travers les fentes » [16].

Un électron, en somme, ne serait qu’un type particulier de manifestation du « champ sub-quantique ». On retrouve de nouveau des concepts holistes.

Oui. Du reste, ce n’est pas un hasard si le dernier livre de Bohm s’appelle précisément Wholeness and the Implicate Order [17], « totalité et ordre impliqué ». L’idée centrale de cet ouvrage, conçu à la suite des conversations de Bohm avec le célèbre mystique indien Krishnamurti, auquel il était très lié, est celle de l’enfolded and unfolded (or implicate and explicate) order. Dans la nature, dit Bohm, l’ordre peut sembler absent, mais cela ne veut pas dire qu’il n’existe pas. En fait, l’ordre est impliqué dans la totalité de la nature et il est prêt à se manifester chaque fois que les conditions requises se présentent. Chaque forme réelle est comme le résultat d’une « précipitation » particulière de tout l’univers, où elle ira s’éteindre. Cela implique que notre « disparition » ne sera pas nécessairement notre fin.

Pour revenir à l’exemple de l’électron, sa manifestation est comparée par Bohm à celle d’une goutte d’encre qu’on laisse tomber dans de la glycérine contenue dans un cylindre de verre, à l’intérieur duquel il y a un cylindre métallique relié à une manivelle qui peut le faire tourner dans les deux sens. La goutte pénétrera dans la glycérine et sera bien visible. Si l’on tourne le cylindre métallique dans un sens, les contours de la goutte s’effaceront et elle disparaîtra ; si l’on tourne le cylindre d’un mouvement analogue mais en sens contraire, la goutte réapparaîtra comme surgie du néant. Nécessairement, si l’on s’intéresse à la vitesse de la goutte (mouvement de la manivelle), sa position tendra à s’effacer. Et vice versa.

Cela rappelle de façon singulière le principe d’indétermination de Heisenberg. Bohm ramènerait-il donc l’indéterminisme quantique au déterminisme classique ?

Dans un certain sens seulement. Bohm parvint à formuler sa théorie en 1952, en suivant des pistes de recherche déjà parcourues indépendamment de lui par de Broglie. Il s’aperçut que la fonction d’onde de Schrödinger, l’expression mathématique fondamentale de la physique quantique, ressemblait à une équation de Hamilton-Jacobi. Or, ces deux grands mathématiciens étaient parvenus à démontrer, au siècle dernier, que toute la mécanique classique pouvait être décrite comme une théorie d’ondes, avec les particules qui se déplaçaient conformément à celles-ci. En modifiant donc opportunément (par l’introduction du « potentiel quantique ») la fonction de Hamilton-Jacobi, Bohm arriva à concilier les différences entre la mécanique quantique et la mécanique classique.

Mais Bohm ne ramène pas par-là l’indéterminisme quantique au déterminisme classique. Sa théorie cherche plutôt à donner une interprétation rationnelle de l’indétermination de Heisenberg, sans retomber vraiment dans le déterminisme. Elle tend même à aller au-delà du déterminisme comme de l’indéterminisme en postulant des niveaux de réalité qui peuvent être compris intuitivement et dont l’indétermination de Heisenberg s’avère être un simple effet, une manifestation visible — plutôt qu’une « vérité ultime » destinée à se présenter comme permanent cul-de-sac [En français dans le texte. N.D.T.] philosophique.

Et le troisième élément fondamental de la vision de Bohm ?

C’est le suivant : 3) La mécanique quantique orthodoxe a assurément de nombreux mérites, mais se révèle inadéquate surtout pour ce qui concerne la physique des forces nucléaires et celle de la diffusion des particules à haute énergie. On rencontre ici de graves difficultés dans la description mathématique, car celle-ci finit par fournir des résultats qui divergent à l’infini ; et il est clair que des équations résolues par l’une quelconque des valeurs d’une infinité ne peuvent avoir aucune signification physique, puisqu’elles sont compatibles avec n’importe quel résultat expérimental. N’excluant rien, elles ne disent rien, ne décrivent rien et ne prédisent rien.

Selon Bohm, il n’est possible de surmonter des obstacles de ce genre qu’à condition de reconsidérer certains choix sur lesquels se sont fondées — à partir du XVIIIème siècle — toutes les théories physiques. Jusqu’à aujourd’hui, par exemple, les physiciens, pour relier entre eux les phénomènes, se sont servis de l’expérience commune basée sur l’espace et le temps, perfectionnée d’une certaine manière par les mathématiques et, plus particulièrement, par la géométrie des cordonnées cartésiennes. Mais d’après Bohm, cela implique l’acceptation en physique de choses qui n’ont jamais été soumises à la critique et qu’il est maintenant temps d’abandonner. En réalité, puisque le monde est constitué d’actions ou événements, ce sont ces derniers qui doivent définir le processus spatio-temporel et non le contraire. Au lieu de commencer par l’espace et le temps, comme s’ils étaient la réalité ultime, et ensuite situer en eux les différents objets, il faudrait commencer par tout le processus actif tel qu’il est, et après seulement chercher à en discuter l’ordre dans l’espace et le temps.

Conséquemment, Bohm propose d’abandonner l’utilisation des coordonnées cartésiennes (caractérisées par la continuité univoque) pour expérimenter la redéfinition des concepts spatio-temporels en termes topologiques (c’est-à-dire complémentairement discontinus).

« Je voudrais proposer une autre conception de l’espace et du temps, la conception topologique », dit Bohm. « Je veux indiquer par là — poursuit-il — l’étude des aspects non quantitatifs des relations spatiales (et temporelles aussi, naturellement). Par exemple : ‘dehors’, ‘avant’, ‘après’, ‘entre’, ‘relié’ et ainsi de suite. Considérons une idée typique : comment localisons-nous en réalité quelque chose dans l’espace ? Si nous voulons localiser un verre sur une table, donnons-nous sa latitude et sa longitude, comme nous devrions le faire selon les coordonnées cartésiennes ? Non, évidemment. Nous ne faisons rien d’autre que de dire qu’il se trouve sur la table, laquelle est dans la pièce, à son tour située dans tel édifice, lui-même situé dans telle rue de telle ville, et ainsi de suite. C’est une série de relations topologiques, être dedans ou dessus. Or, si nous prenons toute une série de ces relations, comme à travers une expérience commune, nous localisons quelque chose » [18]. Par ailleurs, Bohm a le sentiment qu’il y a des analogies très étroites entre la façon dont peuvent être exprimées les notions topologiques et la manière dont sont exprimées les lois de la mécanique quantique. En effet, on peut introduire des coordonnées topologiques discrètes en désignant, par exemple, le fait d’être « dehors» par 0 et le fait d’être « dedans » par 1.

Je ne connaissais pas les thèses de Bohm. Je dois dire que je les trouve très intéressantes.

Elles le sont assurément, ne serait-ce que parce qu’elles parviennent à résoudre élégamment le paradoxe EPR. En admettant l’existence d’un éther sub-quantique, elles permettent en effet de renoncer au principe einsteinien de la séparabilité. Par exemple, les deux photons considérés dans la description du paradoxe ne sont plus séparés l’un de l’autre dans l’espace physique. En outre, chacune de leurs corrélations peut être justifiée par un échange d’informations au moyen de potentiels quantiques qui se propagent à des vitesses supérieures à celle de la lumière.

Malgré tout, il semble que les thèses de Bohm n’aient pas eu de confirmations significatives sur le plan expérimental, et qu’elles se soient montrées jusqu’ici très peu fertiles sur le plan de la prévision de faits nouveaux. En résumé, on peut dire qu’elles sont fondées, en accord avec ce que nous savons et formellement impeccables ; mais elles restent encore sur le terrain de la spéculation pure.

Passons maintenant à la direction de recherche fondamentaliste de Costa de Beauregard.

Selon elle, dite « fondamentaliste » parce qu’hostile à l’interprétation « pragmatiste » de l’École de Copenhague, Bohm comme Einstein avaient raison à l’époque de leur controverse : le premier, parce qu’il estimait que les phénomènes microphysiques dépendent étroitement du contexte de l’opération d’observation et de mesure ; le second, parce qu’il refusait l’idée que ces mêmes phénomènes ne sont pas produits par des causes précises, si cachées soient-elles. En effet, la seule variable cachée qu’il faudrait prendre en considération serait de type temporel et résiderait dans les solutions des potentiels anticipés, ressortant — avec celles des potentiels retardés — des équations de la mécanique quantique. Cette dernière serait donc actuellement une théorie incomplète, car n’envisageant pas la part future du réel, représentée précisément par les potentiels « rétroactifs ».

Si l’on admet l’existence des potentiels anticipés — comme l’avait fait Fantappié, avant même Costa de Beauregard —, on se rend compte qu’un processus causal ne peut plus être construit, en règle générale, uniquement à partir des données du temps initial, mais doit tenir compte aussi des conditions finales. Les notions d’ordre dans le temps comme passé, présent et avenir sont donc directement mises en cause, car passé, présent et avenir « existeraient simultanément », tant du point de vue physique que du point de vue mathématique.

Conséquence immédiate et décisive de tout cela : les propriétés des systèmes microphysiques dépendent directement du contexte d’observation et de mesure avec lequel ils « interagiront » dans l’avenir. Et cela mène à une solution presque automatique du paradoxe EPR.

Reprenons en effet l’exemple des deux photons A et B. Ils sont séparés depuis très longtemps et se trouvent donc très éloignés l’un de l’autre. Un scientifique mesure le spin de A et constate que la fonction d’onde de ce dernier « s’actualise » dans la valeur + 1. Comment l’autre photon B, qui se trouve très loin de A et qui doit nécessairement être corrélé à ce dernier en sens opposé, fera-t-il pour acquérir l’information lui indiquant que le résultat de la mesure de A a donné la valeur + 1 ? La réponse de Costa de Beauregard est la suivante : l’information part de A et, voyageant à reculons dans le temps par l’intermédiaire des potentiels anticipés, se transmet directement à B dans l’instant même où les deux photons sont en train de se produire et sont donc conjoints.

Somme toute, et en tenant compte de ce que j’ai dit jusqu’à maintenant, j’imagine que vous ne serez pas surpris si je vous avoue que, de toutes les théories microphysiques actuelles, c’est la théorie de Costa de Beauregard que je préfère.

Y a-t-il d’autres théories quantiques hétérodoxes ?

Je n’en connais que deux : la théorie semi-classique de la radiation, due à E.T. Jaynes et à ses collaborateurs, et la théorie microstochastique, développée surtout par E. Nelson et L. de la Peña-Auerbach.

La première tient compte, non seulement de l’action du champ électromagnétique sur les atomes ou sur les molécules, mais aussi de l’effet de ces derniers sur le champ électromagnétique lui-même, réussissant à obtenir par voie « semi-classique » — c’est-à-dire à travers des modélisations mathématiques différentes et plus simples que celles employées par l’électrodynamique classique — des résultats qu’on pensait ne pouvoir obtenir que par cette dernière. Conceptuellement très simple, cette théorie a le défaut de négliger l’action des fluctuations du champ électromagnétique (dont l’existence est établie) ; sous sa forme actuelle, en tout cas, elle est, pour Piero Caldirola, « plutôt naïve et loin de posséder le caractère exhaustif et la rigueur de l’électrodynamique quantique » [19].

Par contre, la théorie stochastique, bien que moins au point que celle de Bohm sur le plan formel, a un contenu physique plus profond et se révèle tout aussi suggestive. Elle a en effet démontré (et il s’agit, pour Caldirola et Loinger, « d’un résultat conceptuellement très important » [20]) que ta mécanique quantique d’un système de particules peut être ramenée à un processus stochastique, à la base duquel se place l’hypothèse physique que les phénomènes quantiques sont dus à une interaction stochastique entre les micro-objets étudiés et le reste de l’univers. Selon cette interprétation, un électron devrait être conçu comme une espèce de particule brownienne qui se déplace en décrivant une trajectoire en zigzag extrêmement irrégulière. Le mouvement fortuit de l’électron serait dû à l’action du « milieu » environnant (le reste de l’univers !), de même que le mouvement fortuit d’une particule colloïdale en suspension dans un liquide est dû à l’agitation thermique des molécules constituant le liquide lui-même. L’interprétation stochastique a aussi été étendue récemment à la théorie des champs quantiques, où elle a donné naissance à une modélisation mathématique très efficace. Elle s’avère donc prometteuse.

L’exemple de la particule colloïdale en suspension dans un liquide rappelle l’exemple de Bohm sur la goutte d’encre en suspension dans la glycérine.

Je ne dirais pas que ce sont deux illustrations de la même chose, mais elles sont cependant assez analogues. Dans les deux cas, il y aurait dépendance réciproque et étroite entre événements microcosmiques et événements macrocosmiques. Les deux visions ont un caractère holiste.

Faisons donc un rapide bilan des théories microphysiques hétérodoxes.

Il est incontestable que la théorie quantique actuelle — surtout sous sa forme la plus complète, à savoir la « théorie quantique des champs d’interaction » dont l’électrodynamique est l’exemple le plus significatif — reste la théorie la plus au point et la plus exacte de toute la physique moderne pour ce qui est de la prévision des résultats expérimentaux. Mais bien qu’elle ait fait d’indiscutables progrès, qui seront sans doute suivis d’autres acquis, il ne semble pas que les résultats obtenus soient à la hauteur des efforts énormes effectués jusqu’à présent. « L’optimisme des premières années, écrivent Andrade e Silva et Lochak, s’est un peu affaibli, on ressent le besoin d’idées nouvelles, et il est parfois naturel de se demander si la théorie quantique n’a pas déjà dépassé sa meilleure période, et si elle retrouvera un jour sa vigueur d’antan » [21]. J’ai donc le sentiment que l’avenir, tôt ou tard, nous fera assister à d’importants changements dans les fondements conceptuels de la physique : changements qui seront certainement favorisés, sinon provoqués, par des points de vue hétérodoxes comme ceux que j’ai résumés ici.

Avant de conclure le chapitre sur la physique, il y a un dernier problème qui, à mon avis, doit être abordé et résolu : jusqu’à quel point les conclusions tirées de l’étude des microsystèmes quantiques peuvent-elles être appliquées aux macrosystèmes ?

C’est un problème que les physiciens n’ont abordé que récemment et qui reste donc ouvert. Quelques résultats dans ce domaine ont cependant déjà été obtenus, grâce surtout à G. Ludwig. Je vais tenter de résumer ces acquis.

On sait maintenant que la conviction, tacitement admise, selon laquelle la théorie quantique a pour objet la description des seuls phénomènes du microcosme, la description des phénomènes macroscopiques exigeant toujours l’utilisation de la théorie classique de Newton et de Maxwell, s’est révélée erronée au fil des ans. Il y a en effet des conditions où la matière, même envisagée sous l’angle macroscopique, présente des aspects typiquement quantiques, comme dans le cas des liquides superfluides (par exemple l’hélium), des solides supraconducteurs, du laser, etc. Mais il ne s’ensuit pas que l’axiomatique de la mécanique quantique puisse représenter un schéma idoine pour intégrer toute la physique, ni que la description de systèmes micro- ou macrophysiques spécifiques puisse se ramener essentiellement à un problème de spécialisation adéquate du schéma général et de technique mathématique pour calculer les quantités intéressées. Cette façon erronée de voir les choses, « largement répandue parmi les physiciens », disent Caldirola et Loinger, mène, selon ces derniers, à de sérieuses difficultés.

L’état (dans un temps donné) d’un système microphysique est en effet représenté par un vecteur qui ne peut fournir directement que certaines grandeurs très particulières, comme la charge électrique et la masse (grandeurs appelées « observables de supersélection »), lesquelles restent nécessairement constantes durant l’évolution du système lui-même. Mais ces grandeurs sont trop peu nombreuses pour rendre compte de toutes les autres grandeurs typiques des systèmes macrophysiques, et il n’existe aucun procédé général pour obtenir, grâce à la mécanique quantique, les distributions de probabilités de couples de grandeurs relatives à des points différents du chronotope.

Partant de considérations analogues et d’un réexamen global des problèmes quantiques liés à l’acte de mesure, Ludwig a donc été amené à rejeter l’équation « théorie quantique = théorie générale de la physique », et à envisager une situation bien plus complexe et susceptible de développements peut-être féconds pour la description des systèmes physiques intermédiaires (c’est-à-dire non plus microscopiques, mais pas encore macroscopiques ; exemple : les macromolécules biologiques).

Selon Ludwig, la mécanique quantique est une théorie satisfaisante pour les microsystèmes. Ces derniers sont considérés comme des « véhicules » d’interaction entre des macrosystèmes sources des microsystèmes et d’autres macrosystèmes qui servent d’instruments d’observation et de mesure. L‘existence des macrosystèmes est donc le présupposé le plus logique pour la formulation même de la théorie quantique ; tandis qu’on ne peut pas attribuer des propriétés objectives aux microsystèmes en eux-mêmes, à l’exception des observables de supersélection. Et puisqu’à chaque macro-objet Correspond à tout instant à un certain état objectif E, et en définitive une trajectoire Z = E(t) dans un espace d’états possibles, il s’ensuit que la physique théorique d’un système macroscopique n’est autre qu’une théorie probabiliste de ses trajectoires possibles.

« Supposons, écrivent Caldirola et Loinger, que nous soyons parvenus bâtir une telle théorie probabiliste ; la physique théorique serait alors formée de deux ‘morceaux’, l’un valable pour des systèmes dont l’évolution est décrite par une trajectoire dans un espace des états opportun, l’autre valable pour des systèmes dont l’histoire individuelle se ramène, par exemple dans le cas d’une particule, à une valeur donnée de la charge électrique et à une valeur donnée de la masse. Les systèmes de la première catégorie sont constitués de très nombreuses particules, ceux de la seconde d’un petit nombre de particules. On s’attend, disposant de ces deux morceaux’ de théorie, à ce qu’il soit possible d’édifier une nouvelle théorie, unique, qui fournisse en particulier le pont’ entre les susdits morceaux’ ; cette théorie sera certainement différente, tant de la mécanique quantique des microsystèmes, que de la pure théorie probabiliste des trajectoires’ des macro-objets ». On observera que ce rôle de pont’ n’est pas joué de manière satisfaisante par la mécanique quantique des systèmes à nombre toujours croissant de particules, comme cela est indiqué par le fait que la théorie probabiliste des trajectoires d’un macro-système ne peut pas être déduite de la mécanique quantique statistique, mais exige — selon Ludwig — une invention qui n’est pas encore tout à fait réussie.

« La nouvelle théorie pourrait fournir une description des systèmes intermédiaires — typiquement, les macromolécules — qualitativement différente de celles concernant les systèmes étudiés par les deux morceaux’ de physique théorique déjà connus. Les systèmes intermédiaires se situeraient entre les microsystèmes, objets privés d’histoire individuelle, mais véhicules d’interaction, c’est-à-dire doués d’une fonction’ de type extrêmement élémentaire, et les macrosystèmes, objets caractérisés par une histoire’ et privés a priori de toute fonction’ ; les systèmes intermédiaires en viendraient à être caractérisés par une histoire individuelle et par une fonction. Alors surgirait la possibilité d’une corrélation entre histoire individuelle et fonction, et donc d’une évolution finalisée vers une certaine fonction » [22].

Selon Ludwig, par conséquent, les fréquences des transformations possibles qui auraient caractérisé le passage évolutif des systèmes microphysiques aux systèmes macromoléculaires, devraient s’être établies selon des lois physiques finalisées et non fortuites. Sur ces bases, Caldirola s’oppose à la perspective darwinienne fondée sur l’idée de l’apparition fortuite des nouveautés évolutives. Mais nous pourrions maintenant reprendre notre conversation sur la biologie, conversation que nous avions interrompue pour examiner de plus près ce que nous enseignent vraiment les sciences physiques contemporaines.

__________________________________________________________________________

1 « La naissance du formalisme de la mécanique quantique, sous sa forme heisenbergienne de mécanique des matrices, fut fortement influencée par la philosophie néopositiviste, qui était alors le dernier cri [en français dans le texte, N.D.T.] de la mode intellectuelle. Même dans les années qui suivirent, l’influence néopositiviste resta longtemps agissante ; ce n’est qu’à date récente qu’a commencé à se répandre parmi les physiciens une attitude plus détachée par rapport aux dogmes du positivisme. Comme l’a souligné un épistémologue contemporain, Mario Bunge, ‘l’union de la mécanique quantique avec l’épistémologie néopositiviste fut un mariage de convenance [en français dans le texte, N.D.T.], à la suite duquel le positivisme gagna en prestige, tandis que la nouvelle science, accueillie au début avec réticence en raison de son éloignement de la physique classique, en venait à bénéficier du soutien d’une philosophie qui était à la mode parmi les scientifiques’ (P. Caldirola et A. Loinger, Teoria fisica e realtà, Liguori, Napoli, 1979, pp. 28-29).

Et aussi : « A une première observation, les philosophies marxistes (au pluriel, car il y en a plus d’une !) se présentent au lecteur libre de préjugés comme un ensemble éclectique d’éléments hétérogènes et souvent contradictoires, puisés au répertoire idéaliste et à celui du vieux matérialisme ‘métaphysique’. Toutefois, si l’on approfondit l’étude, on se rend compte qu’on est en présence, selon les cas, soit d’un matérialisme vieux style, revêtu d’oripeaux dialectiques, soit de variations sur des thèmes typiques de la philosophie idéaliste. Lucio Colletti écrit de manière drastique : ‘C’est un fait — c’est-à-dire une donnée consignée dans la philologie des textes — que la dialectique de la matière, la dialectique des choses (qui devrait être le ‘spécifique’ du marxisme) est déjà tout entière contenue dans l’œuvre de Hegel. Et ce non en contradiction avec son idéalisme, mais comme instrument et moyen de ce dernier’. Cette remarque de Colletti atteint particulièrement le matérialisme dialectique tel qu’il fut formulé par Engels ou Lénine, mais vaut aussi — nous semble-t-il — pour la forme pragmatique (ante litteram) et plus raffinée de philosophie marxiste ébauchée dans les célèbres Thèses sur Feuerbach, et qui a été récemment reprise, dans un ouvrage stimulant, par un collectif néomarxiste italien » (op. cit., p. 14). Les auteurs se réfèrent ici à l’ouvrage collectif L’ape e l’architetto. Paradigmi scientifici e materialismo storico, Feltrinelli, Milano, 1976,

2 « Notre position philosophique est la suivante : nous partageons avec le manzonien Don Ferrante l’admiration pour l’œuvre du Stagirite : il nous semble en effet que, comme orientation générale, le réalisme aristotélicien n’a pas été dépassé. Il s’ensuit, en particulier, que nous continuons à accorder à la logique classique une position privilégiée. Sans doute la logique à deux valeurs n’est-elle, d’un point de vue purement formel, qu’un des possibles systèmes logico-formels ; mais il n’est pas raisonnable, croyons-nous, de s’imaginer qu’on peut choisir entre les différentes logiques dans le sens même où l’on choisit entre les différentes géométries métriques » (P. Caldirola et A. Loinger, Teoria fisica e realtà, op. cit., p. 12).

Caldirola et Loinger font remarquer que, d’un point de vue formel, il est possible d’attribuer aux microsystèmes toutes les grandeurs qui interviennent dans la physique quantique, pourvu cependant qu’on abandonne la logique habituelle pour la remplacer par une « logique quantique », comme l’ont fait H. Putnam, D. Finkelstein et d’autres. Mais « cette idée (…) de considérer la logique comme une discipline scientifique ayant, en dernière analyse, un fondement empirique, et donc de ne pas attribuer une position définitivement privilégiée à la logique classique, a suscité des réactions opposées. En particulier, elle a été accueillie plus favorablement dans le milieu des philosophes de la science que par les physiciens » (op. cit., p. 23).

3 Valerio Tonini, Le scelle della scienza, Studium, Roma, 1977, pp. 85-86.

4 Massimo Piattelli Palmarini (ed.), Livelli di realtà, Feltrinelli, Milano, 1984.

5 Op. cit., p. 18.

6 Op. cit., p. 19.

7 Giuliano Toraldo di Francia, in M. Piattelli Palmarini (ed.), Livelli di realtez, op. cit., p. 315.

8 Josef Maria Jauch, Sulla realtà dei quanta (trad. it. de Are Quanta Real? Indiana University Press, Indiaapolis, 1973), Adelphi, Milano, 1980.

9 La position de Bernard d’Espagnat, directeur du laboratoire de physique théorique de l’université Paris-XI, est incontestablement plus ouverte et dictée par le bon sens : « …ce que pour ma part je suggère, écrit d’Espagnat, c’est (…) un retour partiel au réalisme. Plus précisément, c’est la recherche d’un réalisme tenant compte des limitations essentielles que notre savoir actuel impose à toute tentative visant à identifier trop étroitement le réel et les phénomènes (…) ce que je propose donc, c’est ma conception d’un réel voilé. Le nom choisi signifie (…) que le réel auquel il réfère n’est pas explorable par le moyen de la physique. Ou, en tout cas, pas par le seul moyen de la physique. La question se pose donc : est-il inconnaissable ? Ou est-il en partie connaissable : peut-il être exploré par d’autres procédés que ceux de la physique ? À ce stade on entre dans un domaine où non seulement la déduction est interdite, mais où même la conjecture raisonnée devient extrêmement difficile et doit bien trop souvent céder le pas à de vagues arguments de plausibilité. Comme, ni dans l’intuition, ni dans aucun Grand Livre, ni dans la philosophie traditionnelle on ne dispose de rien de plus solide, de tels arguments ne sont cependant pas à négliger. Bien au contraire, le fait de les avoir présents à l’esprit me parait essentiel dès que l’on veut tenter de dépasser le vécu quotidien et dès que l’on veut s’efforcer d’acquérir une vision d’ensemble qui soit moderne, au lieu de n’être faite que de lambeaux mal ajustés de traditions » (À la recherche du réel, Gauthier-Villars, 1979, pp. 158-159).

10 Cf. les ouvrages suivants de Tonini : Epistemologia della fisica moderna, Bocca, Milano/Roma, 1953 : La scienza dell’uomo dalla psicoanalisi alla cibernetica, Vallecchi, Firenze, 1969 ; Scienza dell’informazione, cibernetica, epistemologia, Bulzoni, Roma, 1971 ; La vita e la ragione. Dialogo sul caso e la necessità, Bulzoni, Roma, 1977.

11 Valerio Tonini, Le scelte della scienza, op. cit., p. 105.

12 Valerio Tonini, Epistemologia della fisica moderna, op. cit., pp. 512-514, p. 515.

13 J. Andrade e Silva et G. Lochak, I quanti, Il Saggiatore, Milano, 1969, p. 192.

14 Cf S. Toulmin (ed.), Quanti e realtà (trad. it. Quanta and Reality. A Symposium, Hutchinson and Co., London, 1962), Sansoni, Firenze, 1967. Voir aussi l’entretien accordé par Bohm au New Scientist du 11 novembre 1982, ainsi que l’excellent article de J.-P. Vigier, Il materialismo di Einstein, in Nuova Scienza, avril 1980.

15 David Bohm, in S. Toulmin (ed.), Op. cit., p. 88.

16 David Bohm, in S. Toulmin (ed.), Op. cit., p. 83. Bohm fait ici allusion à la célèbre expérience effectuée par Young, qui plaça un écran percé de deux trous microscopiques entre une source de lumière ponctuelle et une plaque photographique. L’expérience montra qu’un seul photon pouvait traverser simultanément les deux trous, produisant des franges d’interférence lumineuse sur la plaque photographique. Les particules élémentaires ne peuvent donc pas être considérées comme de simples corpuscules, puisqu’elles présentent aussi une nature ondulatoire.

17 David Bohm, Wholeness and the Implicate Order, Routledge and Kegan, London, 1980. [Un entretien avec David Bohm sur la notion d’ordre impliqué — ou « implicite » — a paru dans deux livraisons de la revue Être : XII, 1984, 4, pp. 6-19 et XIII, 1985, 1, pp. 33-48 (N.D.T.)].

18 David Bohm, in S. Toulmin (ed.), Op. cit., pp. 92-93.

19 Piero Caldirola, Dalla microfisica alla macrofisica, Mondadori, Milano, 1974, p. 219.

20 Piero Caldirola et A. Loinger, Teoria fisica e realtà, op. cit., p. 28.

21 J. Andrade e Silva et G. Lochak, I quanti, op. cit., p. 189.

22 Piero Caldirola et A. Loinger, Teoria fisica e realtà, op. cit., pp. 146-147.