André Lichnerowicz
Universalité des mathématiques et compréhension du réel

(Extrait du livre collectif : Les scientifiques parlent, dirigé par Albert Jacquard. Hachette 1987) André Lichnerowicz (1915-1998) est un mathématicien français Le plus grand enjeu politique de notre science est sans doute l’unification de l’humanité à travers une aventure commune. Tout au long de sa constitution et de sa lente diffusion au sein de peuples aux […]

(Extrait du livre collectif : Les scientifiques parlent, dirigé par Albert Jacquard. Hachette 1987)

André Lichnerowicz (1915-1998) est un mathématicien français

Le plus grand enjeu politique de notre science est sans doute l’unification de l’humanité à travers une aventure commune. Tout au long de sa constitution et de sa lente diffusion au sein de peuples aux cultures étrangères les unes aux autres, la civilisation scientifique qui est la nôtre n’a pas seulement proposé des objets, des résultats et des savoir-faire ; elle a imposé, dans de larges champs, une manière commune de pensée, une « méthode « dont la mise en œuvre a fait prendre conscience, de la manière la plus concrète, de l’unité de l’esprit humain, tout en contribuant à le faire évoluer, au sens fort du terme.

C’est de science qu’il s’agit ici, non des techniques et de la magie de leurs résultats. Si science et techniques ont été souvent en interaction, si les interactions tendent à devenir de plus en plus fortes, il reste que l’histoire de la science et celle des techniques sont deux histoires distinctes. La découverte de la machine à vapeur a précédé de longtemps l’apparition de la thermodynamique qu’elle a provoquée, la sélection des semences ou des races animales, celle de la génétique; c’est ici l’élaboration des techniques qui a permis la constitution de larges pans de la science. Inversement, c’est la connaissance des lois fondamentales de l’électricité qui a permis tout le développement de l’industrie électrique et c’est cette démarche inverse qui est, de nos jours, de plus en plus fréquente : le génie génétique doit tout à la biologie moléculaire et aux méthodes d’action qu’elle a suggérées. De plus ce sont les techniques qui fournissent aujourd’hui à la science la plupart des moyens de son élaboration.

Une analyse de l’histoire des rapports entre science et techniques dépasserait largement le cadre et l’objet de cette contribution. Si tous les peuples sont en train de devenir consommateurs d’objets techniques, si certains d’entre eux, nombreux désormais, participent à leur création, tout cela n’aboutit qu’à une unité superficielle et cacophonique, traversée de conflits, dangereux pour les cultures et, sans doute, pour l’humanité elle-même.

Notre science nous apporte tout un savoir de relations, se traduisant en pouvoirs sur le réel. Pour les uns, ces pouvoirs sont l’essentiel et toutes les théories que la science sécrète ne sont, selon les goûts philosophiques, qu’infrastructure ou superstructure par rapport à eux. Pour les autres — et c’est ceux dont je dirai qu’ils ont l’esprit scientifique — vient d’abord l’ambition de comprendre, celle-ci étant devenue au long des temps, comme poésie ou musique, un besoin primaire commun de l’humanité. Contrairement à ce que beaucoup pensent, les pouvoirs ne sont pas d’abord visés, mais donnés par surcroît, grâce à l’ascèse scientifique même, mérités certes par un dur travail. On pourrait presque dire qu’aux yeux du scientifique, ces pouvoirs ne sont rien que les garants qui permettent à chaque instant, sans rien perdre, de tout remettre en question et d’abord nos théories mêmes.

Une théorie scientifique qui fut vraie — il en est d’autres — le demeure. C’est son champ de validité, son degré d’approximation qui avaient été mal jugés et se trouvent mieux délimités. La science n’est pas affaire de mode, au moins sur le long terme, et ce que nous avons appris durement au cours du temps, nous le savons bien. Newton ne s’est point écroulé, sous les coups de boutoir de la théorie einsteinienne de la gravitation et c’est encore lui qui, à travers les équations de Lagrange, programme les ordinateurs qui permirent à l’homme de mettre son pied sur la Lune, ou d’explorer par satellites telle ou telle planète. Malgré la mécanique statistique, la thermodynamique reste vraie et offre ses cadres d’intégration aux progrès mêmes de celle-ci. Le premier devoir d’une théorie nouvelle est de rendre justice à ses devancières, de comprendre le pourquoi de leurs succès, de les englober, non de les abolir.

C’est bien entendu en physico-mathématicien que je voudrais essayer d’analyser comment s’assouvit peu à peu cette ambition de comprendre, commune à l’humanité, non seulement parce que là est mon domaine de compétence, mais parce que mathématique et physique nous ont appris conjointement ce qu’est la science et sa méthode, au cours de leur longue histoire.

MATHÉMATIQUE ET PHYSIQUE

La science est née pour nous, dans quelques ports de l’ancienne Grèce, d’hommes qui aimaient se poser des questions et discuter sur les phénomènes célestes comme sur les problèmes de la cité, sur la manière de convaincre l’autre et parfois soi-même, et ainsi sur les pouvoirs, les prestiges et les pièges du langage, sur l’adéquation de l’esprit au monde. Parmi ces hommes, certains ne se satisfaisaient pas d’histoire ou de jeux verbaux, encore moins de l’autorité donnée à l’autre par une rhétorique convenue. Ils conçurent le projet d’un type de discours sans quiproquo ni malentendu, un discours cohérent et contraignant pour l’autre quel qu’il soit, citoyen ou esclave, grec, métèque ou barbare, un discours capable, par sa forme même, d’interdire le refus de son contenu. De tels discours, ils réalisèrent quelques exemples d’abord locaux, mais fonctionnant clairement. Les mathématiques étaient nées avec la notion de démonstration.

Le développement mathématique a été permis par la prise de conscience, laborieusement conquise au cours des siècles, que la nature des choses n’importe pas au mathématicien. Un ensemble peut être, j’ose le dire, un ensemble de n’importe quoi, s’il satisfait à quelques règles générales de définition, élaborées pas à pas, et qui éloignent tout paradoxe. Entre des ensembles convenables il peut exister des sortes de dictionnaires parfaits : à tout élément du premier ensemble correspond un et un seul élément du second, et inversement. Si nous nous intéressons à des relations entre éléments du premier ensemble, celles-ci se trouvent transportées par le dictionnaire en relations concernant le second ensemble. Nous disons qu’il y a isomorphisme entre les ensembles munis de leurs relations. C’est la notion d’isomorphisme qui, pour une large part, fonde les mathématiques et le premier acte mathématifiant de l’homme fut sans doute celui du berger comptant sur ses doigts les brebis du troupeau, c’est-à-dire usant de cette sorte de dictionnaire parfait dont j’ai parlé.

L’être des choses ne compte pas pour le mathématicien et il lui arrive d’identifier sans scrupules des objets de natures complètement différentes, lorsqu’un isomorphisme l’assure qu’il ne ferait que prononcer deux fois exactement le même discours, dans deux langues rigoureusement équivalentes. Il arrive que l’on parle d’« être mathématique », mais au vrai cette expression n’a pas grand sens. Un ensemble de n’importe quelle nature peut être mathématifié dans la mesure où il se soumet à ce singulier traitement des isomorphismes, ou plutôt dans la mesure exacte où ce que nous négligeons ainsi, tout l’être des choses, ne nous importe pas.

Ce caractère radicalement non ontologique — l’Être est, au mieux, mis entre parenthèses — qui est à la base des mathématiques, elles le transportent partout avec elles et c’est lui qui leur confère non seulement leur puissance et leur polyvalence, mais aussi leur universalité, transcendante à toute culture. Nos mathématiques contemporaines ont des sources grecques, arabes ou persanes, indiennes, occidentales ; elles ont reçu plus récemment des contributions japonaises ou chinoises. Mais ce sont une seule et même mathématique, intelligible à tous les hommes, témoignage de l’unité de l’esprit humain et à laquelle chacun peut apporter sa pierre.

Qu’avons-nous donc appris? Que tout discours qui se veut sans quiproquo, ni bruit de fond, tout discours dépourvu de contradictions ne peut être qu’un discours de type mathématique. Tout autre discours, nécessairement, porte toujours en lui-même ses contradictions. Mais l’ironie mathématique ajoute : il nous est impossible de prouver mathématiquement que le discours mathématique lui-même est sans contradictions.

Si les mathématiques sont nées de la Grèce antique, mais sont longtemps restées dépourvues de vraies applications, notre science ne se constitue vraiment que deux mille ans plus tard, en un tissu indéchirable fait d’une chaîne théorétisante, donc de type mathématique, et d’une trame expérimentale. Comme nous le savons, il s’agit, en enserrant le réel dans un réseau d’observations et d’expérimentations privilégiées, non de « l’expliquer », mais de le comprendre et de prévoir et contrôler son comportement. Pour cette science qui s’élabore en réseau d’interactions et dont les pouvoirs furent d’abord assurés dans les champs de la mécanique et de la physique, les concepts de cause et d’effet sont notions bien trop naïves et causalité comme finalité sont attachées à des cultures et relèvent d’un statut préscientifique comme nous le verrons.

Le principal obstacle a été, au long des siècles, l’intelligence du mouvement et l’élaboration des instruments nécessaires à en fournir une présentation fidèle. L’apparition du principe de l’inertie à la fin du XIIIe siècle, apparition toute spéculative, la relativité galiléenne sur laquelle nous allons revenir puis, avec le calcul différentiel, l’élaboration de la dynamique newtonienne sont les étapes de cette conquête. Celle-ci faite, les choses vont aller très vite jusqu’aux grandes théories physiques de notre temps qui marquent une intelligence profonde de phénomènes qui ne sont plus à l’échelle de l’homme.

Dans ces parties les plus développées de notre science, la mathématique, loin d’être seulement fournisseuse d’outils extérieurs, assume généralement un rôle plus ambitieux et plus nécessaire. Elle se fait mode de pensée pour appréhender la réalité et elle ne prétend à son intelligence que lorsqu’il a été possible de construire, pour l’ensemble des phénomènes étudiés, un modèle mathématique cohérent et efficace. Les théories physiques contemporaines, relativité, mécanique quantique, comme la mécanique classique elle-même, sont constituées à partir de l’élaboration de tels modèles et le développement de nouveaux concepts mathématiques a souvent été étroitement lié à notre exigence d’intelligence du réel.

Une théorie physique n’a pas deux sens, un sens ésotérique traduisible seulement dans un jargon sophistiqué et à l’aide de formules, et un sens vulgaire qu’il serait permis d’exprimer dans notre langue usuelle, héritière d’expériences quotidiennes et modelée par une culture. Une telle théorie est toujours fondée sur des concepts mathématiques qui présentent souvent deux caractères d’universalité : l’universalité dans l’esprit des hommes propre à tout concept mathématique et, pour certains, une universalité pratique qui en fait les matériaux avec lesquels toute théorie physique est bâtie. Toute tentative d’expression en langue vulgaire d’une théorie physique est, peu ou prou, à base d’analogies variables selon les cultures et capables de nous trahir, analogies qui ne disposent que d’un pouvoir heuristique pouvant stimuler notre imagination. Avant d’en venir à la relativité ou à la mécanique quantique, il nous faut donc, pour minimiser les risques de quiproquos, analyser certains concepts ou certaines approches mathématiques qui jouent, pour les théories physiques, un rôle universel.

EXEMPLES D’INSTRUMENTS DE PENSÉE POUR LA PHYSIQUE : GROUPES ET CALCUL DES VARIATIONS

La notion de groupe — avec ce nom même — apparaît en pleine lumière avec Galois, vers 1830, dans un contexte fort éloigné de la physique, celui de la résolution par radicaux des équations algébriques. Ces groupes vont se manifester sous leur double rôle : groupes de transformations de l’ensemble des racines de l’équation, soumises à certaines conditions, mais groupes « abstraits » aussi, où les objets mathématiques sont les éléments du groupe lui-même et la manière dont ils se composent. Mais tout au long du XIXe siècle, ce concept va s’incarner en géométrie, en mécanique et dans l’électromagnétisme de Maxwell sous la forme de groupes de transformations.

En fait cette notion de groupe sous-tend depuis longtemps certaines activités de l’esprit des hommes. Dans la géométrie grecque, qui culmine avec Euclide, on voit figurer, dans les axiomes concernant l’« égalité » des figures, les énoncés suivants :

1. une figure est égale à elle-même;

2. si une figure est égale à une seconde, la seconde figure est égale à la première;

3. si une figure est égale à une seconde et cette seconde égale à une troisième, la première figure est égale à la troisième.

Dans ces trois énoncés se trouvent sous-jacents les axiomes de groupe, mais sous une forme encore bien maladroite. Seule l’apparition progressive du langage ensembliste a permis de construire des énoncés ayant un caractère universel.

Si l’on dispose d’un ensemble déterminé E, on est amené à s’intéresser à ses transformations. Une transformation f de E fait correspondre à tout élément a de E un élément b de E et inversement. On obtient ainsi une « transformation inverse ». Deux telles transformations f, g, de E se composent naturellement de manière associative : la composée g o f est la transformation qui à tout élément a de E fait correspondre l’élément g [f (a)].

Un ensemble G de transformations de E sera un groupe de transformations si 1. il contient toujours la composée de deux transformations appartenant à G; 2. il contient la transformation identité, celle qui fait correspondre à tout élément de E cet élément même; 3. il contient la transformation inverse de toute transformation appartenant à G. On perçoit qu’à l’ordre près, ces axiomes correspondent à ceux concernant l’égalité des figures en géométrie euclidienne. Cela posé qui nous facilite le langage, la géométrie euclidienne de l’espace repose tout entière sur le groupe des déplacements de l’espace, groupe dont les éléments sont obtenus par composition des rotations et des translations et qui est un groupe de transformations de l’espace préservant les distances. Les translations, pour leur propre compte, forment un groupe dont la loi de composition, décrite par l’addition des vecteurs, est commutative. Les rotations autour d’un point forment aussi un groupe. Un groupe laisse invariants, inchangés certains éléments ou certaines quantités, ici la distance par exemple, et cela est fort important. Dès l’apparition avec Riemann et Lobatchevski des géométries non euclidiennes, le groupe fondamental de toute géométrie devint l’instrument essentiel de leur analyse et ce type d’analyse même s’étendit à la mécanique et à l’électromagnétisme.

La mécanique newtonienne s’est exprimée, dans ses premiers développements, en termes de masses, d’accélérations, de forces. Il en est notamment ainsi pour la théorie newtonienne de la gravitation. Mais quel était donc le groupe qui laissait invariantes les équations de cette mécanique? Il fut très tôt reconnu que ce groupe était le groupe engendré par composition des déplacements de l’espace, des translations dans le temps et des mouvements rectilignes uniformes. On peut dire qu’il s’agit du groupe fondamental de transformations de l’espace-temps de Newton. Le groupe en question, dont chaque transformation est décrite par les valeurs de dix paramètres, ou, comme nous disons désormais, est de dimension 10, est ce que nous nommons le groupe de Galilée, en hommage au savant qui, le premier, rendit pleine justice au rôle du mouvement rectiligne uniforme.

L’invariance des équations de la dynamique newtonienne par le groupe de Galilée est la meilleure manière d’exprimer le principe de relativité galiléen, qui se traduit par l’impossibilité, par des moyens mécaniques terrestres, de mettre en évidence par exemple une « vitesse absolue « de la Terre, c’est-à-dire sa vitesse par rapport à un repère lié au centre de gravité du système solaire et aux directions fixes par rapport aux étoiles.

Sous sa forme primitive, la description newtonienne des mouvements est d’apparence causaliste, la force au sens newtonien jouant ici le rôle de cause des accélérations, c’est-à-dire de l’écart des mouvements par rapport aux mouvements rectilignes uniformes, liés aux repères galiléens. Dans l’optique de la mécanique classique, les repères galiléens sont transformés les uns dans les autres par les transformations du groupe de Galilée. Il en résulte le véritable énoncé du principe de relativité galiléen : aucune expérience purement mécanique, faite dans un repère galiléen, ne doit permettre de mettre en évidence le mouvement de ce repère galiléen par rapport à un autre repère galiléen.

Vers 1865, Maxwell réussissait à unir champ électrique et champ magnétique en une seule entité le champ électromagnétique, régi par des équations qui portent son nom. Au sein de cette entité vont se trouver réunies les différentes radiations alors connues ou créées au cours des quarante années suivantes, la lumière certes, mais aussi d’un côté rayons X ou rayons ?, de l’autre les ondes dites radio. Il s’agissait là de la première grande unification d’un domaine de la physique. La synthèse de l’électrique et du magnétique mettait en évidence l’importance d’une constante C ayant les dimensions d’une vitesse et qui se révélait à l’étude théorique n’être rien d’autre que la vitesse de propagation dans le vide commune aux ondes électromagnétiques, donc celle de la lumière. Les équations de Maxwell conduisaient à une équation des ondes analogue à celle connue en mécanique des fluides, dans laquelle C jouait le même rôle que la vitesse du son par exemple. Vers 1900, plusieurs théoriciens, dont Lorentz et Poincaré, procédaient à des études qui revenaient à déterminer le groupe d’invariance du premier membre de l’équation des ondes (correspondant sous des hypothèses convenables à un groupe d’invariance des équations de Maxwell) qui apparaissait comme profondément différent du groupe de Galilée. Il s’agissait là de la première approche de ce qu’on a nommé le groupe de Poincaré, sur lequel est fondée la théorie de la relativité. Nous y reviendrons.

Un autre instrument universel est constitué par le calcul des variations. Le prototype pourrait être celui qui apparut fort tôt en géométrie élémentaire, lorsqu’on démontra que le segment de droite est le chemin de plus courte longueur pour aller d’un point à un autre. La première apparition manifeste du calcul des variations dans la science est certainement donnée par le principe de Fermat relatif à la propagation de la lumière. L’indice de réfraction en un point d’un milieu transparent est en fait le quotient de la vitesse de la lumière C dans le vide par sa vitesse dans le milieu ; Fermat énonça que le chemin d’un rayon lumineux, éventuellement courbé par les changements d’indice de réfraction, est précisément celui qui rend minimum le temps mis par la lumière pour aller d’un point à un autre. En fait à tout chemin éventuel, on peut faire correspondre par une intégrale un temps, exactement comme, à un chemin dans l’espace, on fait correspondre une longueur. La lumière, pourrait-on dire, choisit le chemin qui la fait arriver au plus vite.

Sous cette forme, le principe de Fermat englobe toutes les lois de l’optique géométrique, en particulier ces lois mêmes de la réfraction qu’une certaine tradition a attribué à Descartes, bien qu’elles remontent probablement à des savants hindous. A cause de Descartes même et de son mode de pensée concernant la lumière qui s’imposa trop longtemps, ce principe fut mal compris des contemporains dont l’interprétation de l’indice de réfraction était erronée : ils pensaient que la lumière se propage plus vite dans un milieu transparent que dans le vide et, par suite, inversaient les termes du quotient qui caractérise cet indice; Huygens seul lui rendit justice et l’utilisa dans des travaux profonds. Ce n’est qu’au début du XIXe siècle que le principe reçut, avec les premiers travaux de Fresnel sur les ondes lumineuses, son statut définitif.

Si le calcul des variations est déjà présent implicitement dans la pensée de Leibniz « le meilleur des mondes possibles », mais quelle est la fonction critère susceptible de donner un sens à cette notion de « le meilleur » ?), l’instrument différentiel rigoureux correspondant fut élaboré dans les années 1780 par Lagrange en vue de la mécanique. Il s’agit de déduire d’un principe de « minimum », d’« optimum » ou d’« extremum » un système différentiel qui le traduit localement. C’est encore l’approche de Lagrange qui règne de nos jours, sous un autre nom (« optimisation » de Kuhn-Tucker) dans les « programmes » ou la programmation étudiés par les économistes.

Lagrange, et après lui Hamilton sous une autre forme, montrèrent que les équations de la dynamique newtonienne sont exactement celles d’un problème de calcul des variations qui consiste à minimiser ou extrémiser une grandeur dépendant de la classe des mouvements envisagés, l’action; cette traduction est connue sous le nom de principe de moindre action. Dès ce moment nous pouvons faire une étrange constatation : une même théorie, la dynamique newtonienne ou mécanique classique, peut être décrite, comme nous l’avons vu, en termes de forces comme d’apparence causaliste, mais aussi comme d’apparence finaliste à travers l’action. Quoi de plus finaliste aussi que le principe de Fermat et cette « optimisation » du temps comme fonction critère?

Il ne s’agit pas là d’une coïncidence. En fait dès 1865, Maxwell étendait la notion d’action au champ électromagnétique et percevait déjà le caractère universel de cette notion. A travers son interprétation de la lumière comme radiation électromagnétique, on pouvait justifier le principe de Fermat et le relier à un principe de moindre action. D’autre part, plus récemment, les mathématiciens ont étudié les systèmes différentiels (d’apparence causaliste) qui peuvent être considérés comme émanant d’un « principe variationnel » (donc à vocation finalisante) ; ils ont montré qu’il s’agissait d’une large classe de systèmes satisfaisant une propriété générale abstraite et que, pour des raisons non moins générales, les systèmes aptes à la représentation du réel physique devaient posséder cette propriété. Le caractère universel des principes variationnels apparaissait en pleine lumière.

Il est sans doute permis de dire que, selon le regard porté sur elle, toute théorie physique peut être considérée comme causaliste ou finaliste, alors qu’il s’agit d’une seule et même théorie. A ce niveau d’intelligence du réel, causalité et finalité apparaissent comme des notions inadéquates, marquées par nos différentes cultures et ne pouvant servir, ici ou là, que de béquilles heuristiques.

Calcul des variations et invariance d’une théorie par groupe se sont découverts en étroite interaction. L’invariance d’un système d’équations différentielles par un groupe de transformations peut se lire sur l’action du principe variationnel dont il émane, pour lequel il est le système des « équations de Lagrange ». Plus précisément cette invariance est lisible sur l’intégrant qui définit l’action et que nous nommons lagrangien en hommage à l’homme qui apparaît ainsi non seulement comme le plus grand mécanicien, mais sans doute comme le plus grand physicien mathématicien de tous les temps. Une théorie physique, de nos jours essentiellement une théorie de champ dont le prototype fut précisément celle du champ électromagnétique, repose toujours sur une action, c’est-à-dire sur un lagrangien et le mode d’invariance du lagrangien par un groupe dicte l’invariance correspondante des équations de champ qui en résultent.

Mais il y a plus. Dans les années 1920, E. Noether déduisit de l’invariance d’un principe variationnel par un groupe, des identités dites de conservation et cela conduisit de plus en plus consciemment à percevoir que l’invariance d’une théorie par un groupe dictait quelles étaient les « bonnes grandeurs physiques » fondamentales pour la théorie.

C’est ainsi qu’à chaque degré de liberté du groupe de Galilée correspond la mise en évidence d’une grandeur fondamentale de la mécanique classique ; par exemple à la translation d’espace correspond l’impulsion (ou quantité de mouvement) p = mv, à la translation dans le temps l’énergie. Ce n’est pas le vecteur vitesse, ou sa dérivée le vecteur accélération qui importent, mais le produit p du vecteur vitesse par la masse. Il peut sembler négligeable de substituer à la classique équation de Newton m? = F, l’équation équivalente dp/dt = F et cela est pourtant, du point de vue de la mécanique statistique par exemple, fort important.

RELATIVITÉ

La théorie dite de la relativité est née conceptuellement d’un conflit entre groupes : groupe de Galilée comme groupe d’invariance de la mécanique classique, groupe de Poincaré comme groupe d’invariance de l’électromagnétisme. Elle est née historiquement du résultat négatif de l’expérience de Michelson.

Examinons quel était, autour de 1900, le contenu du discours physique sur l’électromagnétisme, un discours qui se révéla d’abord parfaitement heuristique, puis très vite certainement erroné. Divers faits expérimentaux avaient conduit au cours du XIXe siècle à admettre l’existence d’un éther en repos absolu, emplissant tout l’espace et ne participant pas au mouvement de la matière, mais siège de la propagation des ondes électromagnétiques : parmi ces faits figurait par exemple l’expérience de Fizeau sur la vitesse de la lumière dans un milieu transparent entraîné.

De cette représentation d’un éther immobile, il semblait résulter inévitablement que la valeur de la vitesse de la lumière mesurée par un observateur en mouvement par rapport à l’éther dépendait de ce mouvement et en particulier de la direction de sa vitesse ; C étant la vitesse de la lumière par rapport à l’éther et V celle de l’observateur (en valeur absolue), celui-ci devrait, selon la cinématique classique, observer une vitesse (C + V) ou (C – V) lorsqu’il se meut dans la même direction et le même sens que la lumière, ou le sens opposé. Il devait y avoir « vent d’éther » pour l’observateur.

Ceci fut le principe d’une expérience célèbre de Michelson, par laquelle il cherchait à mettre en évidence le mouvement de la Terre par rapport à l’éther. Vis-à-vis du repère de Copernic (ayant pour origine le centre de gravité du système solaire et des axes de directions fixes par rapport aux étoiles), la vitesse du centre de la Terre sur sa trajectoire est d’environ 30 km/sec., et en six mois le vecteur vitesse correspondant se trouve changé sensiblement en son opposé. Il pourrait arriver qu’à un instant, le mouvement inconnu du repère de Copernic par rapport au fameux éther annule le mouvement de la Terre par rapport à celui-ci, mais cette coïncidence ne saurait subsister pendant six mois par exemple.

Par un dispositif interférentiel sophistiqué pour l’époque, Michelson pouvait mettre en évidence un « vent d’éther » égal seulement à 2 km/sec. Or, en réalité, dans le domaine de précision de ses mesures, il n’en observe aucun et ce résultat négatif subsiste pendant une année. D’autres expériences plus récentes ont toujours entièrement confirmé ce résultat. Ainsi, était-on amené expérimentalement à penser qu’il n’existe pas de dépendance de la vitesse de la lumière par rapport à l’état de mouvement de l’observateur. Quantité d’hypothèses artificielles ou contraires à d’autres faits expérimentaux furent avancés pour expliquer ce résultat négatif aux environs de 1900. Il était réservé à Lorentz et Einstein (1904 -1905) d’adopter la seule démarche cohérente qui conduisit à la théorie de la relativité dite restreinte.

Lorentz et Einstein prirent pour point de départ le résultat même de l’expérience de Michelson. Celle-ci montrait en effet que la vitesse de la lumière est la même par rapport à tous les repères galiléens constitués par le temps classique et par les repères d’espace définis approximativement, pendant un court intervalle de temps, par les positions le long de l’orbite terrestre d’un repère lié au centre de la Terre. On obtient ainsi le principe de constance de vitesse de la lumière (ou de toute radiation électromagnétique).

Par rapport à tous les repères galiléens, dans le vide, la vitesse de la lumière est toujours la même et égale à C.

Il pouvait y avoir quelque inconvénient à fonder un principe d’une telle généralité sur le résultat d’un seul type d’expérience qu’un autre type d’expérience aurait pu éventuellement mettre en défaut. Mais, en fait, l’expérience de Michelson n’avait fait qu’attirer impérieusement l’attention des physiciens sur un fait mathématique, resté un peu dans l’ombre bien qu’il fût connu sous différentes formes : le conflit entre les groupes d’invariance fondamentaux de la mécanique classique et de l’électromagnétisme. L’introduction même de cet éther et la réhabilitation du repos absolu, en fait absent de la mécanique classique, était signe de cette contradiction. Un autre signe était l’impossibilité de bâtir une théorie cohérente de l’électrodynamique des corps chargés en mouvement.

Pour trancher ce conflit, Einstein propose d’admettre le principe de constance de vitesse des radiations électromagnétiques, de conserver par suite la théorie électromagnétique de Maxwell, considérée comme rigoureuse, et de modifier la mécanique classique de façon à la mettre en accord avec l’électromagnétisme, c’est-à-dire de lui substituer une mécanique, dite relativiste, admettant comme groupe d’invariance le groupe de Poincaré. La mécanique classique n’apparaissait plus que comme une approximation, excellente pour les vitesses à l’échelle humaine, de la mécanique relativiste qui naissait. On peut dire qu’inversement la mécanique relativiste apparaissait comme déformation essentielle de la mécanique classique, le paramètre de déformation étant 1/C.

Au principe de relativité galiléen, se trouvait substitué le principe de relativité einsteinien : Aucune expérience physique (en particulier mécanique, électromagnétique ou électrodynamique) faite dans un repère galiléen ne doit permettre de mettre en évidence le mouvement d’un repère galiléen par rapport à un autre repère galiléen. La notion d’éther perd ainsi tout rôle et toute signification, et disparaît. Chaque repère porte en lui-même son temps et les notions newtoniennes d’espace et de temps « absolus » s’évanouissent. C’est sur la notion géométrique d’espace-temps (introduite en 1907 par Minkowski) que la physique va se fonder, le partage entre espace et temps étant désormais relatif à chaque repère galiléen, exactement comme la verticalité et l’horizon du lieu partagent l’espace ordinaire en le produit d’un plan par une droite.

C’est le groupe de Poincaré qui transforme ainsi désormais les repères galiléens les uns en les autres et les équations de la physique, rapportés à des repères galiléens, doivent être invariantes par l’action du groupe de Poincaré, considéré comme groupe de transformations de l’espace-temps de Minkowski, fondant sa géométrie.

Cet espace-temps de Minkowski, de dimension 4, ne diffère de l’espace euclidien de même dimension que par une particularité importante : au lieu que, dans un repère convenable, un théorème de Pythagore généralisé traduise le carré d’un vecteur comme somme des carrés des composantes de ce vecteur, ce carré apparaîtra comme somme algébrique, trois carrés ayant un signe et le quatrième, correspondant au temps, l’autre signe. Dans cette conception géométrique, directions temporelles et directions spatiales sont distinctes et séparées par un cône, dont les génératrices traduisent la propagation à la vitesse C. Le groupe de Poincaré, de dimension toujours 10, peut être interprété comme le groupe des « déplacements » de l’espace-temps, préservant une distance en un sens généralisé. Techniquement, le groupe de Poincaré est une déformation du groupe de Galilée, avec le paramètre 1/C. C’est sur ce groupe de Poincaré que repose toute la physique contemporaine. Ce que nous avons dit de l’application à la mécanique classique du calcul des variations s’applique à la mécanique relativiste sans modifications, et en particulier les apparences causalistes ou finalistes de la théorie.

Une seule précision à peine technique : aucune interaction ne peut se propager à une vitesse supérieure à C et il ne saurait y avoir, comme chez Newton, d’action instantanée à distance. Deux événements (points de l’espace-temps) ne peuvent réagir l’un sur l’autre si la direction qui les joint est spatiale. Toutes les théories particulières sont astreintes à cette condition de non-interaction spatiale et c’est cette condition qu’on nomme en relativité condition de causalité : on peut dire qu’à la lettre deux événements spatialement reliés ne peuvent que s’ignorer. Dans le contexte relativiste, l’épithète causal reçoit aussi un sens précis et particulier.

Il convenait donc de substituer à la théorie newtonienne de la gravitation une théorie relativiste, donc « causale » de la gravitation. Ce fut le but de la théorie de la relativité générale, assez mal nommée comme nous le verrons. C’est effectivement d’une théorie relativiste de la gravitation qu’il s’agit, théorie qui fut développée à partir de 1915 par Einstein.

Il convient de ne pas sous-estimer les difficultés de l’entreprise : la théorie newtonienne de la gravitation apparaissait comme la théorie scientifique qui, à travers la mécanique céleste, se trouvait vérifiée à la plus haute approximation. Si la théorie de la relativité restreinte est née de 1905 à 1907 des mains de Lorentz, Einstein et Minkowski, sans doute le plus grand mérite d’Einstein fut d’oser affronter, avec un courage et une imagination inégalés, ce monument qu’était la théorie de la gravitation universelle de Newton et ce, pour des raisons de cohérence. Les déviations observationnelles, par rapport à Newton, ne pouvaient être que minuscules et l’investissement intellectuel nécessaire fort important. Aidé par les travaux des grands géomètres différentiels italiens Ricci et Levi-Civita (1900) et les applications développées par eux à la mécanique classique, Einstein réussit à surmonter le défi. Pour voir à quel type d’explication de la gravitation Einstein est parvenu, qu’on me permette d’utiliser une analogie assez fidèle, suggérée par Einstein lui-même. Supposons que la Terre soit plate, effectivement semblable à une carte planisphère et observons les trajectoires des bateaux ou avions reliant à travers l’Atlantique par exemple Londres à New York; en reportant leurs positions successives sur la carte plane, on constate que ces trajectoires sont fortement courbées dans la direction du Nord. Une constatation symétrique aurait lieu par exemple dans le Pacifique sud et l’on pourrait énoncer cette loi : les directions nord ou sud exercent sur les avions une attraction instantanée à distance qui les fait dévier et que l’on pourrait chiffrer. Tel est le type d’explication que Newton donne de la gravitation. Mais un jour on prend conscience que la Terre est en fait courbe et que, sur cette Terre courbe, les avions suivent en fait le plus court chemin, ou géodésique, pour aller de Londres à New York par exemple. Tel est le type d’explication einsteinienne.

Mais il y a plus : le phénomène fondamental de la gravitation est l’interdépendance des mouvements des masses matérielles. Pour décrire cette interdépendance, Newton s’adresse au jeu des forces attractives et obtient effectivement une description d’une admirable précision. Pour décrire cette interdépendance, Einstein, lui, abolit le jeu des forces et écrit des équations de champ, venues d’un principe vatriationnel, qui signifient que ce sont les masses elles-mêmes (ou plus généralement les distributions d’énergie) qui courbent l’espace-temps, qui sont sources de courbure, chaque masse engrenant son propre champ de gravitation sur un champ extérieur de gravitation commun. C’est cet engrenage, le raccordement nécessaire qui crée l’interdépendance des mouvements des masses. Malgré cette conception entièrement différente, la théorie rend justice à l’approche newtonienne, explique le pourquoi de ses extraordinaires succès et raffine à peine les prévisions observationnelles, à l’échelle de la mécanique céleste.

Qu’on me permette de citer ici Elie Cartan qui contribua fortement à l’expansion de la relativité générale et fut, dans ce domaine, le plus perspicace des scientifiques. Il écrivait en 1931 : « L’hypothèse fondamentale de la théorie d’Einstein est non pas, comme beaucoup de personnes l’ont cru, qu’il est possible de formuler les lois de la physique dans tout système arbitraire de coordonnées, ce qui serait une simple tautologie, mais que, dans toute région suffisamment petite de l’espace-temps, les lois de la relativité restreinte sont vraies en première approximation, par rapport à la courbure. »

A cause de cela le groupe de Poincaré a continué à jouer son rôle fondamental. La théorie de la relativité générale rend ainsi justice à la relativité restreinte qui reste valable au voisinage de chaque point de l’espace-temps. Elle donne une théorie « causale » du champ gravitationnel qui, au même titre que le champ électromagnétique, se propage par ondes à la vitesse C. Les fronts d’onde gravitationnels sont géométriquement identiques aux fronts d’onde électromagnétiques, les rayons gravitationnels coïncidant avec les rayons électromagnétiques sous la forme de « géodésiques » de l’espace-temps, tangentes en chaque point au cône définissant la séparation entre spatial et temporel. Les équations d’Einstein elles-mêmes dérivent d’un principe variationnel correspondant à un lagrangien qui n’est autre, dans le vide, que la courbure (scalaire) de l’espace-temps lui-même.

On voit que, si la relativité a introduit une révolution nécessaire dans nos conceptions de l’espace et du temps, elle se moule cependant dans le cadre général, que nous avons décrit, concernant les théories physiques.

MÉCANIQUE QUANTIQUE

La préhistoire de la mécanique quantique est constituée par une hypothèse de Planck relative à la théorie du rayonnement et visant à mettre fin à une contradiction apparue, par l’apport remarquable d’Einstein (1905) concernant l’effet photo-électrique et par les travaux de Bohr s’efforçant de décrire les phénomènes observés à l’échelle atomique au moyen d’un modèle de l’atome du type du système solaire, à énergie discrétisée. Ce modèle certainement scientifiquement insoutenable est encore doué d’un grand pouvoir heuristique pour les physiciens expérimentaux ; ce fut ce qu’on a nommé « la première mécanique quantique ».

La base expérimentale de la mécanique quantique, elle-même née de Louis de Broglie, Heisenberg, Schrödinger, est constituée par la spectroscopie : les atomes émettent ou absorbent de l’énergie sous forme de rayonnement électromagnétique, dans des fréquences privilégiées qui les caractérisent et qui présentent certaines régularités. Comment expliquer théoriquement ces phénomènes et ces régularités? D’autre part la radioactivité était apparue et demeurait dépourvue de théorie.

Depuis longtemps, la physique mathématique disposait d’une théorie des vibrations ou fréquences (valeurs propres) donnant naissance, dans les domaines mécanique ou acoustique, à des ensembles de fréquences ou spectres. Plus généralement était apparue une théorie des valeurs propres des matrices (ou des opérateurs) qui fut mise en œuvre pour expliquer le spectre des atomes précisément par Heisenberg et Schrödinger. Il appartenait à Dirac et à son œuvre géniale complétée par Pauli de provoquer l’émergence de la puissante synthèse que constitue la mécanique quantique, elle-même relativiste ou non.

La mécanique quantique au sens large, c’est-à-dire y compris la théorie quantique des champs, présente actuellement ce double et curieux caractère d’être fondée sur des concepts mathématiques et d’être en même temps largement incohérente du point de vue mathématique. Si les différents champs ou particules (en fait ce que nous nommons particule doit être considéré comme un champ) sont, nous le savons, liés à des constructions algébriques simples relatives à ces différents groupes, et en particulier d’une manière essentielle, au groupe de Poincaré, nous ignorons encore beaucoup de choses et nous sommes incapables d’élaborer un cadre mathématique vraiment cohérent pour décrire les phénomènes. Notre approche théorique est certainement encore provisoire. Mais cette théorie nous a fourni un tel facteur d’intelligence et de contrôle du monde microscopique qu’elle apparaît à la fois comme la théorie physique la plus fondamentale et la plus insatisfaisante. Différentes présentations, plus ou moins équivalentes, de la mécanique quantique au sens large, ont été données, dont peu parlent à notre imagination. Mais de ce peu d’imagination même, il nous faut nous méfier extrêmement, parce qu’il porte en lui des images humaines, trop humaines. C’est peut-être en termes de déformations qu’on peut présenter cette mécanique sans la mutiler.

Partons de la mécanique classique d’un système de particules. Il est commode de donner de la « géométrie dynamique » d’un tel système une description, qui remonte à Hamilton ou même à Lagrange (vers 1790), en termes d’espace de phase : un état du système envisagé est décrit par l’ensemble des positions et des quantités de mouvement (vitesses pondérées par les masses, dites encore impulsions ou moments) des différentes particules, c’est-à-dire par un point dans un « espace » plus ou moins abstrait, de dimension paire, qui est précisément l’espace de phase du système. Dans la pensée physique contemporaine, nous devons distinguer états du système et observables, qui décrivent les grandeurs physiques dont nous pouvons effectuer la mesure dans les différents états. L’observable fondamental est donné ici par la fonction énergie H (en l’honneur d’Hamilton) sur l’espace de phase. C’est sa donnée qui détermine à elle seule la dynamique du système classique. Dans ce cadre, les autres « observable » ne sont rien d’autre que des fonctions sur l’espace de phase.

Ces observables se multiplient trivialement de manière associative et commutative (produit usuel de fonctions). Mais il existe entre eux une autre loi de composition importante, anticommutative, dont la mise en évidence remonte à Poisson ; c’est le crochet de Poisson qui ne dépend que de la structure géométrique naturelle de l’espace de phase et qui est l’analogue infinitésimal d’une structure de groupe. L’évolution dans le temps d’un observable est donnée par le crochet de Poisson de cet observable par l’énergie H. Cette loi traduit toute la dynamique classique et est, en particulier, la traduction directe des célèbres équations de Hamilton.

On peut se demander ce qui arrive si l’on déforme de manière cohérente, en fonction d’un paramètre, les deux lois de composition existant entre les observables (produit usuel en un produit toujours associatif, mais non commutatif crochet de Poisson en un autre crochet ayant des propriétés semblables). Le résultat est surprenant ; on obtient ainsi une autre dynamique cohérente, radicalement distincte, et celle-ci n’est autre, pour un choix convenable du paramètre, qu’un cas simple de la dynamique quantique générale. Le paramètre de déformation reçoit alors une valeur directement donnée par la célèbre constante de Planck; celle-ci (de dimension identique à celle d’une action) était intervenue de manière ad hoc, dès les premiers travaux sur le rayonnement, pour discrétiser ou quantifier l’énergie. Ce point de vue, introduit dès 1932 par Wigner et H. Weyl dans un contexte profondément différent, se laisse largement généraliser et inspire de nos jours nombre de théories importantes.

Les observables du système sont toujours décrits ici par des fonctions sur l’espace des phases, se composant selon une loi associative, non commutative, et ils obéissent à une équation dynamique qui est la déformée de celle de la dynamique classique. Mais les états doivent être décrits maintenant par une fonction généralisée sur l’espace de phase, fonction qui joue le rôle d’une probabilité sans en être une. C’est la fonction d’état. En mécanique classique une telle fonction existe, mais n’est alors différente de 0 qu’en un point de l’espace de phase, qui est précisément ce que nous avons appelé état, les deux points de vue étant équivalents.

Que peut nous donner, dans notre nouveau contexte, une mesure expérimentale? Une seule chose, la valeur d’attente à un instant d’un observable pour un état, valeur qui n’est autre que l’intégrale sur l’espace de phase du produit de l’observable par la fonction état. Seule une telle valeur peut être l’objet d’une mesure. Mais, dès que le paramètre de déformation apparaît, la fonction d’état est, en vertu de ses propriétés mêmes, différente de 0 sur un domaine de dimension au moins égale à (h/2)3 sur l’espace de phase. Telle est la formulation, dans ce contexte, de la relation d’incertitude d’Heisenberg. En étudiant la mesure des observables position et impulsion on retrouve la forme usuelle.

Position et impulsion apparaissent, dans leur mesure, comme inextricablement mêlées, un peu comme en relativité, temps et espace se mélangent nécessairement dans un changement de repères. Il n’est pas d’état pour lequel des mesures parfaites simultanées de la position et de l’impulsion d’une particule à un instant donné peuvent être effectuées. Or ce sont seulement les mesures qui nous sont accessibles. Il convient d’insister sur le fait que ce que le physicien contemporain nomme particule en mécanique quantique n’a aucun rapport avec notre intuition d’un petit fragment localisé de matière ou d’énergie; les êtres physiques fondamentaux sur lesquels nous raisonnons sont en vérité des champs, plus ou moins largement modulés dans l’espace-temps. Il n’y a pas de paradoxes dérivant des théories ou des expériences quotidiennement vérifiées du domaine quantique. Seuls certains modes de pensée trop familiers concernant la localisation d’un photon ou la possibilité de fractionner un champ électromagnétique en deux ou plusieurs photons se révèlent complètement inadéquats et peuvent entraîner des apparences de paradoxes.

Ainsi la physique nous offre-t-elle une conception du monde, bâtie laborieusement au cours de son histoire, partielle certes mais qu’il est devenu impossible à l’esprit des hommes de refuser globalement, sauf en la dépassant. L’infiniment grand comme l’infiniment petit à l’échelle humaine sont devenus objets de science et, dans le domaine de la science, il n’est plus de métaphysique, mais seulement une épistémologie qu’il est impossible de fixer une fois pour toutes.

Cette science est, comme nous le disons parfois, « bien commun de l’humanité » et elle fait face, dans son unité, à la diversité des cultures. Le problème de la préservation nécessaire face à la science, de ce qu’il y a de plus fondamental dans la vie des cultures est peut-être devenu le premier enjeu de notre temps.