La matière qui résout des problèmes : Récents travaux et cogitations sur l’origine et la fonction de la vie
La vie semble de moins en moins ressembler à un simple résultat de la chimie et de la physique, et davantage à un processus computationnel
Qu’est-ce qui rend la computation possible ? Pour répondre à cette question, un ingénieur en matériel informatique venu d’une autre planète se rend sur Terre au 21e siècle. Après avoir traversé notre atmosphère, cet explorateur extraterrestre se rend dans l’un des plus grands centres de données de notre planète, le China Telecom-Inner Mongolia Information Park, situé à 470 kilomètres à l’ouest de Pékin. Mais la computation n’est pas facile à découvrir dans cette mini-ville tentaculaire de fermes de serveurs. En scrutant les transistors presque innombrables du parc d’information, l’ingénieur en visite pourrait être excusé de penser que la réponse à sa question se trouve dans les matériaux principaux qui alimentent les processus computationnels : le silicium et les oxydes métalliques. Après tout, depuis les années 1960, la plupart des dispositifs computationnels reposent sur des transistors et des semi-conducteurs fabriqués à partir de ces matériaux métalloïdes.
Si l’ingénieur avait visité la Terre quelques décennies plus tôt, avant l’arrivée des transistors à oxyde métallique et des semi-conducteurs en silicium, il aurait peut-être trouvé des réponses totalement différentes à sa question. Dans les années 1940, avant les semi-conducteurs en silicium, la computation aurait pu apparaître comme une propriété des valves thermioniques fabriquées à partir de tungstène, de molybdène, de quartz et de silice — les matériaux les plus importants utilisés dans les ordinateurs à tube à vide.
En se rendant un siècle plus tôt, bien avant l’ère de l’informatique moderne, un observateur étranger aurait pu parvenir à des conclusions encore plus étranges. S’il était arrivé en 1804, l’année où le métier à tisser Jacquard a été breveté, il aurait pu conclure que les premières formes de computation sont nées de la matière végétale et des excréments d’insectes utilisés pour fabriquer les cadres en bois, les cartes perforées et les fils de soie des métiers à tisser, les précurseurs analogiques des machines programmables modernes.
Mais si l’ingénieur en visite arrivait à ces conclusions, il aurait tort. La computation n’émerge pas du silicium, du tungstène, des excréments d’insectes ou d’autres matériaux. Elle émerge des procédures de la raison ou de la logique.
Ce récit spéculatif n’est pas seulement l’histoire des luttes d’un ingénieur extraterrestre. Elle est également une analogie avec les tentatives de l’humanité pour répondre à l’un de nos problèmes les plus difficiles : la vie. En effet, de même qu’un ingénieur extraterrestre s’efforcerait de comprendre la computation à travers les matériaux, il en va de même pour les humains qui étudient nos origines lointaines.
Aujourd’hui, les doutes sur les explications conventionnelles de la vie augmentent et une vague de nouvelles théories générales est apparue pour mieux définir nos origines. Celles-ci suggèrent que la vie ne dépend pas seulement des acides aminés, de l’ADN, des protéines et d’autres formes de matière. Aujourd’hui, elle peut être simulée numériquement, synthétisée biologiquement ou fabriquée à partir de matériaux entièrement différents de ceux qui ont permis à nos ancêtres évolutifs de prospérer. Ces possibilités et d’autres encore invitent les chercheurs à se poser des questions plus fondamentales : si les matériaux de la vie peuvent changer radicalement — comme les matériaux de la computation —, qu’est-ce qui reste inchangé ? Existe-t-il des lois ou des principes plus profonds qui rendent la vie possible ?
Notre planète semble être exceptionnellement rare. Sur les milliers de planètes identifiées par les astronomes, une seule a montré des signes de vie. Pour reprendre les termes de Carl Sagan, la Terre est un « point solitaire dans la grande obscurité cosmique environnante ». Cette apparente solitude est une énigme à laquelle sont confrontés les scientifiques qui étudient l’origine et l’évolution de la vie : comment est-il possible qu’une seule planète ait montré des preuves irréfutables de vie, alors que les lois de la physique sont partagées par toutes les planètes connues et que les éléments du tableau périodique peuvent être trouvés dans tout l’univers ?
La réponse, pour beaucoup, est d’accepter que la Terre soit vraiment aussi unique qu’elle en a l’air : l’absence de vie ailleurs dans l’Univers peut être expliquée en acceptant que notre planète est physiquement et chimiquement différente des nombreuses autres planètes que nous avons formellement identifiées. Seule la Terre, dit-on, a produit les conditions matérielles particulières propices à notre chimie rare, et ce il y a environ 4 milliards d’années, lorsque la vie est apparue pour la première fois.
En 1952, Stanley Miller et son superviseur Harold Urey ont apporté les premières preuves expérimentales de cette idée grâce à une série d’expériences menées à l’université de Chicago. L’expérience Miller-Urey, comme on l’a appelée, visait à recréer les conditions atmosphériques de la Terre primitive à l’aide d’équipements de laboratoire et à vérifier si des composés organiques (acides aminés) pouvaient être créés dans un environnement inorganique reconstitué. Lorsque l’expérience a réussi, l’émergence de la vie est devenue liée aux conditions matérielles et chimiques spécifiques de notre planète, il y a des milliards d’années.
L’évolution génétique implique également la résolution de problèmes : les ailes des insectes résolvent le « problème » du vol.
Cependant, des recherches plus récentes suggèrent qu’il existe probablement d’innombrables autres possibilités d’apparition de la vie par le biais de combinaisons chimiques potentielles. Comme le chimiste britannique Lee Cronin, la physicienne théorique américaine Sara Walker et d’autres l’ont récemment affirmé, la recherche de coïncidences quasi miraculeuses en chimie peut réduire notre capacité à trouver d’autres processus significatifs pour la vie. En fait, la plupart des réactions chimiques, qu’elles aient lieu sur Terre ou ailleurs dans l’univers, ne sont pas liées à la vie. La chimie seule ne suffit pas à déterminer si quelque chose est vivant, c’est pourquoi les chercheurs qui s’intéressent à l’origine de la vie doivent utiliser d’autres méthodes pour se prononcer avec précision.
Aujourd’hui, la « fonction adaptative » est le premier critère d’identification des bons types de chimie biotique qui donnent naissance à la vie, comme aime à le rappeler le biologiste théoricien Michael Lachmann (notre collègue de l’Institut Santa Fe). En sciences, la fonction adaptative désigne la capacité d’un organisme à changer biologiquement, à évoluer ou, en d’autres termes, à résoudre des problèmes. La « résolution de problèmes » peut sembler plus étroitement liée aux domaines de la société, de la culture et de la technologie qu’au domaine de la biologie. Nous pouvons penser au problème de la migration vers de nouvelles îles, qui a été résolu lorsque l’homme a appris à naviguer sur les courants océaniques, ou au problème du tracé des trajectoires, que notre espèce a résolu en apprenant à calculer les angles, ou même au problème de l’abri, que nous avons résolu en construisant des maisons. Mais l’évolution génétique implique également la résolution de problèmes. Les ailes des insectes résolvent le « problème » du vol. Les lentilles optiques qui focalisent la lumière résolvent le « problème » de la vision. Et les reins résolvent le « problème » du filtrage du sang. Ce type de résolution de problèmes biologiques — résultat de la sélection naturelle et de la dérive génétique — est conventionnellement appelé « adaptation ». Bien qu’elle soit essentielle à l’évolution de la vie, de nouvelles recherches suggèrent qu’elle pourrait également être cruciale pour l’origine de la vie.
Cette perspective de résolution de problèmes modifie radicalement notre connaissance de l’univers. La vie commence à ressembler beaucoup moins à un résultat de la chimie et de la physique qu’à un processus computationnel.
L’idée que la vie est une sorte de processus computationnel remonte au 4e siècle avant notre ère, lorsqu’Aristote a introduit sa philosophie de l’hylémorphisme, dans laquelle les fonctions priment sur les formes. Pour Aristote, des capacités telles que la vision étaient moins liées à la forme biologique et à la matière des yeux qu’à la fonction de la vue. Il a fallu environ 2 000 ans pour que son idée de fonctions hyléomorphes évolue vers l’idée de caractères adaptatifs grâce aux travaux de Charles Darwin et d’autres. Au XIXe siècle, ces naturalistes ont cessé de définir les organismes par leurs composants matériels et leur chimie, et ont commencé à définir les caractères en se concentrant sur la manière dont les organismes s’adaptaient et évoluaient — en d’autres termes, comment ils traitaient et résolvaient les problèmes. Il faudra ensuite attendre un siècle pour que l’idée des fonctions hylomorphiques devienne un concept abstrait de computation, grâce aux travaux d’Alan Turing et aux idées antérieures de Charles Babbage.
Dans les années 1930, Turing a été le premier à faire le lien entre l’idée grecque classique de fonction et l’idée moderne de computation, mais ses idées étaient impossibles sans les travaux de Babbage, un siècle plus tôt. Pour Turing, l’important était la façon dont Babbage avait marqué la différence entre les appareils de calcul qui suivent des lois de fonctionnement fixes, que Babbage appelait « machines à différences », et les appareils de calcul qui suivent des lois de fonctionnement programmables, qu’il appelait « machines analytiques ».
En s’appuyant sur la distinction de Babbage, Turing a développé le modèle de computation le plus général : la machine universelle de Turing. En 1936, il imaginait cette machine comme un magnétophone, comprenant une tête de lecture et d’effacement alimentée par une bande d’une longueur infinie. Au fur et à mesure que la bande passe dans la machine, des bits d’information (stockés momentanément dans la machine) sont lus ou écrits sur la bande. La machine et la bande déterminent ensemble le bit qui sera lu ou écrit ensuite.
Il peut être difficile pour les personnes non-initiées de comprendre comment ces idées incommensurables sont liées les unes aux autres.
Turing n’a décrit aucun des matériaux à partir desquels une telle machine serait construite. Il ne s’intéressait guère à la chimie, si ce n’est à la nécessité physique pour un ordinateur de stocker, de lire et d’écrire des bits de manière fiable. C’est pourquoi, étonnamment, cette machine programmable simple (bien qu’infinie) est un modèle abstrait du fonctionnement de nos puissants ordinateurs modernes. Mais la théorie de la computation développée par Turing peut également être comprise comme une théorie de la vie. La computation et la vie impliquent toutes deux un ensemble minimal d’algorithmes qui soutiennent la fonction adaptative. Ces « algorithmes » aident les matériaux à traiter l’information, depuis les produits chimiques rares qui construisent les cellules jusqu’aux semi-conducteurs en silicium des ordinateurs modernes. Ainsi, comme le suggèrent certaines recherches, la recherche de la vie et la recherche de la computation ne sont peut-être pas si différentes. Dans les deux cas, nous pouvons nous égarer si nous nous concentrons sur les matériaux, la chimie, les environnements physiques et les conditions.
En réponse à ces préoccupations, un ensemble d’idées diverses a émergé pour expliquer la vie à nouveau, par des principes et des processus partagés avec la computation, plutôt que par la chimie rare et les environnements de la Terre primitive simulés dans l’expérience de Miller-Urey. Ces idées, développées au cours des 60 dernières années par des chercheurs travaillant dans des disciplines disparates — notamment la physique, l’informatique, l’astrobiologie, la biologie synthétique, la science de l’évolution, les neurosciences et la philosophie — sont motivés par la recherche des principes fondamentaux qui régissent la matière qui sont capables de résoudre des problèmes. Bien que les chercheurs aient travaillé dans des domaines déconnectés et que leurs idées semblent incommensurables, nous pensons qu’il existe de grandes tendances dans leurs recherches sur les origines de la vie. Cependant, il est, peut-être, difficile pour les non-initiés de comprendre comment ces idées apparemment incommensurables sont liées les unes aux autres ou pourquoi elles sont importantes. C’est pourquoi nous avons entrepris d’examiner et d’organiser ces nouveaux modes de pensée.
Leurs propositions peuvent être regroupées en trois catégories distinctes, trois hypothèses, que nous avons nommées Tron, Golem et Maupertuis. L’hypothèse Tron suggère que la vie peut être simulée dans un logiciel, sans dépendre des conditions matérielles qui ont donné naissance aux êtres vivants de la Terre. L’hypothèse Golem suggère que la vie peut être synthétisée en utilisant des matériaux différents de ceux qui ont déclenché notre évolution. Et si ces deux idées sont correctes et que la vie n’est pas liée à la chimie rare de la Terre, nous avons alors l’hypothèse Maupertuis, la plus radicale des trois, qui explore les lois fondamentales impliquées dans les origines des systèmes computationnels complexes.
Ces hypothèses suggèrent que des principes profonds régissent l’émergence de la matière capable de résoudre des problèmes, des principes qui repoussent les limites de notre compréhension de la physique et de la chimie modernes. Elles marquent une rupture radicale avec la vie telle que nous l’avons connue.
En 1982, le film de science-fiction Tron est sorti aux États-Unis. Réalisé par Steven Lisberger, il raconte l’histoire d’êtres biologiques parfaitement et fonctionnellement dupliqués dans un programme informatique. Le héros, Tron, est un algorithme à l’apparence humaine subsistant dans des circuits, qui capture les caractéristiques essentielles de la vie sans dépendre de la chimie biotique. Ce que nous avons appelé « l’hypothèse Tron » est l’idée qu’une simulation complète de la vie peut être créée dans un logiciel, libérée de la chimie rare de la Terre. Cette hypothèse pose la question de savoir quels pourraient être les principes de la vie en l’absence de traces chimiques sur lesquelles se baser. Les fondements de la vie sont-ils principalement informationnels ?
Cinq ans après la sortie de Tron au cinéma, l’informaticien américain Christopher Langton a présenté au monde un concept qu’il a appelé « vie artificielle » ou « ALife » lors d’un atelier qu’il a organisé sur la simulation des systèmes vivants. Pour Langton, ALife était un moyen de se concentrer sur la synthèse de la vie plutôt que sur des descriptions analytiques de la vie évoluée. Cela lui offrait un moyen de dépasser la « vie telle que nous la connaissons » pour aller vers ce qu’il appelait « la vie telle qu’elle pourrait être ». L’objectif, selon ses propres termes, était de « recréer des phénomènes biologiques dans des médias alternatifs », de créer des entités semblables à la vie à l’aide de logiciels informatiques.
L’utilisation par Langton des ordinateurs comme outils de laboratoire fait suite aux travaux de deux mathématiciens : Stanis?aw Ulam et John von Neumann, qui travaillaient tous deux dans le cadre du projet Manhattan. À la fin des années 1940, Ulam et von Neumann ont entrepris une série d’expériences sur les premiers ordinateurs, qui consistaient à simuler la croissance à l’aide de règles simples. Ces travaux leur ont permis de découvrir le concept d’automates cellulaires, un modèle de computation et de vie biologique. Ulam cherchait un moyen de créer un automate simulé capable de se reproduire, comme un organisme biologique, et von Neumann a plus tard relié le concept d’automates cellulaires à la recherche des origines de la vie. En utilisant ce concept, von Neumann a formulé les origines de la vie comme Turing l’avait fait précédemment avec la computation, en recherchant les principes abstraits régissant ce qu’il a appelé la « construction », c’est-à-dire l’évolution et le développement biologiques. Des formes complexes de construction produisent des schémas que nous associons à la vie organique, telles que la croissance cellulaire ou la croissance d’individus entiers. Une forme de construction beaucoup plus simple peut être réalisée sur un ordinateur à l’aide d’une opération de copier-coller. Au 20e siècle, les idées de von Neumann sur un automate cellulaire capable de se répliquer lui-même, un « constructeur universel », étaient considérées trop abstraites pour nous aider à comprendre les origines chimiques de la vie. Elles semblaient également n’avoir que peu de choses à dire sur les processus biologiques telles que l’adaptation et la sélection naturelle.
Un programme informatique appelé Avida a simulé les processus d’évolution.
Les recherches sur l’ALife qui ont suivi les travaux d’Ulam, de von Neumann et de Langton ont généré une série de questions formelles et philosophiques fascinantes. Mais, comme les travaux de von Neumann, ces questions n’ont eu qu’un impact limité et éphémère sur les chercheurs travaillant activement sur les origines de la vie. À la fin du XXe siècle, plusieurs pionniers de la vie artificielle (ALife), dont le philosophe américain Mark Bedau, ont déploré l’absence de progrès sur ces questions dans un article influent intitulé « Open Problems in Artificial Life » (Problèmes ouverts de la vie artificielle). Les problèmes sans réponse identifiés par Bedau et ses huit co-auteurs comprenaient la génération d’un « proto-organisme moléculaire in vitro », la réalisation de « la transition vers la vie dans une chimie artificielle in silico », la démonstration de « l’émergence de l’intelligence et de l’esprit dans un système vivant artificiel » et, entre autres, l’évaluation de « l’influence des machines sur la prochaine transition majeure de l’évolution de la vie ».
Ces problèmes ouverts sont restés sans réponse, et ce document a coïncidé avec le déclin du domaine. Après sa publication, de nombreux auteurs se sont lancés dans des carrières de recherche différentes, passant de la vie artificielle au domaine voisin de la théorie de l’évolution, ou poursuivant des projets de recherche impliquant la chimie plutôt que des logiciels et du matériel informatique.
Néanmoins, ALife a produit des modèles et des idées très sophistiqués. L’année même où Bedau et ses collègues ont identifié les problèmes, un autre groupe de chercheurs a démontré les progrès que la vie artificielle avait atteints au tournant du siècle. Dans son document de recherche intitulé « Evolution of Biological Complexity (L’évolution de la complexité biologique) » (2000), ce groupe, dirigé par le physicien théorique Christoph Adami, a présenté un programme informatique appelé Avida qui simulait les processus d’évolution. Le système Avida, écrivaient Adami et ses coauteurs, « héberge des populations de programmes informatiques autoréplicateurs dans un environnement complexe et bruyant, au sein de la mémoire d’un ordinateur ». Ils ont qualifié ces programmes des « organismes numériques » et ont décrit comment ils pouvaient évoluer (et muter) en quelques secondes grâce à des instructions programmées. Chaque organisme Avida était un génome simulé unique composé d’une « séquence d’instructions qui sont traitées comme des commandes pour le processeur d’un ordinateur virtuel ».
L’hypothèse Tron semblait prometteuse. Mais, en fin de compte, les travaux d’Adami et d’autres ont apporté des contributions plus importantes à la génétique des populations et à l’écologie théorique qu’à la recherche sur les origines de la vie. Ces travaux ont permis de jeter un pont entre des théorèmes fondamentaux de l’informatique et des concepts biologiques abstraits, tels que la naissance, la compétition et la mort, mais n’ont pas permis de briser l’emprise de la chimie prébiotique sur les conceptions dominantes sur la vie.
Ces dernières années, les choses ont commencé à changer, car de nouveaux concepts issus de la physique élargissent l’hypothèse standard de Tron. En 2013, le physicien David Deutsch a publié un article sur ce qu’il a appelé la « théorie des constructeurs ». Cette théorie proposait une nouvelle façon d’aborder la physique, dans laquelle la computation était à la base de l’univers, à un niveau plus profond que les lois de la physique quantique ou de la relativité générale. Deutsch espérait que cette théorie renouvellerait les idées dominantes de la physique conventionnelle grâce à un cadre plus général qui éliminerait de nombreux problèmes, en particulier en ce qui concerne la mécanique quantique et la mécanique statistique, tout en établissant un statut fondamental pour la computation. Il souhaitait également faire tout cela en fournissant un cadre rigoureux et cohérent pour les transformations possibles et impossibles, qui incluent des phénomènes tels que le mouvement d’un corps dans l’espace ou le passage d’une planète sans vie à une planète vivante. La théorie des constructeurs ne fournit pas de modèle quantitatif et n’offre pas de prédictions sur la manière dont ces transformations se produiront. C’est un cadre qualitatif pour discuter de possibilités ; elle explique ce qui peut ou ne peut pas se produire dans l’univers d’une manière qui va au-delà des lois de la physique conventionnelle. La théorie de Deutsch est une vision provocatrice, et de nombreuses questions subsistent quant à son utilité.
La théorie de Deutsch s’appuie sur le modèle de construction-réplication de von Neumann pour la vie — l’hypothèse Tron originale — qui, à son tour, s’appuie sur le modèle de computation de Turing. Grâce à la théorie de Deutsch, nous commençons à nous éloigner des principes de simulation tels qu’ils sont appliqués dans les organismes Avida et l’évolution basée sur le silicium, et nous nous dirigeons vers des idées conceptuelles plus larges sur la façon dont la vie pourrait se former. La théorie des constructeurs et d’autres idées similaires pourraient être nécessaires pour comprendre les origines profondes de la vie, que la physique et la chimie conventionnelles n’ont pas réussi à expliquer de manière adéquate.
C’est une chose de simuler la vie ou d’identifier les principes inhérents à ces simulations. C’en est une autre de synthétiser la vie. Par rapport à la vie simulée par des logiciels, l’hypothèse du Golem affirme qu’une forme de vie synthétique peut être construite à partir de nouveaux constituants chimiques différents de ceux qui ont donné naissance aux formes de vie complexe sur Terre. Cette hypothèse tire son nom d’un être mythique du folklore juif qui vit et respire bien qu’il soit entièrement constitué de matériaux inanimés, typiquement de la boue. Le golem prend vie en inscrivant sur son front un mot magique, tel qu’émet (« vérité » en hébreu). C’est une forme de vie artificielle construite à partir d’un processus différent de celui de l’évolution. Si Tron met l’accent sur l’information, le golem met l’accent sur l’énergie — c’est une façon de lier l’information au métabolisme.
Dans son roman Le Golem (1913-14), Gustav Meyrink écrit : « Il n’y a en effet rien d’étonnant à cela. Seuls les sortilèges, les kichouph, font naître la crainte dans le cœur des hommes ; la vie gratte et brûle comme une haire… » En ce qui nous concerne, le golem est une analogie de la vie synthétique. C’est un être vivant fondé sur la boue générative et une représentation abstraite de ce qui est possible avec la biologie synthétique et les protocellules.
Au début du 21e siècle, l’intérêt pour cette « boue » s’est accru, les limites d’ALife ayant suscité un regain d’intérêt pour le rôle de types de matériaux et de métabolismes différents de ceux de ceux trouvés sur la Terre prébiotique. En 2005, les chimistes américains Steven A. Benner et Michael Sismour ont décrit les deux types de biologistes synthétiques qui travaillaient sur les problèmes de la vie : « L’un utilise des molécules artificielles pour reproduire des comportements émergents de la biologie naturelle, dans le but de créer une vie artificielle. L’autre recherche des pièces interchangeables dans la biologie naturelle pour les assembler dans des systèmes qui fonctionnent de manière non naturelle ». Si les seconds testent l’hypothèse Tron, les premiers testent l’hypothèse Golem.
La théorie de l’assemblage nous aide à comprendre comment tous les objets de la chimie et de la biologie sont fabriqués
L’un des meilleurs exemples de biologie synthétique proche de la vie est la création de systèmes génétiques dans lesquels des alphabets d’ADN synthétiques sont soutenus par une expansion artificielle du mécanisme d’appariement des bases à double brin Watson-Crick. Cela n’implique pas la création d’une biochimie alternative en laboratoire, mais simplement la synthèse chimique d’un système augmenté et évolutif. En fait, tous les efforts fructueux déployés à ce jour dans le domaine de la biologie synthétique découlent de l’augmentation et non de la création.
L’hypothèse du Golem soulève des questions importantes : si la vie peut être créée à partir de matériaux différents de ceux qui ont donné naissance à la vie telle que nous la connaissons, quels sont les principes communs qui donnent naissance à tous les êtres vivants ? Quelles sont les propriétés universelles de la chimie qui permet la vie ?
Le développement récent de la théorie des assemblages nous offre un moyen de commencer à répondre à ces questions. La théorie de l’assemblage nous aide à comprendre comment tous les objets de la chimie et de la biologie sont construits. Chaque objet complexe de l’univers, des algues microscopiques aux gratte-ciel, est construit à partir de pièces uniques, impliquant des combinaisons de molécules. La théorie de l’assemblage nous aide à comprendre comment ces pièces et ces objets sont combinés et comment chaque génération de complexité repose sur des combinaisons antérieures. Comme cette théorie nous permet de mesurer l’« indice d’assemblage » d’un objet — son degré d’« assemblage », la complexité de ses parties —, nous pouvons faire des déterminations sur l’évolution qui sont distinctes de celles normalement utilisées pour définir la vie.
Dans ce cadre, il est possible d’identifier les objets qui sont le résultat d’un processus évolutif grâce au nombre d’étapes d’assemblage franchies, sans disposer d’un modèle préalable ni connaître les détails du processus. Les conditions requises sont les suivantes : premièrement, un objet peut être décomposé en blocs de construction ; deuxièmement, il existe un ensemble minimal de règles pour assembler les blocs ; et troisièmement, il existe des séquences qui décrivent l’assemblage de ces blocs dans l’objet, où les objets intermédiaires peuvent être réutilisés comme nouveaux blocs dans le processus de construction. De très petits indices d’assemblage sont caractéristiques de la dynamique physique et chimique pure qui produit des cristaux ou des planètes, mais des indices élevés dans une grande population d’objets sont considérés comme la preuve d’un processus évolutif — et un signe de vie. D’une certaine manière, la théorie de l’assemblage est une version de l’hypothèse du Golem : grâce à elle, nous pouvons potentiellement localiser des formes de vie construites à partir d’un processus autre que l’évolution. L’idée est qu’une entité complexe, telle qu’un golem, nécessite une quantité importante de temps, d’énergie et d’informations pour être assemblée, et que l’indice d’assemblage est une mesure de ces exigences. Cette théorie nous permet de cartographier certains concepts informatiques de manière à trouver la signature commune d’un processus de résolution de problèmes.
Le golem nous montre à quel point les matériaux vivants sont susceptibles d’être variés dans l’univers, et à quel point la focalisation sur un ensemble limité de matériaux risque d’être trop restrictive. La théorie de l’assemblage nous montre comment tout processus historique laissera des empreintes universelles sur les matériaux, quelle que soit leur diversité.
Les hypothèses de Tron et de Golem sont stimulantes et audacieuses, mais il existe peut-être des idées encore plus radicales sur les origines de la vie. Ces idées suggèrent que l’émergence de systèmes computationnels complexes (c’est-à-dire la vie) dans l’univers pourrait être régie par des principes plus profonds que ce que nous supposions jusqu’à présent. Les organismes pourraient avoir un objectif plus général que l’adaptation. Et si les formes de vie n’apparaissaient pas à la suite d’une série d’accidents adaptatifs, tels que la mutation et la sélection, mais plutôt en tentant de résoudre un problème ? C’est ce que nous appelons l’hypothèse Maupertuis. Elle s’interroge comment la vie pourrait proliférer dans l’univers, même en l’absence des conditions spécifiques que l’on trouve sur Terre. Quel est donc ce problème commun ? L’hypothèse Maupertuis suggère que, sur la base de la deuxième loi de la thermodynamique, la vie pourrait être le moyen pour l’Univers d’atteindre plus rapidement l’équilibre thermodynamique. C’est peut-être la façon dont l’Univers « résout » le problème du traitement de l’énergie de manière plus efficace.
Mathématicien et philosophe français du XVIIIe siècle, Pierre-Louis Moreau de Maupertuis a formulé le « principe de moindre action », qui explique les trajectoires simples de la lumière et des objets physiques dans l’espace et le temps. Dans les deux cas, la nature révèle une économie de moyens : la lumière suit le chemin le plus rapide entre deux points ; les objets physiques se déplacent de manière à dépenser le moins d’énergie possible. Ainsi, selon ce que nous appelons l’hypothèse Maupertuis, la vie peut également être comprise de manière similaire, comme la minimisation ou la maximisation de certaines quantités. La recherche des origines de la vie peut être considérée comme une recherche de ces quantités.
Par exemple, l’évolution par sélection naturelle est un processus dans lequel des cycles répétés de survie amènent les génotypes dominants à coder de plus en plus d’informations sur leur environnement. Cela crée des organismes qui semblent maximiser l’information adaptative tout en conservant l’énergie métabolique. Ce faisant, ces organismes accélèrent la production d’entropie dans l’univers. Il est possible d’abstraire cette dynamique en termes de statistiques bayésiennes. De ce point de vue, une population d’organismes en évolution se comporte comme un processus d’échantillonnage, chaque génération choisissant parmi la gamme possible de variantes génétiques. Sur de nombreuses générations, la population peut mettre à jour sa « connaissance » collective du monde grâce à des cycles répétés de survie différentielle (ou « sélection naturelle »).
L’« énergie libre » est une sorte de mesure de l’incertitude : la différence entre une prédiction et un résultat.
Ce raisonnement bayésien a conduit au principe de l’énergie libre, proposé par le neuroscientifique Karl Friston en 2005. Ce principe est devenu le fondement de ce que nous appelons l’hypothèse de Maupertuis. Comme la théorie des constructeurs, le principe de l’énergie libre cherche à fournir un cadre unificateur pour tous les systèmes vivants. Le principe de Friston étend les idées des statistiques bayésiennes (estimation des paramètres) et de la mécanique statistique (minimisation des fonctions de coût) pour décrire tout processus d’apprentissage ou d’adaptation, que ce soit chez l’homme, dans les organismes ou dans d’autres systèmes vivants.
Son cadre cherche à expliquer comment ces systèmes vivants sont amenés à minimiser l’incertitude face à leur environnement en apprenant à faire de meilleures prédictions. Pour Friston, l’« énergie libre » est une sorte de mesure de l’incertitude : la différence entre une prédiction et un résultat. Plus la différence est grande, plus l’énergie libre est élevée. Dans le cadre de Friston, un système vivant est simplement un système dynamique dont on peut démontrer qu’il minimise l’énergie libre, c’est-à-dire qu’il minimise l’incertitude. Un rocher qui dévale une colline minimise l’énergie potentielle, mais certainement pas l’énergie libre fristonienne — les rochers n’apprennent pas à faire de meilleures prédictions sur leur environnement. En revanche, une bactérie qui nage le long d’un gradient de nutriments minimise l’énergie libre, car elle extrait des informations de son environnement pour enregistrer la position de sa nourriture. Une bactérie est comme une roche qui infère.
Si l’on est prêt à accepter l’idée que la modélisation du monde — en extrayant des informations et en faisant des déductions sur l’environnement — est constitutive de la vie, alors la vie devrait apparaître partout et plutôt sans effort. À l’instar du principe de moindre action, qui sous-tend toutes les théories de la physique, l’idée de Friston suggère que la minimisation de l’énergie libre est l’action qui sous-tend toute forme de vie potentielle. Et cela inclut les organismes biologiques, les sociétés et les technologies. De ce point de vue, même les modèles d’apprentissage automatique tels que ChatGPT sont des formes de vie potentielles, car ils peuvent agir dans le monde (le remplir de leurs textes), percevoir ces changements au cours de la formation et apprendre de nouveaux états internes pour minimiser l’énergie libre.
Selon l’hypothèse de Maupertuis, les êtres vivants ne se limitent pas à des entités biologiques, mais sont, dans un sens plus général, des machines capables de transmettre des solutions adaptatives aux générations successives par la minimisation de l’énergie libre. En d’autres termes, les êtres vivants sont capables de transmettre l’information de leur passé à leur futur. Si tel est le cas, comment définir les frontières du vivant ? Qu’est-ce qu’un individu ?
La théorie de l’information de l’individualité, développée par David Krakauer et ses collègues de l’Institut Santa Fe au Nouveau-Mexique et des collaborateurs de l’Institut Max Planck de Leipzig en 2020, répond à cette question. En réponse à des idées telles que le principe de l’énergie libre de Friston, nous avons proposé qu’il existe des « individus » plus fondamentaux que les formes de vie apparemment distinctes qui nous entourent. Ces individus se définissent par leur capacité à transmettre des informations adaptatives à travers le temps. Nous les appelons « particules de Maupertuis », car elles jouent un rôle comparable à celui des particules qui se déplacent dans des champs en physique, comme une masse qui se déplace dans un champ gravitationnel. Ces individus n’ont pas besoin d’être biologiques. Il leur suffit de transmettre des solutions adaptatives aux générations successives.
Les individus sont des processus dynamiques qui encodent des informations adaptatives.
La vie repose sur la création de copies, qui s’adaptent progressivement à leur environnement à chaque nouvelle génération. Dans les approches traditionnelles de l’origine de la vie, les mécanismes de réplication sont particulièrement importants, comme la copie d’un gène dans une cellule. Cependant, la réplication peut prendre de nombreuses autres formes. La copie d’un gène au sein d’une cellule n’est qu’une approximation chimique de la fonction informationnelle plus large des particules de Maupertuis. Même en biologie, il existe de nombreux types d’individus : les virus qui externalisent la majeure partie de leurs mécanismes de réplication dans les génomes de leurs hôtes, les tapis microbiens dans lesquels le transfert horizontal de gènes érode la frontière informationnelle de la cellule, et les insectes eusociaux où les ouvriers stériles soutiennent une reine fertile qui produit les futurs descendants. Selon la théorie de l’information de l’individualité, les individus peuvent être construits à partir de bases chimiques différentes. Ce qui importe, c’est que la vie soit définie par une information adaptative. L’hypothèse de Maupertuis offre de nouvelles possibilités pour ce qui constitue un être vivant : de nouvelles formes et de nouveaux degrés d’individualité.
Comment trouver ces individus ? Selon la théorie de l’information de l’individualité, les individus sont des processus dynamiques qui encodent des informations adaptatives. Pour comprendre comment ils pourraient être découverts, il suffit de considérer la façon dont différents objets de notre univers sont détectés à différentes longueurs d’onde de lumière. De nombreuses caractéristiques de la vie, telles que les signatures thermiques de l’activité métabolique, ne sont visibles qu’à des longueurs d’onde plus élevées. D’autres, comme le flux de carbone, sont visibles à des longueurs d’onde plus faibles. De la même manière, les individus sont détectés par différentes « fréquences informationnelles ». Chaque forme de vie possède un spectre de fréquences différent, chaque type formant des corrélations de plus en plus fortes dans l’espace (adaptations de plus en plus grandes) et dans le temps (hérédité de plus en plus longue). Même au sein d’un même processus chimique, on peut trouver de multiples individus différents en fonction du choix du filtre informationnel utilisé. Prenons l’exemple d’un organisme multicellulaire — un être humain. Vu de loin (en utilisant une sorte de filtre à grains grossier), il s’agit d’une seule entité coordonnée. Cependant, vue de près (avec un filtre à grain fin), cette entité unique regorge de tissus, de cellules et de protéines quelque peu indépendants. Il existe donc plusieurs échelles d’individualité.
Quel est donc l’objectif commun de ces individus proliférants ? En dépensant chacun de l’énergie métabolique pour assurer une propagation fiable de l’information, ils accélèrent la production d’entropie environnementale. Ainsi, en partageant des informations adaptatives, chaque individu accélère indirectement la mort thermique de l’univers. En résolvant de petits problèmes au niveau local, la vie crée de grands problèmes au niveau mondial.
La vie résout-elle des problèmes de matière ? Lorsque l’on réfléchit à nos origines biotiques, il est important de se rappeler que la plupart des réactions chimiques ne sont pas liées à la vie, qu’elles aient lieu ici ou ailleurs dans l’Univers. La chimie seule ne suffit pas à identifier la vie. Les chercheurs utilisent plutôt la fonction adaptative — une capacité à résoudre des problèmes — comme preuve principale et comme filtre pour identifier les bons types de chimie biotique. Si la vie est une matière qui résout des problèmes, nos origines ne sont pas un événement miraculeux ou rare régi par des contraintes chimiques, mais plutôt le résultat de principes d’information et de computation beaucoup plus universels. Et si la vie est comprise à travers ces principes, alors elle est peut-être apparue plus souvent que nous ne le pensions auparavant, poussée par des problèmes aussi importants que le Big Bang qui a déclenché notre univers abiotique il y a 13,8 milliards d’années.
Le récit physique de l’origine et de l’évolution de l’Univers est une affaire purement mécanique, expliquée par des événements tels que le Big Bang, la formation d’éléments légers, la condensation d’étoiles et de galaxies, et la formation d’éléments lourds. Ce récit n’implique pas d’objectifs, de buts ou de problèmes. Mais la physique et la chimie qui ont donné naissance à la vie semblent avoir fait plus que simplement obéir aux lois fondamentales. À un moment donné de l’histoire de l’Univers, la matière est devenue intentionnelle. Elle s’est organisée de manière à s’adapter à son environnement immédiat. Elle est passée d’une sorte de machine à différences de type Babbage à une machine analytique de type Turing. C’est le seuil de l’origine de la vie.
Dans l’univers abiotique, les lois physiques, telles que la loi de la gravitation, sont comme des « computations » qui peuvent être effectuées partout dans l’espace et le temps grâce aux mêmes opérations de base d’entrée-sortie. Pour les organismes vivants, cependant, les règles de la vie peuvent être modifiées ou « programmées » pour résoudre des problèmes biologiques uniques — ces organismes peuvent s’adapter et adapter leur environnement. C’est pourquoi, si l’univers abiotique est un moteur différentiel, la vie est un moteur analytique. Ce passage de l’un à l’autre marque le moment où la matière s’est définie par la computation et la résolution de problèmes. Certes, une chimie spécialisée a été nécessaire à cette transition, mais la révolution fondamentale n’a pas eu lieu dans la matière, mais dans la logique.
À ce moment-là, pour la première fois dans l’histoire de l’univers, est apparu un problème de taille capable de rivaliser avec le Big Bang. Pour résoudre ce grand problème — comprendre comment la matière a pu s’adapter à une gamme apparemment infinie d’environnements —, de nombreuses théories et abstractions nouvelles pour mesurer, découvrir, définir et synthétiser la vie ont vu le jour au cours du siècle dernier. Certains chercheurs ont synthétisé la vie in silico. D’autres ont expérimenté de nouvelles formes de matière. D’autres encore ont découvert de nouvelles lois qui pourraient rendre la vie aussi incontournable que la physique.
Reste à savoir laquelle nous permettra de transcender l’histoire de notre planète.
Pour plus d’informations sur les idées contenues dans cet essai, voir le document de recherche de Chris Kempes et David Krakauer intitulé « The Multiple Paths to Multiple Life » (2021), et le livre de Sara Imari Walker intitulé Life as No One Knows It : The Physics of Life’s Emergence (2024).
David C. Krakauer est président et titulaire de la chaire William H. Miller en systèmes complexes à l’Institut de Santa Fe, au Nouveau-Mexique. Il travaille sur l’évolution de l’intelligence et de la stupidité sur Terre. Alors que la première est admirée, mais rare, la seconde est redoutée, mais commune. Il est le fondateur du projet InterPlanetary au SFI (Institut de Santa Fe) et l’éditeur/rédacteur en chef de la SFI Press.
Chris Kempesis est professeur à l’Institut de Santa Fe et travaille à l’intersection de la physique, de la biologie et des sciences de la terre.
https://aeon.co/essays/is-life-a-complex-computational-process