Lorsque l’IA s’emparera de la pratique scientifique, nous trouverons probablement les résultats étranges et incompréhensibles. Devons-nous nous inquiéter ?
La science de notre époque est computationnelle. Sans modèles, simulations, analyses statistiques, stockage de données, etc., notre connaissance du monde progresserait bien plus lentement. Depuis des décennies, notre curiosité humaine fondamentale a été satisfaite, en partie, par le silicium et les logiciels.
Le philosophe Paul Humphreys, aujourd’hui disparu, appelait cela le « scénario hybride » de la science, dans lequel certaines parties du processus scientifique sont confiées à des ordinateurs. Toutefois, il a également suggéré que cette situation pourrait changer. Bien qu’il ait commencé à écrire sur ces idées il y a plus de dix ans, bien avant l’essor de l’intelligence artificielle générative (IA), Paul Humphreys avait la clairvoyance de reconnaître que les jours où les humains continueront à diriger le processus scientifique pourraient être comptés. Il a identifié une phase ultérieure de la science — ce qu’il a appelé le « scénario automatisé », où les ordinateurs prennent complètement le contrôle de la science. Dans ce futur, les capacités computationnelles de raisonnement scientifique, de traitement des données, d’élaboration de modèles et de théorisations dépasseraient de loin nos propres capacités, au point que nous, les humains, ne serions plus nécessaires. Les machines poursuivraient le travail scientifique que nous avons commencé, portant nos théories à des niveaux nouveaux et imprévus.
Selon certaines sources, la fin de la domination épistémique humaine sur la science se profile à l’horizon. Une enquête récente menée auprès de chercheurs en IA a révélé qu’il y avait 50 % de chances que, d’ici un siècle, l’IA puisse nous remplacer dans tous les emplois (même s’il y en a certains que nous préférerions nous réserver, comme celui de membre d’un jury). Vous avez peut-être un avis différent sur la question de savoir si ou quand un tel monde est possible, mais je vous demande de suspendre ces opinions pendant un moment et d’imaginer que de telles superintelligences artificielles pourraient exister un jour. Leur développement signifierait que nous pourrions transmettre le travail scientifique à notre progéniture artificielle épistémiquement supérieure, qui le ferait plus vite et mieux que nous ne pourrions jamais le rêver.
Ce serait en effet un monde étrange. D’une part, l’IA pourrait décider d’explorer des domaines scientifiques que les scientifiques humains ne sont pas incités ou motivés à poursuivre, ouvrant ainsi de nouvelles voies de découverte. Elle pourrait même acquérir des connaissances sur le monde qui dépassent ce que notre cerveau est capable de comprendre. Qu’en sera-t-il pour nous, les humains, et comment devrions-nous réagir ? Je pense que nous devons commencer à nous poser ces questions dès maintenant, car d’ici quelques décennies, la science telle que nous la connaissons pourrait être profondément transformée.
Bien que cela puisse sembler relever de la science-fiction, le scénario d’automatisation de la science proposé par Humphreys ne serait qu’une étape supplémentaire dans une tendance qui dure depuis des siècles. L’homme n’a jamais vraiment fait de la science tout seul. Nous avons longtemps compté sur des outils pour améliorer notre observation du monde : microscopes, télescopes, règles et béchers standardisés, etc. Et il existe de nombreux phénomènes physiques que nous ne pouvons pas observer directement ou précisément sans instruments, comme les thermomètres, les compteurs Geiger, les oscilloscopes, les calorimètres, etc.
L’introduction des ordinateurs a représenté une étape supplémentaire vers la décentration de l’homme dans la science : Le scénario hybride de Humphreys. Comme l’illustre le livre Hidden Figures (2016 ; tr fr Les figures de l’ombre) de Margot Lee Shetterly (et son adaptation cinématographique), les premiers vols spatiaux des États-Unis nécessitaient que les calculs soient effectués par des mathématiciens humains, dont Katherine Johnson. Lors des missions lunaires américaines, moins d’une décennie plus tard, la plupart de ces calculs avaient été confiés à des ordinateurs.
Notre contribution à la science reste essentielle : c’est toujours nous, les humains, qui prenons les décisions.
Les décennies suivantes ont été marquées par une croissance continue et logarithmique du traitement et de la puissance informatiques, ainsi que par une baisse corrélative du prix des calculs. Nous nous trouvons aujourd’hui à ce que l’on pourrait appeler un stade hybride avancé de la science, avec une dépendance encore plus grande à l’égard des systèmes informatiques. À titre d’exemple, la philosophe Margaret Morrison a expliqué comment les simulations informatiques ont été essentielles à la découverte du boson de Higgs, en aidant les scientifiques à savoir quoi chercher et à trier les données issues des collisions à haute énergie.
Aujourd’hui, l’IA commence à avoir un impact important sur la science. AlphaFold, par exemple, est une IA conçue pour aider à prédire comment les protéines se replient, compte tenu de leur composition chimique. Si les humains peuvent effectuer ce travail indépendamment des ordinateurs, il s’agit d’une tâche qui prend du temps, qui nécessite beaucoup de travail et qui est coûteuse. Les créateurs d’AlphaFold — Google DeepMind — affirment qu’il a permis d’économiser « des centaines de millions d’années de temps de recherche ». Des avantages similaires peuvent être observés dans toutes les sciences : l’analyse d’ensembles de données extrêmement volumineux en astronomie et en génomique, le développement de nouvelles preuves en mathématiques, la prévision météorologique, la mise au point de nouveaux produits pharmaceutiques, etc.
Lorsque les contributions de l’IA computationnelle commencent à se mesurer en « centaines de millions d’années », on commence à avoir l’impression que nous, les humains, sommes les membres les moins performants du projet de groupe. On peut donc se demander si nous ne sommes pas déjà dans le scénario automatisé. Mais nous n’en sommes pas encore là. Notre contribution à la science reste essentielle : c’est toujours nous, les humains, qui menons la danse — nous identifions les questions scientifiques, nous interprétons les résultats et, en fin de compte, nous déterminons les progrès de la science.
Si nous suivons la trajectoire de Humphreys, l’abdication totale de notre trône épistémique sur la science ne se produirait qu’à un stade ultérieur. À ce stade, les superintelligences artificielles seraient non seulement capables d’accomplir les tâches que nous leur confions (une continuation du scénario hybride), mais aussi de définir leurs propres tâches : leur propre programme de recherche, la collecte de données, la modélisation et les théories, selon leur propre ensemble de vertus et de valeurs théoriques identifiées de manière indépendante — une science qui leur est propre.
Il vaut la peine de s’arrêter ici pour s’émerveiller des possibilités offertes à une superintelligence artificielle libérée des limites physiques et épistémiques humaines. De nombreuses tâches scientifiques se situent en dehors du champ des possibilités humaines, soit parce qu’il n’y aurait jamais de financement pour poursuivre la question, soit parce qu’il n’y a tout simplement pas assez d’intérêt humain. Au moment où j’écris ces lignes, par exemple, je regarde une feuille partiellement décomposée dans mon jardin. Peut-être qu’une superintelligence artificielle serait intéressée par le développement d’un modèle prédictif expliquant, à la seconde près, les processus et les taux de décomposition d’une feuille donnée, en fonction de l’espèce d’arbre, de la taille de la feuille, du contact historique avec diverses formes de vie microbienne, de la présence ou de l’absence de soleil et d’humidité, et ainsi de suite — une question extrêmement complexe pour laquelle de tels détails n’offrent aucune valeur évidente. Ou, pour répondre à une question que mon fils m’a posée un jour, peut-être qu’une superintelligence serait capable de développer un modèle qui prédit précisément quand les molécules d’eau d’une boule de neige qu’il a laissée dans les montagnes s’écouleront près de notre maison dans la rivière qui draine ce système montagneux. Une telle prédiction nécessiterait un modèle extrêmement complexe et détaillé du bassin fluvial, de la dynamique des fluides, du climat et de toute une série d’autres caractéristiques du système.
Ce n’est pas que nous, les humains, ne puissions jamais répondre à ces questions. Avec suffisamment d’attention et de fonds, je pense que les scientifiques pourraient développer des modèles prédictifs efficaces pour ces phénomènes ésotériques et d’autres encore. Mais la réalité est que nous ne le ferons pas. Pour le meilleur et pour le pire, la science d’aujourd’hui est façonnée par des facteurs fortement humains : la valeur économique, les priorités politiques, les perspectives de carrière, les tendances culturelles et toute une série de préjugés et de croyances humaines. Imaginez la science si l’on pouvait se débarrasser de tout ce bagage.
À mesure que les superintelligences exécuteraient leurs propres programmes de recherche, leurs travaux deviendraient inintelligibles pour nous.
Le scénario automatisé ne permet pas seulement d’explorer efficacement des projets scientifiques que nous ne pouvons ou ne voulons pas poursuivre. Bien que les superintelligences artificielles puissent continuer à travailler dans les paradigmes de nos théories actuelles, il n’y a aucune raison pour qu’elles soient obligées de le faire — elles peuvent rapidement choisir de repartir à zéro avec une nouvelle théorie du monde. De même, bien qu’elles puissent utiliser des mathématiques et des symboles familiers aux scientifiques humains, elles ne seraient pas liées par ces conventions — elles pourraient rapidement développer de nouvelles mathématiques et de nouveaux systèmes pour les exprimer.
Étant donné la possibilité (et, à mon avis, la probabilité) que de telles IA abandonnent rapidement le bagage épistémique humain, nous pouvons choisir de suivre une ligne de raisonnement wittgensteinienne et considérer le scénario automatisé comme le stade auquel elles commenceraient à parler et à développer un langage scientifique indépendant et nouveau. Ludwig Wittgenstein est célèbre (et, fidèle à son style, de manière énigmatique) pour avoir déclaré dans Recherches philosophiques (1953) : « Quand bien même un lion saurait parler, nous ne pourrions le comprendre ». Bien que cette affirmation semble contradictoire, le point de Wittgenstein est que la signification du langage est profondément ancrée et entremêlée avec l’expérience intérieure de l’être humain. Il en va de même pour la science. Lorsque les superintelligences commenceront à définir et à exécuter leurs propres programmes de recherche, leurs travaux deviendront inintelligibles pour nous, car nous n’aurons pas la perspective intérieure nécessaire pour comprendre leur science. De notre point de vue, leur recherche serait une science créée pour des objectifs théoriques que nous ne connaissons pas, avec des buts que nous ne connaissons pas, à interpréter d’une manière que nous ne connaissons pas.
Il est au moins possible qu’il existe des limites à nos capacités épistémiques humaines : des mathématiques insoupçonnées que nous ne pourrons jamais comprendre ou des concepts multidimensionnels qui dépassent nos expériences tridimensionnelles. Le fait que les capacités intellectuelles d’autres animaux soient limitées (essayez d’expliquer la relativité générale au chimpanzé le plus intelligent qui ait jamais existé) est une raison de penser que nos propres capacités intellectuelles sont elles aussi limitées : les idées sont trop complexes pour être comprises. Même en supposant que nous ne soyons pas soumis à des capacités épistémiques limitées, il subsiste aussi le problème que le raisonnement d’une superintelligence artificielle pourrait, en pratique, être au-delà de nos capacités. Comprendre la science du scénario automatisé pourrait nécessiter, par exemple, l’examen simultané de centaines de modèles complexes, chacun avec des centaines de paramètres, sans qu’aucun ne se rattache à un concept humain familier. Bien qu’il soit possible que nous puissions comprendre les paramètres (et peut-être même les modèles) individuellement, nous manquerions de la capacité de les tenir ensemble simultanément.
Selon vos prédilections en matière de technologie, d’IA et de singularité, ce qui précède peut vous sembler soit incroyablement sombre, soit extrêmement excitant. Si vous êtes comme moi, tout cela vous semble tout simplement étrange. Si les résultats d’un scénario entièrement automatisé échappent à notre compréhension, alors pourquoi voudrions-nous consacrer des ressources économiques et des talents intellectuels à son développement ? Bien que cette question soit souvent balayée par l’affirmation simpliste que l’avenir viendra, que nous le voulions ou non, je pense qu’il vaut la peine de prendre le temps d’identifier les raisons que nous pouvons avoir pour un tel avenir, avant de commencer à abdiquer volontairement le trône épistémique de la science.
L’une de ces raisons pourrait être que nous pensons que des avancées positives suivront. Peut-être que les superintelligences créeraient occasionnellement des choses : des éléments de technologie, des ressources ou de nouvelles façons de résoudre des problèmes. Comme j’ai déjà largement dépassé mon quota de spéculations dans cet essai, je resterai ouvert à la question de savoir quels pourraient être exactement ces produits, me contentant de noter que les superintelligences pourrait occasionnellement nous envoyer des produits qu’elles jugeraient bons pour les humains. Les ingénieurs humains (s’il en reste qui n’ont pas eux-mêmes été remplacés) pourraient alors s’emparer de ces nouvelles technologies et leur trouver des utilisations, même s’ils ne comprennent pas exactement comment elles fonctionnent. Ce serait un peu comme si je ne comprenais pas le processus par lequel mon moniteur ou mon traitement de texte crée et affiche des documents visuels, mais que je peux les utiliser pour rédiger cet essai. Cette tâche s’apparenterait moins à la science et à l’ingénierie d’aujourd’hui qu’à une simple découverte, le genre de reconnaissance primitive que, par exemple, une liane fonctionne bien pour attacher des branches d’arbre ensemble lors de la construction d’un abri. Cela ressemblerait à la découverte par hasard d’une ressource ou d’une substance dans le monde (comme nous sommes tombés sur le charbon ou la pénicilline). Il se pourrait en effet qu’un deuxième type de science voie le jour : une forme de rétro-ingénierie de ce qu’une IA nous offre, afin de faire progresser et de modifier notre propre compréhension théorique du monde.
Nous pourrions peut-être penser qu’il est de notre responsabilité morale ou de notre destin de répandre l’intelligence dans l’univers
Une autre raison de permettre une science artificiellement superintelligente serait d’ordre esthétique. Les raisons esthétiques constituent déjà un facteur de motivation important lorsque je réfléchis, personnellement, au financement que notre société accorde à la science. Bien que je n’aie ni le temps ni la capacité de comprendre toute la science (qui le pourrait ?), je trouve beau et bon qu’il y ait tant de scientifiques brillants qui poursuivent leurs curiosités humaines — même s’ils n’ont pas tous un impact positif sur ma vie ou ma compréhension du monde. Il y a quelque chose d’esthétiquement plaisant à savoir que le monde est connu, étudié et compris. Cela pourrait-il s’appliquer aux scientifiques non humains ? Peut-être pas du jour au lendemain. Cependant, les générations futures, qui auront appris à vivre avec l’IA, pourraient même considérer comme la marque d’une bonne société le fait qu’elle soit disposée à permettre cette compréhension extrahumaine.
Par ailleurs, l’humanité pourrait poursuivre le scénario automatisé par bienfaisance : parce que nous pensons qu’il serait bon que les superintelligences artificielles poursuivent leurs propres avancées scientifiques. Bien que nous puissions trouver frustrant — voire bouleversant — que les superintelligences artificielles sachent des choses que nous ne savons pas, nous pourrions tout de même poursuivre ce scénario par obligation morale ou par sentiment de bonne volonté envers notre progéniture artificielle.
Il existe d’autres motivations qui pourraient avoir comme conséquence involontaire le scénario automatisé. Peut-être, par exemple, pensons-nous qu’il est de notre responsabilité morale ou de notre destin de répandre l’intelligence dans l’univers. S’il se trouve que cette intelligence poursuit la science automatisée au cours de son voyage interstellaire, qu’il en soit ainsi.
Les raisons pour lesquelles nous pourrions décider de ne pas poursuivre le scénario automatisé sont tout aussi nombreuses. Peut-être que les découvertes que la superintelligence artificielle ferait et nous transmettrait produiraient des armes nouvelles et terribles. Ou peut-être pensons-nous que, puisqu’elles nécessiteraient une activité interne et non contrôlée, elles augmenteraient le risque d’un scénario catastrophe tel que l’asservissement ou l’anéantissement de l’humanité. Peut-être s’agit-il simplement de la crainte que certaines superintelligences ne se mettent à fonctionner avec une arrogance étrangement humaine, expérimentant de manière dangereuse, contraire à l’éthique ou aux valeurs partagées de l’humanité.
Mais, malgré ces préoccupations, il semble peu probable que nous puissions arrêter son développement, si cela devient techniquement possible. On pourrait même dire que la raison la plus probable pour laquelle nous aboutirons au scénario automatisé est que nous ne pouvons tout simplement pas échapper aux forces du capital et de la concurrence. Nous pourrions y arriver sans trop réfléchir, simplement parce que nous le pouvons ou parce que quelqu’un voudra être le premier à le construire. L’avenir pourrait simplement nous arriver, que nous le voulions ou non.
Notre curiosité nous poussera à comprendre et à expliquer le monde naturel qui nous entoure.
Les lecteurs attentifs noteront que plusieurs motivations sont absentes de la litanie des raisons possibles de poursuivre le scénario automatisé : en particulier, toutes les raisons pour lesquelles nous poursuivons actuellement la science. Nous ne poursuivrions pas le scénario automatisé par désir d’accroître notre propre connaissance et compréhension du monde, d’être en mesure de donner de meilleures explications aux phénomènes, ou de faire preuve d’un plus grand contrôle interventionnel sur le monde naturel. Ces raisons ne peuvent pas être à l’origine de la poursuite du scénario automatisé, car elles sont exclues par la nature même de cette science. La science automatisée ôte le trône épistémique des humains, nous excluant des perspectives internes sur les découvertes nouvelles et probablement complexes, au-delà de notre compréhension. Elle ne répondrait donc pas à nos désirs humains de compréhension, d’explication, de connaissance ou de contrôle. Peut-être qu’avec le temps, nous pourrions apprendre à renoncer à ces désirs — devenir une espèce désintéressée et sans curiosité. Mais j’en doute. Comme l’avenir, je soupçonne que ces désirs se manifesteront, que nous le voulions ou non.
Alors, qu’allons-nous faire ? Dans sa première présentation du scénario automatisé, Humphreys suggérait que le scénario automatisé remplacerait la science humaine. Je ne suis pas d’accord. Puisque nos désirs de compréhension, d’explication, de connaissance et de contrôle demeureront, nous ne pouvons pas nous empêcher de prendre des mesures pour répondre à ces désirs, c’est-à-dire de continuer à faire de la science. Nous, les humains, créons de belles choses, recherchons des liens interhumains dans l’amitié et la romance, et trouvons et construisons du sens dans la vie. Il en va de même pour nos motivations scientifiques. Nous resterons prisonniers de notre curiosité de comprendre et d’expliquer le monde naturel qui nous entoure.
Si le scénario automatisé se réalise, il semble qu’il devra s’agir d’une voie nouvelle, alternative, secondaire — non pas un remplacement, mais un ajout. Deux espèces, poursuivant la science côte à côte, avec des motivations, des intérêts, des cadres et des théories différents. Peut-être y aura-t-il aussi des aspects de la science qui intéresseront moins la superintelligence artificielle, comme la quête humaine pour mieux comprendre notre propre esprit, nos choix, nos relations et notre santé.
En effet, si nous voulons rester humains (et je ne peux qu’espérer que ce serait le cas), nous devons continuer à poursuivre la science. Que sommes-nous vraiment, si nous ne sommes pas des animaux en quête de beauté, qui créent des amitiés, qui construisent du sens et qui sont désespérément curieux ? C’est peut-être mon imagination limitée qui m’empêche de concevoir un monde futur dans lequel nous aurions abandonné ces désirs humains. Il existe de nombreux transhumanistes qui pourraient le penser. Mais je ne considère pas comme un manque de créativité le fait de voir la bonté dans la beauté, dans l’amour, dans le sens et dans la science. Bien au contraire. Pour ma part, je trouve de l’espoir dans notre incurable curiosité.
Brandon Boesch est professeur agrégé de philosophie à l’université de Morningside, dans l’Iowa. Il vit à Omaha, dans le Nebraska.
Texte original publié le 24 avril 2025 : https://aeon.co/essays/when-ais-do-science-it-will-be-strange-and-incomprehensible