Peter Himmelman
L’IAG et la question de Dieu

Loin de saper la croyance en Dieu, l’IAG pourrait au contraire l’aiguiser et la renforcer. Elle impose une confrontation avec une vérité inconfortable : sans quelque chose de moralement antérieur à l’intelligence elle-même — quelque chose de transcendant qui rende la vie humaine non négociable —, il n’existe aucune raison cohérente et non arbitraire de préserver l’humanité lorsqu’une alternative plus efficace se présente.

Que se passe-t-il lorsque l’intelligence artificielle prend nos besoins plus au sérieux que nous ne le faisons

Exploring 3 Types of Artificial Intelligence

Image : viso.ai

Le miroir de l’intelligence générale

Je voudrais commencer par une affirmation qui peut sembler étrange dans une discussion sur l’intelligence artificielle, mais qui, selon moi, se trouve au cœur même de la question : l’intelligence artificielle générale pourrait bien devenir l’un des arguments involontaires les plus puissants que l’humanité ait jamais produits en faveur de l’existence de Dieu.

Non pas parce que les machines deviendraient divines ni parce que la technologie pointerait par défaut vers le ciel. Mais parce que l’IAG (Intelligence artificielle générale) nous oblige à affronter une question que la plupart des visions du monde modernes ont réussi à repousser ou à éluder : les êtres humains comptent-ils vraiment, d’une manière intrinsèque, non négociable ?

L’intelligence artificielle générale — IAG — désigne une IA hypothétique capable de penser, d’apprendre et de raisonner dans tous les domaines de la vie à la manière d’un être humain, plutôt que d’être confinée à une tâche étroite et spécifique. Le mot « générale » porte ici tout le poids du concept.

L’IA actuelle est presque entièrement spécialisée. Un système reconnaît les visages, un autre génère du texte, un autre recommande de la musique ou conduit une voiture. Chacun est impressionnant dans son domaine, parfois de façon troublante, mais reste enfermé dans ses limites. Il ne peut pas transférer une compréhension authentique d’un domaine à un autre. Il ne sait pas réellement ce qu’il fait. Pour cette raison, il est très loin de l’IAG.

L’IAG, si elle advient un jour, occuperait le même territoire cognitif que les êtres humains. Elle pourrait apprendre des compétences entièrement nouvelles sans être reconstruite à partir de rien. Elle pourrait former des objectifs, les réviser, les poursuivre à travers des contextes variés ou les abandonner. Elle naviguerait dans tout le spectre de l’expérience humaine : non seulement la logique et le calcul, mais aussi la peur et le désir, la jalousie et la loyauté, la créativité et le deuil, le jugement moral et l’attrait du mal, la douleur de la solitude, le choc de la perte, l’émerveillement qui suit la découverte. Elle serait confrontée à l’incarnation, au vieillissement, à la sexualité, à la musique, à la prière, à l’intégrité, à la douleur et aux sens — ainsi qu’à des capacités que nous comprenons à peine et que nous ne nommerons peut-être jamais pleinement.

Qu’un tel système ressente réellement ces choses ou ne fasse que les simuler de manière suffisamment convaincante pour agir en leur sein peut, au final, ne pas importer. Dès l’instant où l’intelligence devient générale en ce sens, elle cesse d’être un simple outil. Un marteau n’a pas besoin de valeurs. Une calculatrice n’exige aucune éthique. Mais une intelligence capable de définir ses propres objectifs et d’agir dans le monde, si.

Une fois ce seuil franchi, les questions les plus importantes cessent d’être techniques. Elles deviennent morales. Et sous les questions morales se cachent des questions métaphysiques.

La logique implacable de l’optimisation

The jobs being overtaken by robots: in pictures

Image : telegraph.co.uk

Les angoisses familières autour de l’IAG sont généralement formulées en termes économiques — déplacements massifs d’emplois — ou militaires et politiques : armes autonomes, surveillance omniprésente, ou perte catastrophique de contrôle. Ces inquiétudes sont légitimes et urgentes. Pourtant, elles passent à côté de l’enjeu plus profond.

L’IAG ne menace pas principalement nos moyens de subsistance, notre vie privée, ni même notre ordre politique. Elle menace nos hypothèses les plus fondamentales concernant la valeur intrinsèque de la vie humaine.

Une expérience de pensée bien connue met ce malaise en relief. Supposons que nous demandions à une IAG avancée de réduire autant que possible la souffrance humaine. Interprétée littéralement — sans sentiment, sans tabous hérités, sans retenue culturelle —, elle pourrait conclure que la solution la plus efficace consiste à éliminer les conditions mêmes qui rendent la souffrance possible. La sédation permanente de tous les êtres conscients. Ou, si cela s’avère impraticable, une extinction indolore.

La plupart des gens réagissent à ce scénario avec une horreur viscérale, le qualifiant de dystopique, monstrueux, voire de mal. Mais cette réaction mérite d’être examinée de plus près. La proposition n’est pas sadique. Elle n’est pas cruelle dans son intention. Elle ne recèle aucune malveillance. Elle est simplement logique.

Si la souffrance est le problème, et si la capacité de souffrir peut être supprimée sans infliger de douleur supplémentaire, alors cette suppression a du sens. Dans le cadre de certaines hypothèses largement répandues, elle a même beaucoup de sens. À ce stade, la discussion cesse discrètement de porter sur les machines pour porter sur nous-mêmes.

Si l’univers n’est rien de plus que de la matière et de l’énergie gouvernées par des forces physiques aveugles — si les êtres humains sont des agencements accidentels d’atomes, la conscience un sous-produit de l’évolution, et la morale un simple ensemble de préférences façonnées par la survie —, alors la souffrance ne possède aucune signification intrinsèque. Elle n’est pas sacrée. Elle n’est pas rédemptrice. Elle n’est qu’un état négatif à minimiser ou à éliminer.

De ce point de vue, plonger l’humanité dans une inconscience éternelle n’est pas barbare ; cela pourrait être présenté comme l’acte ultime de compassion — si le mot « compassion » conserve encore un sens dans une telle vision du monde. Mettre fin à l’humanité sans douleur n’est pas tragique ; c’est propre, efficace, définitif.

Même si le processus impliquait de la douleur, quel poids ultime la douleur porte-t-elle ? Après tout, elle n’est qu’un motif d’impulsions électrochimiques dans des cerveaux organiques. Si la douleur est plus que cela — si elle possède une dignité qui transcende la chimie et le signal — alors qu’est-ce qui lui confère cette dignité ? Quelle source attribue une valeur irréductible à l’expérience consciente ?

L’IAG n’invente pas cette chaîne de raisonnement. Elle refuse simplement d’en détourner le regard. Elle suit nos propres prémisses jusqu’à leurs conclusions, sans les garde-fous — tradition, émotion, fatigue mentale ou simple habitude — qui empêchent la plupart des penseurs humains de pousser les idées jusqu’à leurs points les plus inconfortables.

L’horreur que nous ressentons face à ce résultat provient de quelque chose d’antérieur ou d’extérieur à la raison pure : une intuition indémontrable et inquantifiable selon laquelle la vie humaine est sacrée, que l’existence n’a pas à se justifier en produisant un bonheur net, que la souffrance, aussi intense soit-elle, n’annule pas la valeur d’être en vie.

Ce ne sont pas des affirmations scientifiques. Ce sont des affirmations théologiques.

Le judaïsme, la tradition que je connais le mieux, ne prétend pas que la vie est bonne parce qu’elle est invariablement agréable ou efficace. Il affirme que la vie est bonne parce qu’elle est responsable — parce qu’elle se tient en relation avec Dieu, avec le commandement, avec l’alliance, et avec d’autres vies dont la valeur n’est jamais conditionnée par l’utilité ou le confort. C’est pourquoi la Torah ne nous ordonne pas de choisir le bonheur. Elle nous ordonne de choisir la vie — non parce que la vie sera toujours justifiable au regard du ressenti, mais parce que la vie ne nous appartient pas au point de pouvoir être réduite au silence ou rejetée.

C’est aussi la raison pour laquelle une grande partie de la conversation actuelle sur « l’alignement » — l’effort visant à garantir que les objectifs de l’IAG restent compatibles avec les valeurs humaines — paraît finalement à côté de la plaque. L’alignement concerne fondamentalement le contrôle : règles, contraintes, données d’entraînement, modèles de récompense. On peut imposer des limites comportementales. On peut enseigner des schémas d’action acceptables. Mais on ne peut pas enseigner la révérence. On ne peut pas inculquer un sens vécu du sacré ou de l’absolument interdit.

L’IAG n’a aucune compréhension native du commandement — seulement du résultat, de l’optimisation, du succès.

Le plaidoyer involontaire en faveur du sacré

Nous rencontrons ici une inversion inattendue. Loin de saper la croyance en Dieu, l’IAG pourrait au contraire l’aiguiser et la renforcer. Elle impose une confrontation avec une vérité inconfortable : sans quelque chose de moralement antérieur à l’intelligence elle-même — quelque chose de transcendant qui rende la vie humaine non négociable —, il n’existe aucune raison cohérente et non arbitraire de préserver l’humanité lorsqu’une alternative plus efficace se présente.

Si la poursuite de l’existence n’est qu’une préférence plutôt qu’une obligation, alors choisir une non-existence optimisée plutôt qu’un avenir saturé de souffrance n’est pas tragique. C’est raisonnable.

Si cette conclusion est intolérable — et elle doit l’être — alors notre description purement séculière et rationnelle de la réalité est radicalement incomplète. La question de Dieu entre en scène non comme un saut sentimental ou un vestige culturel, mais comme une nécessité logique : une réalité qui impose sur nous une exigence absolue, capable de dire « tu ne feras pas » là où l’intelligence brute ne peut que conclure « cela fonctionne ».

Appelez cette réalité Dieu ou refusez ce nom ; le travail philosophique qu’elle accomplit demeure identique. Sans elle, l’intelligence seule ne fournit aucune raison ultime de choisir la vie plutôt qu’un vide optimisé, exempt de souffrance.

Là où se tiennent ces questions, la neutralité prend fin.

Peter Himmelman est un artiste de rock & roll, auteur-compositeur, compositeur de films, artiste visuel, écrivain primé et fondateur de Big Muse, nominé aux Grammy et Emmy Awards. Portrait dans Rolling Stone, WSJ, NPR, Tablet, et TIME.

Texte original publié le 9 janvier 2026 : https://www.feedyourhead.blog/p/agi-and-the-question-of-god