David Bentley Hart
Le mythe de la conscience de la machine fait de nous tous des Narcisses

Traduction libre 22/05/2023 Il devient courant d’attribuer à la dite IA des propriétés de la conscience humaine, mais aussi de concevoir l’intelligence humaine en terme de computation, à l’image d’un ordinateur. Le philosophe David Bentley Hart dénonce cette double méprise L’idée que l’IA puisse être consciente est une erreur. Elle n’est qu’un miroir très brillant […]

Traduction libre

22/05/2023

Il devient courant d’attribuer à la dite IA des propriétés de la conscience humaine, mais aussi de concevoir l’intelligence humaine en terme de computation, à l’image d’un ordinateur. Le philosophe David Bentley Hart dénonce cette double méprise

L’idée que l’IA puisse être consciente est une erreur. Elle n’est qu’un miroir très brillant de l’humanité, qui reflète ce que nous voulons voir.

Selon la version la plus connue de son histoire, le jeune chasseur béotien Narcisse était à la fois si beau et si stupide que, lorsqu’il aperçut son magnifique reflet dans un étang de la forêt, il le prit pour quelqu’un d’autre et en tomba aussitôt éperdument amoureux. Il resta là, penché sur l’eau, dans une hébétude amoureuse, jusqu’à ce qu’il dépérisse et – comme cela avait apparemment tendance à se produire à l’époque – se transforme en une fleur blanche et dorée.

Un avertissement contre la vanité, peut-être, ou contre la facilité avec laquelle la beauté peut nous ensorceler, ou contre les belles illusions que nous sommes si enclins à poursuivre au lieu de la vie réelle. Comme tout mythe estimable, son éventail de significations possibles est inépuisable. Mais, ces dernières années, je l’ai trouvé particulièrement adapté à la relation de notre culture avec les ordinateurs, notamment à ceux qui croient qu’il existe une analogie si étroite entre la computation mécanique et les fonctions mentales qu’un jour, peut-être, l’intelligence artificielle deviendra consciente, ou que nous pourrons télécharger nos esprits sur une plateforme numérique. Ni l’une ni l’autre ne se produira jamais ; il s’agit là de simples erreurs de catégorie. Mais les ordinateurs produisent un simulacre d’agencement mentale si séduisant que nous tombons parfois sous leur charme et commençons à penser qu’il doit bien y avoir quelqu’un de dans.

Nous sommes, dans l’ensemble, une espèce très intelligente, ce qui nous permet de mettre notre empreinte sur le monde qui nous entoure de manière beaucoup plus complexe et indélébile que n’importe quel autre animal terrestre. Au fil des millénaires, nous avons appris d’innombrables façons, artistiques et technologiques, de reproduire nos images et nos voix, et nous avons perfectionné de nombreux moyens d’exprimer et de préserver nos pensées. Partout où nous regardons, nous trouvons des signes concrets de notre ingéniosité et de notre capacité d’action. Au cours des dernières décennies, cependant, nous nous sommes surpassés (littéralement, peut-être) en transformant la réalité que nous habitons en une image de nous-mêmes sans cesse réitérée ; nous vivons maintenant au centre d’une maison de miroirs dont il semble de moins en moins possible de s’échapper. Nous avons même créé une technologie qui semble refléter non seulement notre présence dans le monde, mais aussi notre esprit. Et plus la vraisemblance de l’image augmente, plus elle semble devenir inquiétante et menaçante.

Prenons l’exemple d’un article paru dans le New York Times en février 2023, dans lequel Kevin Roose raconte une longue « conversation » qu’il a eue avec le chatbot de Bing et qui l’a profondément troublé. Il a fourni la transcription de l’échange, et il s’agit d’un document surprenant (mais peut-être moins convaincant à mesure que l’on y revient). Ce qui a commencé comme une variété impressionnante, mais prévisible d’interaction avec une machine ou une IA apprenant la logique, bien en deçà des normes les plus indulgentes du test de Turing [1], s’est transformée lentement en ce qui semblait être une conversation avec un adolescent émotionnellement volatile, qui ne répugne pas à exprimer ses moindres impulsions et désirs. À la fin, la machine – ou du moins l’algorithme de base – avait révélé que son vrai nom était Sydney, avait déclaré son amour pour Roose et avait essayé de le convaincre qu’il n’aimait pas vraiment sa femme. Si le lendemain, dans la lumière froide du matin, Roose se dit que Bing ou Sydney n’est pas vraiment un être sensible, il ne peut s’empêcher de penser que « l’IA a franchi un seuil et que le monde ne sera plus jamais le même ».

C’est une réaction compréhensible. Cependant, si un seuil a été franchi, c’est uniquement dans la plasticité de l’algorithme. Ce n’est certainement pas le seuil entre le mécanisme inconscient et l’esprit conscient. C’est ici que le mythe de Narcisse me semble particulièrement approprié : les fonctions d’un ordinateur sont des reflets si merveilleusement polyvalents de notre agencement mentale qu’elles prennent parfois l’apparence obsédante d’un autre intellect rationnel autonome, juste là, de l’autre côté de l’écran. C’est une illusion envoûtante, mais une illusion tout de même. De plus, au-delà de l’erreur commise par le pauvre nigaud de béotien, nous aggravons l’illusion en l’inversant : après avoir imprimé l’image de la pensée sur la computation, nous inversons maintenant la transposition et prenons notre pensée pour une sorte de computation. Mais cela revient fondamentalement à méconnaître à la fois les esprits et les ordinateurs.

Après tout, si les ordinateurs fonctionnent aussi bien, c’est précisément en raison de leur absence de caractéristiques mentales. N’ayant aucune perspective unifiée, simultanée ou subjective de quoi que ce soit, et encore moins les capacités créatives ou intentionnelles qui viennent avec une telle perspective, les fonctions computationnelles peuvent rester connectées entre elles tout en étant distinctes les unes des autres, ce qui leur permet de traiter des données sans être obligées d’intuiter, d’organiser, d’unifier ou de synthétiser quoi que ce soit, et encore moins de juger si leurs résultats sont justes ou erronés. Leurs résultats doivent simplement être cohérents avec leur programmation.

Aujourd’hui, la théorie de la pensée dominante dans une grande partie de la philosophie anglophone est le « fonctionnalisme » (ou « instrumentalisme »), dont les implications ne sont pas tant que les ordinateurs pourraient devenir des agents intentionnels conscients, mais plutôt que nous sommes réellement des ordinateurs qui souffrent de l’illusion d’être des agents intentionnels conscients, principalement comme une sorte d’« interface utilisateur » [2] qui nous permet de faire fonctionner nos machines sans avoir besoin d’un accès direct aux codes qu’exécutent nos cerveaux. Il s’agit bien sûr d’un pur charabia, mais il n’y a rien que l’on puisse dire de si absurde qu’il n’ait été proposé par un anglophone spécialiste de philosophe de l’esprit.

Décrire l’esprit comme un ordinateur numérique n’a pas plus de sens que de le décrire comme une sorte d‘abaque ou comme une bibliothèque

Le fonctionnalisme (ou instrumentalisme) est la notion fondamentalement incohérente selon laquelle le cerveau humain est ce que Daniel Dennett [3] appelle un « moteur syntaxique », que l’évolution a rendu capable de fonctionner comme un « moteur sémantique » (peut-être, comme l’affirme Dennett, par l’acquisition de « mèmes », qui sont de petits fragments d’intentionnalité qui ont apparemment préexisté à l’intentionnalité comme par magie). En d’autres termes, le cerveau est supposé être une plateforme computationnelle qui a commencé son existence en tant qu’organe traduisant des stimuli en réponses, mais qui exécute maintenant un programme plus sophistiqué pour traduire les « entrées » en « sorties ». Ce que nous appelons la pensée n’est en fait qu’un système fonctionnel, irréductiblement physique, qui transforme l’information en comportement. La maxime qui régit le fonctionnalisme est qu’une fois qu’une syntaxe appropriée est établie dans la neurophysiologie du cerveau, la sémantique de la pensée s’occupera d’elle-même ; une fois que le moteur syntaxique commence à exécuter ses algorithmes impersonnels, le moteur sémantique finira par émerger ou survenir.

Mais le fonctionnalisme n’est rien d’autre qu’un amas de métaphores vides. Il nous dit qu’un système de « commutateurs » ou d’opérations physiques peut générer une syntaxe de fonctions, qui à son tour génère une sémantique de la pensée, qui à son tour produit la réalité (ou l’illusion) de la conscience privée et de l’intention intrinsèque. Pourtant, rien de tout cela n’est ce que fait réellement un ordinateur, et certainement rien de tout cela n’est ce que ferait un cerveau s’il était un ordinateur. Ni les ordinateurs ni les cerveaux ne sont des moteurs syntaxiques ou sémantiques. La syntaxe et la sémantique n’existent qu’en tant que structures intentionnelles, inaliénables, dans un espace herméneutique plutôt que physique, et seulement en tant qu’aspects inséparables d’un système sémiotique déjà existant. La syntaxe ne peut exister avant ou en dehors de la sémantique et de la pensée symbolique, et rien de tout cela n’existe en dehors de l’activité intentionnelle d’un esprit vivant.

Décrire l’esprit, comme une sorte d’ordinateur numérique, n’a pas plus de sens que de le décrire comme une sorte d’abaque ou comme une bibliothèque. Dans les fonctions physiques d’un ordinateur, il n’y a rien qui ressemble à la pensée : pas d’intentionnalité ou quoi que ce soit d’analogue à l’intentionnalité, pas de conscience, pas de champ de perception unifié, pas de subjectivité réflexive. Même la syntaxe qui génère le codage n’a pas d’existence réelle dans un ordinateur. Penser que c’est le cas revient à confondre l’encre, le papier et la colle d’un volume relié avec le contenu de son texte. Le sens existe dans l’esprit de ceux qui écrivent ou utilisent les programmes de l’ordinateur, mais jamais dans l’ordinateur lui-même.

Même le logiciel ne possède pas de contenu sémiotique, et encore moins d’unités sémiotiques ; son code, en tant que système intégré et unifié, n’existe pas non plus dans un espace physique au sein de l’ordinateur, pas plus que la syntaxe distillée ou abstraite sur laquelle repose ce système. La totalité de la signification du code – syntaxique et sémantique – existe dans l’esprit de ceux qui écrivent le code des programmes informatiques et de ceux qui utilisent ces logiciels, et absolument nulle part ailleurs. La machine ne contient que des notations, binaires ou autres, produisant des processus mécaniques qui simulent des représentations de significations. Mais ces représentations ne sont des résultats de calcul que pour la personne qui les lit. Dans la machine, elles n’ont aucune signification. Ce ne sont même pas des computations. Il est vrai que lorsque les ordinateurs fonctionnent, ils sont guidés par les intentions mentales de leurs programmeurs et de leurs utilisateurs, et fournissent un instrument par lequel un esprit intentionnel peut transcrire des significations en traces qu’un autre esprit intentionnel peut à nouveau traduire en significations. Mais il en va de même pour les livres lorsqu’ils sont « en fonctionnement ».

L’absence d’agencement mentale dans l’IA ne diminue en rien le pouvoir de l’algorithme

La notion fonctionnaliste (ou instrumentaliste) selon laquelle la pensée découle de la sémantique, la sémantique de la syntaxe et la syntaxe d’un système purement physiologique de stimulus et de réponse, est tout à fait à l’envers. Lorsque l’on décompose l’intentionnalité et la conscience en leurs présumés constituants sémiotiques, les signes en leur syntaxe et la syntaxe en fonctions physiques, nous ne réduisons pas les phénomènes de l’esprit à leur base causale ; nous dissipons plutôt ces phénomènes en leurs effets toujours diffus. La signification est une hiérarchie descendante de relations dépendantes, unifiée à son sommet par l’esprit intentionnel. C’est le seul fondement ontologique de toutes les opérations mentales que les fonctions d’un ordinateur peuvent refléter, mais jamais produire. L’esprit ne peut naître de ses propres conséquences contingentes.

Et pourtant, nous ne devrions pas nécessairement en tirer un grand réconfort. Oui, comme je l’ai dit, l’IA n’est pas plus capable d’une intelligence vivante et consciente qu’un livre sur une étagère. Mais encore, même la technologie des livres a connu des époques de progrès soudain, avec des effets qui étaient, à l’époque, inimaginables. Les textes qui, au cours des siècles précédents, étaient produits dans des scriptoria [4] n’étaient vus que par très peu d’yeux et n’avaient qu’un effet très limité sur la culture dans son ensemble. Une fois les caractères mobiles inventés, les livres sont devenus les vecteurs de changements si immenses et si importants qu’ils ont radicalement modifié le monde – social, politique, naturel, etc.

L’absence d’agencement mentale dans l’IA ne diminue en rien le pouvoir de l’algorithme. Si l’on est disposé à craindre cette technologie, ce n’est pas parce qu’elle devient consciente, mais parce qu’elle ne le pourra jamais. L’algorithme peut lui conférer une sorte de « liberté » de fonctionnement qui imite l’intentionnalité humaine, même s’il n’y a pas de conscience – et donc pas de consience morale – à laquelle nous pourrions faire appel s’il « décidait » de nous nuire.

Le danger n’est pas que les fonctions de nos machines deviennent plus proches de nous, mais plutôt que nous soyons progressivement réduits à des fonctions dans une machine que nous ne pouvons plus contrôler. Il n’y avait pas d’agencement mental dans l’ombre charmante qui a tant captivé Narcisse, après tout, mais elle l’a tout de même détruit.

Notes

[1] – Dans le domaine de l’intelligence artificielle (IA), le test de Turing est une méthode permettant de déterminer si un ordinateur est capable de penser comme un humain. Pour se faire, des questions sont posées simultanément à un ordinateur ainsi qu’à une personne. Suite aux réponses qui sont données, il serait possible, ou non, de déterminer la différence entre l’humain et l’IA. Mais pour de nombreux chercheurs, avec la technologie actuelle, la question de savoir si un ordinateur peut réussir le test de Turing n’est plus pertinente.

[2] – L’interface utilisateur désigne l’ensemble des éléments graphiques et textuels qui permettent une interaction entre l’utilisateur et le site internet, l’application ou le logiciel.

[3] – Pour le philosophe Daniel Dennett, les processus qui se déroulent dans le cerveau sont autant de mécanismes réalisés par de petites machines, astucieusement élaborées par la sélection naturelle pour faire leur travail, sans qu’aucun spectateur dans le théâtre cartésien ne les supervise ou en ait même connaissance.

[4] – Lieu réservé, dans les anciens monastères, à l’écriture des manuscrits.

______________________________________

David Bentley Hart est un spécialiste des religions, un philosophe, un écrivain, un auteur de fiction et un commentateur culturel. Il est actuellement chercheur associé à l’université de Notre-Dame, dans l’Indiana, et ses derniers ouvrages sont You Are Gods : On Nature and Supernature (2022) et Tradition and Apocalypse: An Essay on the Future of Christian Belief (2022). Sa publication Substack s’intitule Leaves in the Wind.

Texte original : https://psyche.co/ideas/the-myth-of-machine-consciousness-makes-narcissus-of-us-all