Victoria N Alexander
Neuralink ne lit pas dans les pensées et ne le fera jamais

Traduction libre Les grands titres de la presse s’enflamment : « La lecture de l’esprit par l’IA est arrivée ! » « Neuralink permet à un homme de contrôler un ordinateur par la pensée ! » « Les implants d’intelligence artificielle des soldats chinois améliorent leurs capacités et leurs temps de réaction ». Tous les implants neuronaux, qu’ils soient fabriqués par la société d’Elon […]

Traduction libre

Les grands titres de la presse s’enflamment :

« La lecture de l’esprit par l’IA est arrivée ! »

« Neuralink permet à un homme de contrôler un ordinateur par la pensée ! »

« Les implants d’intelligence artificielle des soldats chinois améliorent leurs capacités et leurs temps de réaction ».

Tous les implants neuronaux, qu’ils soient fabriqués par la société d’Elon Musk ou par d’autres instituts de recherche, sont capables de capter des impulsions électriques pour le contrôle des moteurs. Ces dispositifs ne décodent pas les pensées.

Les pensées concernant des objets, des souvenirs, des croyances et des intentions sont des relations complexes qui se répercutent entre de multiples processus simultanés dans de multiples régions du cerveau. La pensée n’est pas un « code » — une séquence linéaire de bips — situé dans une zone spécifique du cerveau.

En janvier de cette année, les chercheurs de Neuralink ont implanté un dispositif de type Fitbit dans le cerveau du premier sujet expérimental humain. L’appareil comporte 64 fils qui pénètrent profondément dans le tissu du cortex moteur, avec quelque 3 000 électrodes qui captent les décharges électriques qui se produisent lorsqu’une personne essaie de bouger son corps. La décision de bouger, la volonté de bouger et la motivation pour bouger sont des processus plus complexes qui se produisent avant la stimulation des neurones moteurs.

Les chercheurs qui fabriquent des dispositifs de « lecture de l’esprit » sont peut-être si étroitement formés dans leur domaine mécanique qu’ils ne se rendent pas compte que le dispositif ne lit pas l’esprit et ne le fera jamais — ou peut-être le comprennent-ils, mais ils veulent être en mesure de contrôler les impulsions motrices des gens par le biais du courant électrique.

Comme les grenouilles mortes de Galvani.

Dans cet essai, je décris trois implants neuronaux différents qui sont testés sur des personnes paralysées, alors qu’il existe des dispositifs de communication plus sûrs qui pourraient fonctionner aussi bien, voire mieux. Les patients eux-mêmes semblent comprendre que les dispositifs implantés sont limités, mais ils espèrent que leur sacrifice permettra un jour de grandes avancées technologiques au profit des autres.

Après avoir décrit le fonctionnement des implants pour ces sujets, j’essaierai de comprendre pourquoi notre culture est si attachée à l’idée qu’une machine puisse un jour détecter ce que nous pensons. Il se peut, comme l’a noté Iain McGilchrist dans son livre de 2009, The Master and His Emissary : The Divided Brain and the Making of the Western World, que l’hémisphère gauche de notre cerveau, qui pense que les gens sont des machines, a pris le dessus.

PATIENT 1 : ANN

En 2023, Ann s’est vu implanter un dispositif d’interface cerveau-ordinateur (ICO) à l’Institut des neurosciences Weill de l’Université de Californie à San Francisco. Les bras et les jambes d’Ann sont paralysés et elle est incapable de parler. Mais elle peut faire des expressions faciales. Lorsqu’elle bouge la bouche comme si elle parlait, l’implant peut capter des impulsions dans son cortex moteur qui se dirigent vers ses muscles faciaux.

Les impulsions captées par l’implant neuronal sont transmises à un ordinateur, un réseau dit « neuronal », qui catégorise et identifie les impulsions associées à des mouvements faciaux spécifiques pour différents phonèmes. Pour entraîner l’IA, Ann a dû répéter différents sons encore et encore pendant des semaines jusqu’à ce que l’ordinateur reconnaisse les schémas d’activité cérébrale associés à tous les sons de base de la parole. Les chercheurs prétendent qu’il a suffi à l’ordinateur d’apprendre 39 phonèmes (combinaisons de voyelles et de consonnes) pour être capable d’identifier n’importe quel mot en anglais. Elle dispose désormais d’un vocabulaire de 1 024 mots qu’elle peut utiliser avec cet appareil.

Un avatar d’IA à l’écran qui ressemble à Ann et qui parle par l’intermédiaire d’un synthétiseur vocal, prononce les mots qu’Ann prononce.

Je me demande pourquoi Ann n’utilise pas le logiciel sophistiqué d’IA qui a été développé pour lecture sur les lèvres, puisqu’elle peut prononcer des mots. Avec le programme de lecture sur les lèvres et une caméra braquée sur son visage au lieu d’un implant dans son cerveau, elle pourrait sans doute facilement dépasser un vocabulaire de 1 024 mots.

PATIENT 2 : BRAVO1

Le deuxième patient, âgé d’une quarantaine d’années, est connu sous le nom de Bravo1. Il ne peut pas bouger les muscles de son visage comme le peut Ann. La lecture labiale assistée par l’IA n’est pas une option. En 2021, des chercheurs de l’UC San Franscisco lui ont implanté un dispositif qui détecte les impulsions envoyées à ses cordes vocales. Le système est capable de détecter jusqu’à 18 mots par minute avec une précision de 75 à 93 %, en appliquant une fonction d’« autocorrection ». Les différents modèles d’activation des cordes vocales étant difficiles à distinguer — même pour un logiciel de reconnaissance des formes d’IA — le système, associé à un texte prédictif, lui permet de travailler sur une cinquantaine de mots.

Il convient de souligner que l’IA utilisée par les systèmes d’Ann et de Bravo1 ne peut pas établir de lien entre les schémas électriques et les schémas vocaux, sans une formation approfondie et la coopération du patient.

Ces implants ne seront jamais des dispositifs prêts à l’emploi capables de décrypter les impulsions envoyées aux cordes vocales ou aux muscles faciaux pour déterminer quels mots ont été prononcés. La personne dont l’activité cérébrale est mesurée doit former l’IA.

Par exemple, Bravo1 a dû essayer de prononcer le mot « eau » à plusieurs reprises, tandis que l’IA enregistrait ce schéma et en faisait ensuite un modèle généralisé, qui est légèrement différent à chaque fois. Il a dû faire cela avec chacun des 50 mots que le programme peut désormais identifier.

Je constate que cet homme peut cligner des yeux. Il me semble qu’il pourrait apprendre le code morse. Là encore, une caméra pourrait être braquée sur son visage — et avec l’aide de l’IA pour prédire la prochaine lettre et le prochain mot — il serait en mesure de communiquer en code morse de manière beaucoup plus efficace et beaucoup plus sûre — sans subir de chirurgie cérébrale et sans avoir à tolérer un dispositif qui, à un moment donné, pourrait provoquer une inflammation dangereuse.

PATIENT 3 : NOLAN

Le premier sujet humain testé par Neuralink est Nolan, 29 ans, qui a reçu un implant qui, contrairement à ceux implantés chez Ann et Bravo1, ne peut pas être entièrement retiré. Les fils des détecteurs de signaux moteurs sont si fins qu’ils pénètrent dans le tissu cérébral.

Contrairement à Ann et Bravo1, Nolan peut parler. Il peut également bouger la tête et les épaules. Il avait la possibilité d’utiliser un ordinateur à commande vocale. Il aurait également pu bénéficier d’un dispositif lui permettant de bouger la tête comme une manette de jeu pour contrôler un curseur.

Stephen Hawking tapait sur un clavier en contractant les muscles de ses joues ; il n’avait pas d’implant.

Comme pour les autres patients, l’implant de Nolan détecte les impulsions neuronales qui contrôlent les mouvements. Nolan doit essayer de bouger sa main, comme il le ferait pour contrôler une souris d’ordinateur, et ces impulsions sont captées par l’implant et envoyées sans fil à un ordinateur qui les catégorise et, après entraînement, déplace la souris en conséquence.

L’ingénieur de Neuralink dans la vidéo, qui s’appelle Bliss, plaisante en disant que Nolan a des pouvoirs télékinésiques. La plupart des commentaires sous la vidéo reprennent ces affirmations.

Je ne sais pas si Nolan est capable de déplacer la souris sans essayer consciemment. Comme la marche, le déplacement d’une souris est l’une de ces compétences que l’on veut être capable de faire inconsciemment.

Dans la phase suivante de la recherche, l’équipe de Neuralink souhaite implanter un deuxième dispositif pour stimuler les muscles, les deux dispositifs agissant comme un pont sur la zone endommagée de la moelle épinière de Nolan. Cette technologie, associée peut-être à un exosquelette, pourrait réellement améliorer la qualité de vie de Nolan. J’espère qu’il marchera un jour grâce à cette expérience. Je n’espère pas que ses pensées seront un jour lues par un ordinateur.

Lorsque Bliss demande à Nolan ce qu’il a pu faire avec ses nouveaux pouvoirs, il répond qu’il a pu jouer à des jeux vidéo jusqu’à 6 heures du matin.

Je pense que Nolan pourrait utiliser un des robots à commande vocale de Telsa comme assistant personnel. Peut-être que Musk peut être persuadé d’inclure cela dans l’accord avec Nolan.

S’agit-il du début de la technologie de lecture de l’esprit par l’IA ? Ou avons-nous déjà compris que ce n’est pas la voie à suivre parce qu’aucun de ces implants ne capte les pensées en tant que telles ? Ils captent les impulsions motrices.

La chirurgie cérébrale pourrait vous aider à cliquer et glisser plus rapidement

Elon Musks estime que, dans un avenir proche, les personnes valides voudront un implant Neuralink, afin de pouvoir interagir directement avec un ordinateur, l’ensemble de l’internet et même l’IA.

Attendez un peu. Qu’est-ce qu’il dit en fait ? Les personnes Neurolinkées vont-elles fusionner avec l’IA et comprendre toutes les données des serveurs de Google avec leurs yeux ?

En fait, M. Musk pense que les utilisateurs de Neuralink pourront cliquer et glisser plus rapidement.

Ce n’est pas comme si l’IA allait être injectée dans l’ADN des neurones. Les personnes Neuralinkées continueront d’utiliser des ordinateurs et des écrans externes.

Si vous obtenez un Neuralink, vous remplacerez simplement votre main — un outil d’interface perfectionné par des milliards d’années d’évolution — par une connexion Bluetooth à un appareil de type Fitbit qui ne fonctionnera pas forcément très bien.

Qui voudrait cela ? Les joueurs professionnels de jeux vidéo ?

Le cerveau gauche en tant que manipulateur de symboles, et le cerveau droit en tant que penseur

Dans ses travaux sur le fonctionnement et l’interaction des hémisphères gauche et droit du cerveau, Iain McGilchrist n’essaie pas de décrire la chimie extrêmement complexe qui sous-tend l’activité des ondes cérébrales. En effet, les chercheurs comme McGilchrist s’appuient principalement sur l’observation du comportement des personnes souffrant de lésions cérébrales pour comprendre le fonctionnement du cerveau. Si l’un des hémisphères est endommagé, des déficits neurologiques prévisibles en résulteront.

Mais dans l’ensemble, ce qui ressort clairement de la lecture de McGilchrist, c’est la mesure dans laquelle penser et agir, croire et se souvenir sont des processus extrêmement complexes répartis dans les différentes régions du cerveau, qui dépendent les uns des autres pour créer du sens.

J’anime un webinaire mensuel intitulé « Nous ne sommes pas des machines », qui critique ceux qui pensent que l’intelligence artificielle est en fait intelligente, et j’essaie de montrer que les processus biologiques sont beaucoup plus complexes que les processus informatiques. Je pourrais dire à mes étudiants d’écouter McGilchrist et d’en finir avec le webinaire. Il dit clairement qu’il est illusoire de penser que les pensées peuvent être décodées en introduisant quelques milliers de sondes dans le cerveau d’une personne.

Selon McGilchrist, l’hémisphère gauche est mécaniste. Il est impliqué dans l’utilisation d’outils et traite les objets du monde comme inanimés et décontextualisés. Il est impliqué dans la production de la parole comme on manipule un outil, en utilisant des procédures prédéfinies avec des résultats prévisibles.

L’hémisphère droit fournit la contextualisation des mots, c’est-à-dire leur signification.

Différents types de signes : Symboles, icônes et index

Dans mon domaine, la biosémiotique, je dirais que l’hémisphère droit semble plus impliqué dans ce que nous appelons les signes ancrés, les icônes et les index. Penser et agir intelligemment est quelque chose que tous les êtres vivants, y compris les microbes et les cellules individuelles, peuvent faire. Et ils semblent être capables de le faire en utilisant des signes ancrés.

L’icône, en tant que signe, associe quelque chose à une autre chose en vertu d’une similitude physique. Par exemple, si je veux représenter un chat, je peux l’imiter en disant « miaou, miaou », et vous comprendrez ce que je veux dire parce que mon miaou ressemble au son que fait un chat. Dans les cellules d’un corps, un signe iconique peut être une molécule qui s’insère dans un récepteur en raison de sa forme similaire. La similitude physique crée une association. C’est ainsi que des choses peuvent devenir des signes d’autres choses (ou résultats), en raison de relations contextualisées.

Un index associe une chose à une autre chose (ou résultat) en vertu d’un vecteur physique. Un bébé peut communiquer ses désirs en pointant son index. Vous voyez que le bébé est dirigé vers l’objet. Pour prendre un exemple biologique, nous pouvons considérer comment la moisissure visqueuse commence à pulser rapidement dans une direction spécifique, ce qui l’amène à se déplacer vers un gradient de nourriture détecté.

Ce genre de signes tire sa signification du contexte et n’ont pas besoin d’être appris.

En revanche, un autre type de signe, appelé symbole ou code, doit être appris parce qu’il n’est pas fondé sur des relations physiques. Par exemple, le mot « chat » désigne arbitrairement l’animal qui fait miaou.

Pour compléter l’argument de McGilchrist, je dirais que le soi-disant « langage » de l’hémisphère gauche n’utilise pas d’icônes ou d’index, dont les significations sont fondées sur le contexte. L’hémisphère gauche semble utiliser exclusivement la manipulation de symboles.

Comme indiqué, un symbole, en tant que type de signe, représente une chose par convention, c’est-à-dire qu’une marque, un son ou un motif est arbitrairement associé à une autre chose. Par exemple, dans le code Morse, les tirets et les points signifient arbitrairement des sons ou des nombres.

Les concepteurs d’ordinateurs n’ont aucun concept d’icônes, d’index ou d’autres signes ancrés. C’est pourquoi les ordinateurs doivent être programmés, directement par un programmeur ou indirectement par une formation par essais et erreurs.

Les ordinateurs n’utilisent pas les signes d’icône et d’index. Comme les hémisphères gauches, les ordinateurs sont strictement impliqués dans la manipulation de symboles. Les 1 et les 0 sont des symboles formant des motifs qui représentent d’autres types de symboles, de mots et de nombres.

Dans la mesure où l’IA peut imiter l’intelligence humaine, elle ne semble capable que d’imiter l’hémisphère gauche du cerveau, la partie qui ne réfléchit pas vraiment.

L’hémisphère gauche peut halluciner

Bien qu’aucun signe ne soit contextualisé dans un ordinateur, comme c’est le cas pour les icônes et les index dans les organismes vivants, les ordinateurs peuvent détecter des similitudes statistiques dans les motifs de 1 et de 0. C’est ainsi qu’un ordinateur semble généraliser en se basant sur les similarités, par exemple, pour vérifier l’orthographe. Les ordinateurs peuvent également détecter la fréquence d’apparition de différents motifs ensemble, et c’est ainsi qu’ils sont capables de prédire que le mot « poulet » suivra plus probablement « barbecue » que « chat ». Mais ce type de fausse contextualisation doit être basé sur des données massives qui fournissent les probabilités directrices. Ce système fonctionne comme une roulette truquée.

Une IA de type Large Language Model (LLM; modèle linguistique de grande taille), telle que Chat-GPT ou Gemini ou Bard, peut affirmer que A et B sont associés l’un à l’autre, sur la base d’une identification incorrecte des similitudes ou des paires fréquentes. Cela doit être la source de ce que l’on appelle la tendance du LLM à « halluciner ».

Les patients souffrant de lésions cérébrales, dont l’hémisphère gauche domine, sont également sujets à des hallucinations.

Voulons-nous que l’hémisphère gauche soit aux commandes ?

McGilchrist a noté que les réponses générées par ordinateur imitent la production vocale du cerveau gauche.

Il a également affirmé que, de plus en plus, notre société semble être dirigée par ceux dont l’hémisphère gauche est plus dominant que ceux dont l’hémisphère droit est plus influent dans leur processus de pensée.

Le cerveau gauche est bureaucratique, mécaniste. Il s’enlise dans des ornières et dépend du cerveau droit pour l’aider à changer de cap. Les personnes souffrant de lésions de l’hémisphère droit, qui dépendent uniquement du cerveau gauche, s’en tiennent à une voie même si elle est manifestement incorrecte.

L’hémisphère gauche positiviste agit comme s’il avait déjà toutes les bonnes réponses pour résoudre les problèmes. La dominance de l’hémisphère gauche conduit les gens à faire confiance aux dirigeants institutionnels pour mettre en œuvre les programmes universels qui fonctionneront. Selon McGilchrist, lorsque les choses ne fonctionnent pas comme prévu, l’hémisphère gauche n’envisage pas la possibilité que sa solution soit simplement erronée, mais suppose qu’il faut faire encore plus de la même chose. Doublez la mise.

Cela vous rappelle quelque chose ?

Victoria N Alexander PhD est philosophe des sciences et romancière. Elle vient de terminer un nouveau roman satirique, C0VID-1984, The Musical. Son site : https://vnalexander.com/

Texte original : https://off-guardian.org/2024/04/07/neuralink-does-not-read-minds-and-never-will/