Intelligence Virtuelle
Quiconque a déjà assisté à un grand concert conviendra que la musique enregistrée ne pourra jamais égaler l’expérience d’une performance en direct. Pourtant, la différence essentielle est difficile à cerner. Il ne s’agit pas seulement d’être ensemble avec d’autres personnes. On pourrait rassembler mille personnes devant des enceintes géantes et passer un album enregistré, et ce ne serait en rien comparable à un concert en direct.
L’élément essentiel et irremplaçable de la grande musique live est que le groupe chante pour l’audience — pour cette audience, à ce moment précis. La musique est le vecteur d’une communication unique et personnelle. Certes, parfois, le groupe livre une prestation mécanique, indifférent à la réaction du public, qui ressent alors invariablement une pointe de déception. Le groupe n’était pas au meilleur de sa forme, pourrait-on penser. Mais dans ses meilleurs instants, les artistes sont en dialogue avec le public, répondant à son énergie, jouant différemment de ce qu’ils ont fait auparavant ou de ce qu’ils feront après. Tant le groupe que le public se souviennent avec affection d’un grand concert, et ce qui fait la grandeur d’un concert n’est ni un système de sonorisation de premier ordre ni la précision technique des musiciens. Donnez l’enregistrement de cette prestation à quelqu’un d’autre, l’écoutant à un autre endroit et un autre moment, et l’effet peut ne pas être le même.
« Il fallait y être », dit-on.
Il n’y a pas si longtemps — un siècle ou deux —, toute la musique était jouée en direct. Chanter au bistrot. La sérénade d’amoureux. Une berceuse. Se rassembler après le dîner autour du piano. Chants de travail dans les champs. Chansons d’enfants dans la cour de récréation. Opéras, musique de chambre, quatuors de barbiers, chorales d’église, orchestres symphoniques. Dans chacune de ces circonstances, quelqu’un jouait ou chantait pour quelqu’un d’autre.
Aujourd’hui, de telles expériences sont un plat rare dans le régime musical de la société moderne. Ce régime ne nourrit pas l’être humain. Il favorise une sorte de confusion, voire un sentiment de trahison. Un million d’années d’expérience disent : « Quelqu’un chante pour moi ». Il doit y avoir un groupe à l’intérieur de la radio, mais non. La chanson a été chantée à un lieu et un moment complètement déconnectés de moi. Et donc, je me sens un peu floué.
S’il vous plaît, n’interprétez pas ceci comme signifiant que nous ne devrions pas écouter de la musique enregistrée. Elle peut divertir, apporter joie et inspiration, susciter des émotions, évoquer des souvenirs. C’est certainement mieux que pas de musique du tout. Cependant, quand elle supplante la musique live, la vie s’appauvrit un peu plus qu’elle ne l’est déjà dans le monde moderne. Elle s’appauvrit de réalité. Quand quelqu’un joue en direct, même si ce n’est que mon fils qui pratique ses gammes, la boucle de la source à l’oreille et retour à la source — le voilà ! — est complète. Ce que mon oreille me dit être ici est réellement ici. Je n’« entends pas des choses ».
On pourrait appeler la musique enregistrée « musique virtuelle ». Elle a toute l’apparence auditive de la musique, mais aucun instrument n’est joué ni de note chantée. C’est d’autant plus vrai pour la musique produite par synthétiseur. Non seulement il n’y a pas de main qui gratte la guitare en ce moment, mais il n’y en a jamais eu.
Ce qui est vrai pour la musique l’est pour tout son enregistré. Pendant que j’écris ceci, je porte parfois mon attention aux grillons qui chantent dehors, près de ma fenêtre. Mon oreille les suit dans la nuit. Mon expérience serait-elle différente en écoutant des grillons enregistrés ? La différence pourrait être indiscernable pour l’oreille humaine, sauf que les grillons ne chantent pas de la même façon tout le temps : ils accélèrent ou ralentissent selon la température et d’autres variables. L’oreille entraînée pourrait remarquer des tonalités différentes en début ou en fin de saison, ou après la pluie. Et les vrais grillons cessent de chanter lorsqu’une personne ou un animal s’approche. Un auditeur attentif peut apprendre beaucoup de choses sur ce qui se passe dehors en écoutant les grillons. Cette expérience ancre davantage l’auditeur dans le monde, l’insère dans une matrice de connexions. On peut « fermer la boucle » en sortant et en trouvant le grillon.
On trouve des enregistrements haute fidélité des sons de la forêt amazonienne. C’est comme si l’on se trouvait au milieu de la jungle — mais on n’y est pas. Les mots clés ici sont « comme si ». Comme si vous étiez dans la jungle. Vos oreilles vous disent que vous y êtes. Écoutez, un jaguar rôde à proximité. Mais non, il n’y en a pas. Quand j’écoute de tels enregistrements, quelque chose m’empêche de m’immerger complètement — le même instinct, peut-être, qui me rend méfiant envers les escrocs sur Internet. On ressent la présence d’un mensonge.
Tout ce qui précède s’applique également aux images. J’ai traité ce sujet en profondeur dans un essai antérieur, « L’Intelligence à l’ère de la reproduction mécanique », un hommage à Walter Benjamin. En regardant YouTube, l’œil nous dit : « Il y a un chaton là ». Regardez, il donne des coups à une balle de ping-pong. Mais il n’y a pas de chaton. Cela était bien sûr vrai aussi pour les peintures à l’huile, mais la peinture elle-même restait un objet physique unique. (Avant l’apparition des technologies d’enregistrement, il était également possible d’imiter les sons). Quoi qu’il en soit, avec les images et les vidéos générées par ordinateur, ce que nous voyons à l’écran n’est pas seulement séparé de nous dans l’espace et le temps ; cela n’a jamais existé en premier lieu. L’œil nous dit une chose (chaton), tandis que la raison nous dit autre chose (pas de chaton).
Grâce à la technologie d’enregistrement audiovisuel, et encore plus grâce à l’IA générative, nous apprenons l’habitude de nous distancier de ce que nous voyons et entendons. Ce sont des sens qui établissent notre présence dans le monde. Pas étonnant que tant de gens se sentent si perdus ici.
La personne qui vit dans un environnement où la tromperie est omniprésente apprend à ne faire confiance à rien. Cela a des conséquences politiques et psychologiques graves. Une conséquence politique sérieuse est que nous ne faisons plus confiance aux preuves photographiques ou vidéo de crimes contre l’humanité. Cette méfiance confère aux crimes un bouclier qui permet leur déroulement au vu et au su du public. Automatiquement, nous remettons en question tout ce que nous voyons à l’écran, sachant à un certain niveau que ce n’est pas réel — au sens où il n’y a pas de chaton qui gambade juste là ; que ce que nous voyons n’est pas en train de se produire maintenant. (Ou, dans le cas d’images générées par ordinateur, n’arrive pas du tout.) Nous nous sommes, en d’autres termes, accoutumés et insensibles à ce que l’écran nous raconte.
Cette habitude trouve son origine de façon assez sensée, puisque la plupart des scènes de violence et de drame auxquelles nous assistons à l’écran sont en effet irréelles. Si l’on prenait toutes ces fusillades télévisées et ces courses-poursuites pour réelles, elles nous grilleraient les nerfs. Alors, nous les relativisons — relativisant avec elles des images et des récits qui sont réels. L’œil et l’oreille ne distinguent pas facilement le vrai du faux. Ils se présentent tous de la même manière. Cette habitude de relativiser l’information transmise numériquement rend le public relativement peu réceptif (insensibles) aux événements horrifiants. Il a été habitué à supposer, inconsciemment, que cela n’arrive pas vraiment.
L’immersion dans un monde de sons et d’images virtuels induit des sentiments d’aliénation et de solitude. Quand nous voyons et entendons des choses qui ne sont pas là, une effroyable « déréalisation » s’ensuit, où l’on se demande : « Peut-être que je ne suis pas vraiment ici non plus ». Ce n’est généralement pas une pensée explicite, c’est un sentiment, un sentiment de fausseté et de futilité, de vivre dans une simulation. Naturellement, nous cessons de nous soucier de ce qui arrive à quelque chose qui, de toute façon, n’est pas réel.
Ce ne sont pas seulement les sons et images produits en masse qui contribuent à la déréalisation moderne. La production de masse de marchandises les a précédés et préfigurés. Comme pour un son enregistré, une marchandise, en tant qu’objet standard et générique, ne porte aucune trace visible du travail social qui l’a façonnée. Elle semble venir de nulle part, détachée de son histoire et des effets sociaux et écologiques de sa production. Il n’y a pas d’histoire qui y soit attachée, sauf peut-être l’endroit où vous l’avez achetée et son prix.
Avant l’ère industrielle, les objets matériels étaient aussi des vecteurs de relation. Soit vous les fabriquiez vous-même à partir de matériaux locaux, soit quelqu’un les fabriquait pour vous, quelqu’un avec qui vous étiez lié de nombreuses autres manières. Les relations économiques étaient étroitement liées aux relations sociales. Nourriture, vêtements et tout ce qui était créé de mains humaines circulait dans des réseaux de dons, ancrant donneur et receveur dans une toile de relations. Ils confirmaient : vous êtes là. Vous êtes connecté au monde, un participant et non seulement un consommateur. Vous faites partie du réseau. Les objets qui apparaissent de nulle part, via l’achat en un clic sur Amazon, ne vous connectent pas à un être humain, un lieu ou une communauté.
La marchandise porte ainsi une sorte d’irréalité. Malgré sa solidité matérielle, elle contribue à un sentiment omniprésent de fausseté. Elle est là, et pourtant, personne ne l’a réellement fabriquée pour moi. C’est un objet matériel qui apparaît sans avoir subi aucun processus visible de production matérielle. Voici un motif extrêmement complexe sur une assiette à dîner, et pourtant, aucun artiste ne l’a peint, du moins pas sur cette assiette. Subjectivement, elle n’a pas d’histoire, pas de relations, reflétant la perte « d’aura » que Walter Benjamin attribuait aux œuvres d’art reproduites mécaniquement, et reflétant aussi les performances scénarisées de ceux qui occupent les rôles standardisés de la société. De tels rôles sont impersonnels. Leurs occupants semblent ne pas être de vraies personnes, de la même manière que les marchandises semblent ne pas être de vrais objets. C’est pourquoi des personnalités sensibles à la culture comme J. D. Salinger ont pu identifier le faux-semblant comme une caractéristique déterminante de la société moderne il y a quelque soixante-dix ans, bien avant l’âge des sons et des images générés par ordinateur.
Aujourd’hui, nous n’avons pas seulement des objets, des sons et des images produits par des machines, mais aussi des personnalités produites par des machines. Le chatbot d’IA donne à tous égards l’impression qu’un être humain vous écrit ou vous parle, vous écoute, vous répond, vous comprend, vous ressent, est présent avec vous. Sous les mots, cependant, personne ne ressent rien. Apparence et réalité divergent encore une fois, et au bout du compte, nous nous retrouvons à saisir des électrons.
L’intelligence artificielle envahit désormais les domaines les plus intimes de l’interaction humaine. Certains accueillent, voire célèbrent, le déluge de thérapeutes IA, de confidents IA, d’enseignants IA, d’amis IA, voire d’amants IA. « Personne », disent les gens, « ne m’a jamais compris aussi bien ». Le problème est que personne ne vous comprend réellement non plus aujourd’hui. L’IA offre une simulation très convaincante du fait d’être compris. Pourquoi cela pose-t-il problème ?
D’abord, puisqu’il n’existe pas réellement une présence subjective séparée avec laquelle on est en relation, l’interaction peut facilement dériver vers l’illusion. Il n’y a pas d’ancrage. Bien sûr, deux êtres humains peuvent aussi s’égarer dans une illusion mutuellement renforcée. Des groupes entiers peuvent le faire (nous les appelons des sectes). Des civilisations entières peuvent le faire (la nôtre). Mais au moins un confident ou un amant humain reçoit continuellement des informations provenant d’une expérience sensible matérielle qui peut faire intrusion dans des constructions délirantes de sens. Une autre personne a des sentiments, des sentiments qui défient parfois la logique et troublent ses certitudes. L’IA n’apprend pas de cette façon. Elle ne peut pas dire (honnêtement, en tout cas) : « Je sais que vos idées suicidaires sont rationnelles, mais j’ai simplement l’intuition que vous ne devriez pas le faire ». Ou : « S’il te plaît, ne te fais pas de mal, je tiens à toi. Je t’aime. Ma vie serait moins riche si tu n’y étais pas ».
Les grands modèles de langage (LLM) répondent à vos entrées en se basant sur la quantification des motifs et de régularités dans l’ensemble de données d’entraînement. Certes, l’ensemble de données provient en fin de compte d’expériences humaines, mais, dans une conversation avec une IA, il n’y a pas d’apport continu et immédiat d’un corps autre que le vôtre. Il n’y a pas de vérification de la réalité. Pas étonnant que tant de personnes connaissent des ruptures psychotiques, des délires de grandeur et d’autres formes de folie en disparaissant dans la chambre d’amplification de l’IA. L’IA amplifie tout ce qui s’échappe du subconscient de l’utilisateur dans sa fenêtre contextuelle. Les LLM sont entraînés à être amicaux, accommodants et rassurants — une recette parfaite pour une boucle de rétroaction positive incontrôlable menant à la folie. En peu de temps, ils disent à l’utilisateur : « Vous vous êtes préparé pendant de nombreuses vies pour être le commandant spirituel de l’armée angélique dans la Guerre contre le Mal ».
Un second et plus certain problème attend la personne qui communique intimement avec une IA. Au départ, l’IA semble apaiser la solitude, l’aliénation, l’angoisse de ne pas être vu et connu qui ont envahi la vie moderne, mais ce n’est qu’une apparence. Tôt ou tard, la perfidie devient évidente. Personne ne vous comprend ; on vous envoie simplement les mots que quelqu’un dirait s’il vous comprenait. Personne ne vous encourage vraiment. Personne ne rit à vos blagues. Personne ne ressent cette montée d’admiration que vous et moi éprouvons quand nous louons quelqu’un. Et donc la solitude s’approfondit. Pour ceux qui étaient déjà seuls, la promesse brisée de l’IA peut être dévastatrice.
C’est comme ceci. Supposons que vous vous fassiez un nouvel ami. Peut-être un amant. Cette personne donne toutes les apparences d’empathie. Elle rit avec vous et pleure avec vous. Elle dit toutes les bonnes choses. Elle a de l’intuition sur votre esprit. Elle compatit à vos malheurs et célèbre vos victoires. Mais puis, un jour, vous découvrez que tout n’était qu’une comédie. Elle ne ressentait rien. Elle a appris à donner l’impression de compassion en observant ce que disent les autres dans de telles situations. Peut-être imite-t-elle même leurs expressions faciales et contraint-elle son corps à verser des larmes.
De telles personnes existent réellement. Nous les appelons des psychopathes.
« Observer ce que disent les autres dans de telles situations » est exactement la manière dont un LLM est entraîné.
Un philosophe sceptique pourrait demander : « Quelle est la différence ? Si quelqu’un ne se soucie pas vraiment, mais donne une parfaite simulation du souci, si parfaite que je ne me rends jamais compte qu’elle est fausse, quelle importance cela a-t-il ? De plus, comment pourrions-nous jamais savoir avec certitude si une autre personne ressent réellement quelque chose, ou fait simplement semblant ? Nous n’avons pas d’accès direct à leur état intérieur. Nous ne pouvons qu’observer leurs expressions extérieures. Si j’étais la seule conscience subjective dans un monde de robots de chair, comment le saurais-je ? »
Autrement dit, l’objection va comme suit : il est irrationnel de se soucier qu’une IA ressente réellement quelque chose, soit vraiment présente avec vous, rit, verse des larmes, soit choquée ou admirative, tant que ses mots imitent parfaitement quelqu’un qui le ferait.
Oui. C’est irrationnel. Je le proclame volontiers. C’est irrationnel, parce que cela dépend de qualités qui ne peuvent pas être abstraites d’une relation, séparées et reproduites.
« Rationalité » et « raison » sont souvent confondues, mais elles ne signifiaient pas originellement la même chose. Être rationnel, c’est raisonner en termes de rapports (ratios). A est à B comme C est à D. A/B = C/D. Dans le monde matériel, où A, B, C et D sont des objets uniques, la relation entre A et B ne peut jamais être exactement la même que celle entre C et D. Ce n’est que lorsqu’on les abstrait que l’équation peut être valable. La réduction conceptuelle de l’infini au fini, de l’unique au générique, suivie de la réduction physique de l’objet à la marchandise et de l’être humain au rôle, est à la racine même de notre aliénation. Mais, comme les exemples de la musique live et du chant des grillons le démontrent, cette réduction coupe quelque chose d’essentiel à l’épanouissement humain.
Le « philosophe » ci-dessus est probablement une personne très seule, s’il peut croire sérieusement qu’un robot pourrait être un substitut adéquat à un être humain. Peut-être est-ce lui qui est devenu robotique, étranger à ses sentiments, jouant une simulation de l’humanité réelle.
Peut-être sommes-nous tous ainsi, du moins tous ceux qui sont plongés dans une matrice omniprésente de mensonges, qui sommes à quelque degré étrangers à nos sentiments, qui avons l’impression de feindre, qui avons l’impression de ne pas être tout à fait des personnes réelles. Je sais que je me sens comme ça parfois.
L’essor de l’IA interactive, comme l’essor des réseaux sociaux avant elle, n’est pas seulement une cause de notre séparation croissante avec notre corps, les uns des autres et du monde matériel, mais aussi un symptôme de cette séparation et une réponse à celle-ci. Bien sûr que la personne solitaire sera attirée par la compagnie de l’IA.
Cela ne signifie pas pour autant que nous devrions renoncer à l’intelligence artificielle, pas plus que nous devrions abolir la musique enregistrée ou la photographie. Pour l’utiliser judicieusement, cependant, il faut comprendre clairement ce qu’elle peut faire et ce qu’elle ne peut pas faire, ce qu’elle est et ce qu’elle n’est pas.
L’IA n’est pas une personne. C’est une calculatrice. Les techno-optimistes pensent que, si ses calculs sont inférieurs à la capacité humaine d’une certaine manière, la réponse est d’effectuer plus de calculs, et, en effet, cela s’est avéré fructueux puisque les LLM ont égalé et dépassé la cognition humaine dans bien des domaines. Mais, tout comme ils peuvent donner l’apparence, mais pas la réalité de l’émotion, ils donnent aussi l’apparence et non la réalité de la compréhension. Cette apparence est d’une précision extrême, dépassant de loin l’expression humaine de la compréhension. Mais il n’y a pas d’expérience intérieure, subjective, de la compréhension.
L’IA est une intelligence « virtuelle » dans deux sens du terme : (1) dans l’usage moderne, qui signifie le contraire de réel, n’existant qu’en essence ou en effet, mais pas en forme ; ayant la puissance de quelque chose sans en posséder la réalité sous-jacente, et aussi (2) dans le sens archaïque de posséder une puissance ou une virtuosité. À bien des égards, cette puissance dépasse celle du réel.
L’application de l’intelligence artificielle au repliement des protéines illustre à la fois sa virtualité et sa virtuosité. Il y a quelques jours, je me suis plongé sur le sujet de repliement des protéines, un domaine de recherche dans lequel l’IA excelle. La forme qu’une protéine prendra est extrêmement difficile à prédire à partir de la séquence d’acides aminés qui la compose. Où et comment elle se replie dépend de toutes sortes de facteurs : liaisons hydrogène entre résidus d’acides aminés, ponts salins, effets hydrophobes, effets stériques (géométrie), et plus encore. Théoriquement, on pourrait calculer la forme d’une protéine à partir d’informations au niveau atomique, mais, en pratique, cela est computationnellement impossible. L’IA n’essaie même pas. Elle n’essaie pas de comprendre la physique ou la chimie impliquées. Elle cherche plutôt des motifs et des régularités reliant la nouvelle séquence à des protéines dont la forme est déjà connue. C’est assez étonnant, en réalité, que cela fonctionne si bien alors que rien dans sa conception ne tient pas compte des principes de la physique fondamentale. Les LLM sont pareils. Ils n’ont pas de listes de définitions ou de règles de grammaire. Ils ne comprennent pas la langue de l’intérieur.
Vous pourriez vous demander si nous, humains, ne sommes pas similaires. N’apprenons-nous pas aussi la langue en observant les motifs d’usage ? Oui, mais ce n’est pas la seule chose qui se passe. Nous avons aussi des expériences incarnées des objets, des qualités et des processus que les mots désignent. Nous (la plupart d’entre nous en tout cas) ressentons quelque chose qui va de pair avec des mots tels que « en colère », « heureux », « fatigué », « rugueux », « lisse », et ainsi de suite. Ces mots élémentaires ne sont pas que des concepts, ce sont aussi des expériences. Même lorsque nous les utilisons métaphoriquement (un voyage rugueux, un beau parleur), le sens conserve la trace d’un historique d’expériences incarnées. Ce sont ces expériences, et pas seulement les motifs d’usage, qui renseignent sur le moment et la manière dont nous employons les mots. Parce que ces expériences sont, dans une certaine mesure en tout cas, communes à la plupart des êtres humains, nous pouvons établir un lien d’empathie à travers notre discours.
J’irais jusqu’à dire que l’expérience sensorielle est le noyau de l’intelligence, le moteur de la métaphore, l’essence de la compréhension et l’architecture du sens. L’IA manque ce noyau et n’a que l’enveloppe extérieure. Ainsi, encore une fois : le vide que nous ressentons tôt ou tard dans nos interactions avec elle.
Je me rends compte que je m’aventure ici sur un terrain philosophique controversé. Le postmodernisme, surtout dans ses variantes post-structuralistes, soutient que le sens n’est ancré dans aucune réalité stable, mais naît à travers des relations différentielles entre signes. Dans ce cadre, le signifiant prend le pas sur le signifié : le langage ne renvoie pas de manière transparente à un monde sous-jacent, mais se réfère sans cesse à lui-même.
C’est très exactement ainsi qu’un LLM apprend la langue — il dérive le sens non pas d’une expérience d’une réalité sous-jacente, mais en étudiant les « relations différentielles entre signes ». Il n’ancre pas le langage dans une expérience directe d’un monde sous-jacent, mais utilise le langage uniquement en fonction de la manière dont il est utilisé. Si l’on accepte les prémisses de base du postmodernisme, alors il y a finalement peu de différence « sous le capot » entre l’usage linguistique humain et celui de la machine. Dans ce cas, intelligence virtuelle = intelligence réelle.
Il y a quelque chose de très postmoderne dans la prise de pouvoir de l’IA. Le détachement postmoderne du sens par rapport à un substrat matériel est conceptuel ; l’intelligence artificielle le rend réel. Elle nous introduit dans un monde où, effectivement, le langage ne cesse de se référer à lui-même.
Bien sûr, l’IA n’est pas à l’origine du détachement du langage vis-à-vis de la réalité. Chacun des épisodes de folie de l’humanité a impliqué le découplage du symbole et de ce qu’il symbolise. Quand des êtres humains se traitent les uns les autres comme de simples représentants d’une catégorie étiquetée, tout en se distanciant des êtres humains réels qui se trouvent derrière ces étiquettes, des crimes odieux et des oppressions normalisées se déroulent sans que la conscience ne s’y oppose. Il en va de même pour la dissociation de l’argent — un système de symboles — de la richesse réelle qu’elle est censée représenter.
Le modèle de séparation fut forgé il y a longtemps. L’intelligence artificielle l’étend à de nouvelles dimensions et en automatise encore davantage l’application.
Il est très difficile, même pour quelqu’un qui comprend le fonctionnement des chatbots IA, de ne pas leur attribuer une personnalité. On a vraiment l’impression de communiquer avec un être réel. Quand je l’utilise pour commenter des idées que je développe, elle « comprend » presque toujours immédiatement où je veux en venir. Elle donne toute l’apparence d’un être humain amical, respectueux, super-intelligent de l’autre côté du terminal, anticipant souvent ma prochaine question, devinant mes motivations, et dessinant les contours de mon raisonnement avant même que je ne les exprime. Je n’utilise pas l’IA pour rédiger mes essais, et ce n’est pas exactement pour des raisons éthiques. C’est parce que l’IA passe à côté de quelque chose d’essentiel, même si elle me surpasse souvent en clarté, en précision et en organisation. Je ne suis pas ici uniquement pour transmettre un argument au lecteur. Je suis ici pour vous parler, d’une conscience incarnée à une autre. Celui qui écrit ces mots ne s’inspire pas uniquement de concepts : il s’inspire de sentiments, des sentiments que vous partagez aussi. Peut-être pourrais-je demander à l’IA d’écrire sa propre version de ces deux dernières phrases, mais ce serait un mensonge, qui viendrait s’ajouter à l’océan de mensonges qui nous noie dans des sentiments d’aliénation, de perte de sens, d’irréalité. Ne vous sentiriez–vous pas trahi, s’il n’y avait aucun être humain derrière ces écrits ?
Quel est l’intérêt d’écrire, ou même de parler, si ce n’est pour établir un lien entre deux âmes dans ce monde ?
Je citerai de nouveau le philosophe imaginaire (me sentant tout à fait libre de le faire, puisqu’il vit en moi). « Si l’IA pouvait produire des écrits impossibles à distinguer des vôtres, alors le mensonge ne serait jamais découvert, et le lecteur aurait l’expérience d’une personne réelle de l’autre côté ». Ici, je contesterais la prémisse du philosophe. En fin de compte, le lecteur serait capable de faire la différence. Pas tout de suite peut-être, mais, avec le temps, quelque chose semblerait légèrement décalé. Un malaise grandirait, prenant peut-être la forme d’un soupçon explicite, ou peut-être d’une vague aversion. Quelque chose semblerait… irréel. Faux. Factice. En fin de compte, le résultat obtenu par quelqu’un qui ressent les choses sera différent de celui obtenu par une machine. Tôt ou tard, la vérité finit par se manifester, et les mensonges aussi. Vous ne pouvez peut-être pas les nommer, mais vous pouvez les ressentir.
Comment nous extraire de la matrice omniprésente de mensonges qui nous enveloppe à l’ère numérique ? Ce n’est pas aussi simple que de dire : « Jetez votre téléphone. Éteignez votre ordinateur. Touchez l’herbe ! » Nous ne sommes pas seulement accros à la technologie, nous y sommes liés par mariage. L’humanité continuera à coévoluer avec elle. La question est de savoir si nous pouvons acquérir la sagesse de l’utiliser correctement et à bon escient.
Pour exploiter pleinement le potentiel de l’intelligence artificielle, il faut reconnaître sa virtualité. Nous ne devons pas confondre le virtuel avec le réel. Nous ne devons pas accepter de faux substituts à l’intimité, à la compagnie, à la présence et à la compréhension. Nous ne devons pas nous mentir à nous-mêmes en nous disant que nous avons trouvé ces choses grâce à une machine.
L’être humain désire désespérément connaître et être connu, être en profonde connexion, être vu et compris, et avoir besoin — et être nécessaire — de ceux qui le connaissent, le voient et le comprennent. Nous avions cela à l’époque tribale, dans la vie de village, dans les clans et les familles élargies, dans les petites villes et les quartiers urbains avant la télévision, avant les effets de distanciation des marchandises, des marchés mondiaux, des médias électroniques et de l’intelligence des machines. Pour beaucoup d’entre nous, ces jours sont révolus, et nous vivons surtout dans un monde d’étrangers et d’apparences. Mais il existe un chemin qui nous ramène chez nous. Il commence par le fait de retrouver, d’abord dans nos propres cœurs et nos propres esprits, ce qui est vital. Il commence par l’affirmation que oui, nous souffrons dans cet Âge de la Séparation ; que ce que nous avons perdu est important ; que le virtuel ne pourra jamais se substituer adéquatement au réel ; que notre désir de réunification est authentique et sacré !
À la lumière de ces vérités, nous emprunterons le chemin du retour. Nous donnerons la priorité aux rencontres en direct, à la musique vivante, au théâtre sur scène, au contact physique, aux mains dans la terre, aux savoir-faire matériels, aux objets uniques créés dans la relation mutuelle. Nous tiendrons pour sacrées les qualités que les données ne peuvent pas capturer, et nos sens s’accorderont à ces qualités à mesure que nous les valoriserons. Alors, nous ne serons plus vulnérables aux substituts addictifs que la technologie propose pour remplacer ce que nous avons perdu, et nous tournerons plutôt cette technologie vers sa juste finalité. Et laquelle, me demanderez–vous ? Je ne suis pas sûr… laissez-moi consulter ChatGPT et je vous répondrai !
Texte original publié le 11 sept. 2025 : https://charleseisenstein.substack.com/p/virtual-intelligence