Traduction libre
Les applications d’intelligence artificielle (IA) générative d’aujourd’hui sont impressionnantes. Les grands modèles de langage (LLM), tels que ChatGPT, passent facilement le test de Turing et sont donc impossibles à distinguer des humains dans une conversation textuelle en ligne. Ils sont utilisés dans des contextes professionnels pour gérer les demandes des clients, rédiger des textes juridiques et effectuer toute une série de tâches que, jusqu’à récemment, seuls les humains pouvaient accomplir. D’autres IA génératives produisent des images, de la musique et des vidéos de grande qualité, souvent à haute valeur artistique, à partir de simples descriptions ou « requêtes ». Il est donc devenu difficile pour une personne cultivée moyenne d’éviter la conclusion que les IA d’aujourd’hui comprennent réellement les questions ou les tâches qui leur sont posées, et qu’elles ont même une sensibilité artistique.
Pourtant, rien n’est plus éloigné de la vérité. En effet, les IA — oui, même les IA d’aujourd’hui — ne comprennent rien ; absolument rien. Et elles n’ont aucune créativité au sens où l’on pourrait même vaguement le relier à la créativité humaine. Permettez-moi de préciser.
Prenons les LLMs comme exemple, car les prouesses de ChatGPT sont généralement considérées comme les plus convaincantes lorsqu’il s’agit d’attribuer la compréhension et la créativité aux IA génératives. Les LLM sont des transformateurs (un terme technique), c’est-à-dire qu’ils prennent un texte en entrée, lui appliquent une série de transformations géométriques et recrachent le texte résultant, un mot à la fois. La réponse que vous donne ChatGPT est une « transformation » de votre question.
Les paramètres particuliers des transformations géométriques appliquées sont définis au cours d’une phase dite « d’entraînement ou de formation », au cours de laquelle le LLM est exposé à une énorme base de données de textes écrits par des êtres humains. Ses paramètres sont ensuite ajustés de manière itérative — calibrés, affinés — afin de représenter la manière dont les mots tendent à apparaître ensemble dans les textes produits par des humains. Une fois la formation terminée et les paramètres définis, le LLM peut alors inférer, à partir d’une phrase d’entrée (c’est-à-dire la question ou la requête), quel est le mot le plus susceptible d’apparaître ensuite dans la phrase de sortie (c’est-à-dire la réponse). Une fois que cela est fait, la nouvelle phrase de sortie — avec un mot supplémentaire ajouté à la fin — est renvoyée au LLM, qui déduit alors le mot suivant, et ainsi de suite, jusqu’à ce que la réponse soit complète. Cette phase dite « d’inférence » est celle à laquelle nous, utilisateurs, sommes exposés lorsque nous interagissons en ligne avec ChatGPT.
Du point de vue du LLM, la base de données textuelles utilisée pendant la formation ne contient qu’une gigantesque collection de signes. Ces signes peuvent être des mots anglais — ou des parties de mots — mais ils pourraient tout aussi bien être des gribouillis ; cela n’a pas d’importance, car le LLM n’est pas conscient de la signification des mots (ni de quoi que ce soit d’autre, d’ailleurs). Tout ce qu’il est formé à faire est de capturer et de représenter les régularités statistiques avec lesquelles les mots apparaissent ensemble ou se succèdent dans le texte écrit par des humains de la base de données d’apprentissage. Si des gribouillis étaient utilisés pendant la formation — au lieu de mots —, le LLM capturerait toujours les régularités avec lesquelles les gribouillis tendent à apparaître ; de son point de vue, c’est la même chose. Le LLM n’a aucune compréhension du sens du texte sur lequel il est formé. Il s’occupe simplement des relations entre les signes — gribouillis, mots — dans la base de données d’apprentissage.
Une fois que les régularités statistiques avec lesquelles les mots ont tendance à apparaître sont saisies dans les paramètres du LLM, celui-ci peut commencer à déduire les mots à utiliser en réponse à une requête. De son propre point de vue, sa réponse n’est donc qu’une série de gribouillis dont il ne comprend pas le sens ; il sait seulement qu’il s’agit des gribouillis les plus susceptibles d’apparaître à la suite de votre requête, compte tenu de la manière dont les gribouillis sont apparus dans la base de données d’entraînement. C’est tout ce qu’il y a à savoir. À aucun moment, la compréhension ou la créativité n’entre en jeu.
Alors pourquoi avons-nous l’impression que le LLM a vraiment compris notre requête et a produit une réponse parfaitement compréhensible ? Comment le LLM peut-il produire des résultats aussi cohérents s’il ne comprend pas le langage ? La réponse est assez simple : c’est parce que le LLM a été formé sur des textes écrits par des humains, et c’est toujours un humain qui interprète ses résultats. Or, les humains comprennent le sens des mots ! La compréhension impliquée ici est donc toujours la compréhension humaine, tel qu’elle est intégrée à la fois dans la base de données d’entraînement et dans l’interprétation des réponses déduites. Le sens que nous discernons dans une réponse produite par ChatGPT est (a) le sens donné à la base de données d’entraînement par les humains qui ont écrit les textes correspondants, et (b) le sens que nous attribuons à la réponse lorsque nous la lisons et l’interprétons. ChatGPT lui-même ne voit jamais que des gribouillis et les régularités statistiques avec lesquelles ils ont tendance à apparaître ; il ne comprend rien ; il ne crée rien ; il ne fait que réarranger — « transformer » — des gribouillis dépourvus de sens. C’est nous, les humains, qui donnons et projetons tout le sens sur les gribouillis.
Il en va de même pour l’art de l’IA générative : toute la créativité artistique impliquée est celle des artistes humains qui ont composé les images utilisées dans la base de données d’apprentissage. Tout ce que fait l’IA, c’est réarranger — « transformer », combiner — des éléments de ces images en fonction d’une requête. Les IA génératives ne font donc que recycler les produits de la compréhension et de la créativité humaines, rien d’autre. La seule raison pour laquelle ChatGPT peut réussir un examen du barreau est qu’il a été formé sur des textes écrits par des avocats humains compétents. S’il n’y avait pas d’avocats humains, ChatGPT produirait du charabia lors d’un examen du barreau. La seule raison pour laquelle il peut vous expliquer ce qu’est l’idéalisme analytique, c’est qu’il a été formé sur des textes écrits par moi ; il n’a aucune compréhension de l’idéalisme analytique. La seule raison pour laquelle d’autres IA génératives peuvent produire de belles œuvres d’art est qu’elles ont été formées sur de belles œuvres d’art produites par des personnes créatives et sensibles. Si l’on retire l’apport humain de l’équation, les IA génératives ne peuvent rien faire ; elles n’ont pas de compréhension ou de créativité propre ; elles ne font que transformer — recycler — la compréhension et la créativité humaines.
C’est pourquoi les résultats des IA génératives sont toujours une forme sophistiquée et complexe de plagiat. Les IA ne peuvent jamais produire quelque chose dont les éléments constitutifs n’ont pas d’abord été produits par des êtres humains. Au mieux, les IA peuvent trouver des associations — des connexions — entre différents produits de la créativité et de l’intuition humaines qui, autrement, seraient difficiles à trouver par les humains eux-mêmes, puisque les IA fonctionnent sur des bases de données d’entraînement beaucoup plus importantes que celles que les humains peuvent intégrer dans leur esprit. Mais les éléments constitutifs sont toujours produits par l’homme, sans exception. Le sens est toujours donné par l’homme, sans exception. La créativité ou la compréhension de l’IA n’existe pas.
Le problème, cependant, c’est que le plagiat est tellement sophistiqué et nuancé qu’il faut un doctorat en informatique et en ingénierie pour comprendre ce qui se passe réellement. Et les choses ne feront qu’empirer à mesure que des IA de plus en plus grandes — avec de plus en plus de paramètres — seront entraînées sur des bases de données de plus en plus vastes. L’illusion de la compréhension et de la créativité artificielles, déjà si convaincante, deviendra irrésistible pour la grande majorité des gens. C’est un grand danger, car nous risquons de perdre de vue notre propre valeur et notre dignité en projetant tout cela sur des mécanismes électroniques. Il s’agit d’une forme de « kénose », d’une vidange de nous-mêmes, totalement injustifiée par les faits.
Les entreprises voient tant de valeur dans l’IA générative en raison de son efficacité dans le recyclage, l’adaptation et la réutilisation de la production humaine. Si quelques avocats ont réussi à rédiger des textes juridiques très intelligents, une IA formée sur ces textes peut produire, sur demande, des textes juridiques intelligents pour votre entreprise, sans que vous ayez à payer de nouveaux avocats pour refaire le même type de travail créatif et intellectuel ; quelqu’un d’autre, ailleurs, a déjà payé pour les originaux. Si des artistes talentueux ont produit quelque part une grande base de données d’illustrations efficaces, vous n’avez pas besoin de payer de nouveaux artistes pour qu’ils le fassent à nouveau pour vous ; une IA peut astucieusement réutiliser et adapter cette production humaine antérieure à vos besoins particuliers. Économiquement, c’est incroyablement efficace. Mais cela ne nécessite aucune compréhension ou créativité au-delà de celles déjà intégrées dans la base de données d’entraînement et dans l’esprit des personnes qui contemplent les résultats de l’IA. Cette dernière se contente de réorganiser les choses.
Il est essentiel que nous comprenions que l’IA ne remplace pas la créativité et la compréhension humaines ; au contraire, elle s’appuie entièrement sur elles. Sa valeur réside uniquement dans l’extension et l’exploitation du potentiel de réutilisation de la production humaine, et non dans son remplacement. L’IA amplifie la portée de la productivité humaine, elle ne la rend pas redondante. Tout sens et toute créativité perceptibles dans les résultats de l’IA sont des sens et des créativités humains. Sans l’apport humain sous la forme de bases de données de formation, les IA sont totalement inutiles. Sans la compréhension projetée par les humains sur leurs productions, les IA ne sont capables que de cracher des gribouillis dépourvus de sens. L’intelligence artificielle est en fin de compte une intelligence humaine.
____________________
Bernardo Kasturp est le directeur exécutif de la Fondation Essentia, son travail a déclenché la renaissance moderne de l’idéalisme métaphysique, la notion selon laquelle la réalité est essentiellement mentale. Il est titulaire d’un doctorat en philosophie (ontologie, philosophie de l’esprit) et d’un autre doctorat en ingénierie informatique (informatique reconfigurable, intelligence artificielle). En tant que scientifique, il a travaillé pour l’Organisation européenne pour la recherche nucléaire (CERN) et les laboratoires de recherche Philips (où a été découvert l’« effet Casimir » de la théorie des champs quantiques). Il a également été créativement actif dans l’industrie de la haute technologie pendant près de 30 ans maintenant, ayant cofondé la société de processeurs parallèles Silicon Hive (acquise par Intel en 2011) et a travaillé en tant que stratège technologique pour la société géopolitiquement importante ASML. Formulées en détail dans de nombreux articles et livres universitaires, ses idées ont été présentées dans « Scientific American », le magazine de « The Institute of Art and Ideas », le « Blog of the American Philosophical Association » et « Big Think », entre autres. Son onzième livre, à paraître fin 2024, s’intitule « Analytic Idealism in a Nutshell » (L’idéalisme analytique en bref) : Un résumé direct de la seule métaphysique plausible du XXIe siècle.
Traduction libre : https://www.bernardokastrup.com/2024/05/the-pernicious-fallacy-of-ai.html