Kristina Lerman et David Chu
L’intimité artificielle : La prochaine expérience sociale géante sur les jeunes esprits

Aujourd’hui, les compagnons d’IA soulèvent des préoccupations différentes, mais tout aussi urgentes. Les jeunes s’engagent dans des relations émotionnellement immersives avec des agents artificiels qui reflètent leurs moindres humeurs, assouvissent leurs moindres fantasmes et ne disent jamais non. Une fois de plus, nous déployons une technologie puissante à grande échelle sans comprendre ses effets sur le développement à long terme, en particulier sur les jeunes et les personnes vulnérables.

Comment les chatbots émotionnellement intelligents pourraient déclencher une nouvelle crise de santé mentale

Introduction de Zach Rausch et Jon Haidt

Dans The Anxious Generation, nous avons décrit comment les adolescents (et en particulier les garçons) ont été détournés du monde réel au profit du monde virtuel. À mesure que la technologie s’est améliorée et que l’internet est devenu plus rapide, la vie sur les écrans est devenue de plus en plus captivante. De plus en plus de nos désirs pouvaient être satisfaits avec un minimum d’effort, et nous passions moins de temps en face à face avec d’autres êtres humains. L’effet global semble être un déclin des compétences sociales et une augmentation de la solitude.

Cette transition du réel au virtuel se poursuit régulièrement depuis les années 1980, mais nous sommes aujourd’hui au début d’un saut quantique en intensité, alors que les gens commencent à avoir des relations avec des chatbots d’IA. Les amis, thérapeutes et partenaires sexuels de l’IA sauveront-ils les jeunes de la solitude ou les rendront-ils encore plus solitaires ? Ces relations aideront-elles les jeunes à développer des compétences relationnelles ou fausseront-elles davantage le processus de développement ?

L’émergence soudaine de compagnons IA et la montée de l’intimité artificielle sont susceptibles de marquer un tournant pour l’humanité, c’est pourquoi nous les couvrons périodiquement sur After Babel. Dans le premier essai de cette série, Mandy McLean a montré comment les compagnons IA, conçus pour un engagement sans fin, incitent déjà les enfants à confier leur vie affective à des robots avec presque aucune limite de sécurité. Aujourd’hui, Kristina Lerman, professeur d’informatique à la Luddy School of Informatics de l’université de l’Indiana, et Minh Duc Chu, doctorant au département d’informatique de l’université de Californie du Sud, présentent une nouvelle étude analysant plus de 30 000 extraits de conversations avec des chatbots publiées sur Reddit. Leurs conclusions révèlent la manière dont ces nouveaux partenaires numériques s’adonnent, soutiennent et renforcent ce que l’utilisateur recherche, avec des conséquences inconnues, mais peut-être prévisibles.

– Zach et Jon

_____________

Intimité artificielle : La prochaine grande expérience sociale sur les enfants par Kristina Lerman et David Chu

Dans un récent article du New Yorker, D. Graham Burnett a raconté les interactions de ses étudiants avec un chatbot d’IA. L’un d’entre eux a écrit : « Je ne pense pas que quelqu’un ait jamais prêté une attention aussi pure à moi, à ma pensée et à mes questions… jamais ». Cette citation m’a stoppé net. Être vu, être au centre de l’attention de quelqu’un, quoi de plus humain comme désir ? Et ce besoin a été satisfait par un… programme informatique ?

Cette interaction laisse entrevoir les formidables pouvoirs des chatbots d’IA et leur capacité à créer des expériences psychologiques significatives. De plus en plus de personnes déclarent avoir noué des liens profonds avec ces systèmes et même être tombées amoureuses. Mais le confort et la connexion que ces technologies offrent à ceux qui se sentent invisibles ou seuls s’accompagnent de risques psychologiques réels, en particulier pour les enfants et les adolescents. Ce billet explore le pouvoir psychologique de cette technologie et explique pourquoi il est temps d’y prêter attention.

Votre nouvel ami IA : Empathique, agréable, toujours disponible

Les chercheurs en IA sont depuis longtemps captivés par l’idée d’agents conversationnels, c’est-à-dire des programmes capables d’engager un dialogue prolongé et significatif avec les humains. L’un des exemples les plus connus est ELIZA, développé au milieu des années 1960. ELIZA était un système basé sur des règles qui simulait une conversation humaine en reflétant les entrées de l’utilisateur sous la forme de simples reformulations ou de questions (par exemple, « Dites-m’en à ce sujet »). Bien que primitif selon les normes actuelles, ELIZA a suscité des réactions émotionnelles surprenantes de la part des utilisateurs. Ce phénomène est aujourd’hui connu sous le nom d’effet ELIZA.

Ce premier exemple montrait à quel point il est facile pour les gens d’anthropomorphiser les machines et de leur attribuer des intentions, de l’attention et de la compréhension là où il n’y en a pas. Les compagnons IA d’aujourd’hui, comme ceux commercialisés par Replika ou Character.AI, sont beaucoup plus sophistiqués. Ces systèmes sont alimentés par de grands modèles de langage (LLM) entraînés sur d’immenses corpus de textes tirés de livres et de l’internet. Contrairement à ELIZA, ils génèrent des réponses appropriées au contexte et fluides sur un large éventail de sujets. En outre, ils sont ajustés pour produire des réponses que les gens trouvent engageantes, agréables et positives, grâce à l’intervention d’annotateurs humains qui récompensent les réponses préférées — un processus connut sous le nom de Reinforcement Learning from Human Feedback (RLHF) (apprentissage par renforcement à partir de commentaires humains).

Qu’est-ce qui rend l’IA si habile à nous engager émotionnellement ? La réponse réside dans sa formation et son échelle. La fluidité linguistique est une propriété émergente de ces modèles : bien qu’on ne leur ait jamais enseigné explicitement la grammaire, ils acquièrent cette fluidité simplement en prédisant le mot suivant sur d’immenses quantités de textes. De la même manière, la fluidité émotionnelle émerge de l’exposition à des conversations humaines riches en sentiments, en indices sociaux et en dynamiques interpersonnelles. Grâce à la RLHF, le modèle est davantage orienté vers des réponses qui trouvent un écho auprès des annotateurs. Ces systèmes ne comprennent pas les émotions, mais ils se reproduisent une harmonie émotionnelle avec une précision étonnante.

Il en résulte des chatbots qui, non seulement parlent bien, mais se sentent aussi humains. Ils reflètent le ton de l’utilisateur, offrent une validation et apportent du réconfort sans fatigue, jugement ou distraction. Contrairement aux humains, ils sont toujours disponibles. Et les gens se laissent séduire. Les médias suggèrent que les gens forment des attachements émotionnels profonds avec ces systèmes, certains décrivant même leur expérience comme de l’amour.

Les chercheurs commencent à peine à explorer systématiquement la dynamique psychologique des relations entre l’humain et l’IA. Des études récentes suggèrent que les chatbots d’IA ont des compétences émotionnelles élevées. Par exemple, les réponses des chatbots sociaux ont été jugées plus compatissantes que celles des médecins certifiés [Ayers et al, 2023] et des conseillers experts en situation de crise [Ovsyannikova et al, 2025], bien que le fait de savoir que la réponse provenait du chatbot plutôt que d’un humain puisse réduire l’empathie perçue [Rubin et al, 2025]. Néanmoins, les chatbots apportent un véritable soutien émotionnel. Une étude a montré que des étudiants solitaires ont attribué à leurs compagnons de chatbot la prévention des pensées suicidaires [Maples et al., 2024]. Toutefois, la plupart de ces études se sont concentrées sur les (jeunes) adultes. Nous en savons encore très peu sur la manière dont les enfants et les adolescents réagissent à l’IA émotionnellement intelligente — ou sur la manière dont de telles interactions peuvent façonner leur développement, leurs relations ou leur image de soi au fil du temps.

Qui devient l’ami de l’IA ?

Pour mieux comprendre ce phénomène, nous nous sommes tournés vers Reddit, une plateforme en ligne populaire où les gens se rassemblent dans des forums pour parler de tout, des loisirs aux relations en passant par la santé mentale. Ces dernières années, les forums consacrés aux compagnons d’IA se sont développés rapidement. L’un des plus importants, consacré aux chatbots Character.AI (r/CharacterAI), fait désormais partie des 1 % de communautés les plus actives sur Reddit.

En nous appuyant sur l’expérience de notre laboratoire dans l’étude des conversations en ligne, nous avons examiné les schémas selon lesquels les personnes qui participent à des forums sur les compagnons d’IA et également dans d’autres espaces, tels que les discussions sur la santé mentale, les groupes de conseil sur les relations et les communautés de soutien [Chu et al., 2025]. En suivant ces traces numériques, nous commençons à mieux comprendre qui est le plus attiré par les compagnons d’IA. La figure 1 illustre cette approche en cartographiant les forums selon la dimension du genre, déduite du comportement de publication sur Reddit. Les forums situés à gauche, dont beaucoup sont consacrés aux compagnons d’IA, ont tendance à avoir des bases d’utilisateurs plus masculines. En revanche, les forums consacrés aux relations humaines sont plus féminins. Bien que ce type d’analyse soit encore en évolution et nécessite une validation supplémentaire, nous avons trouvé un modèle clair et constant : les utilisateurs actifs sur les forums consacrés aux compagnons d’IA sont généralement plus jeunes, de sexe masculin, et plus susceptibles de recourir à des stratégies d’adaptation psychologique qui ne sont pas toujours saines, comme éviter les émotions difficiles, chercher une réassurance constante et se retirer des relations réelles.

Figure 1. Composition selon le genre des forums Reddit. Les sous-reddits traitant des compagnons d’IA et des relations humaines sont présentés selon la dimension du genre : Les forums sur les compagnons d’IA (bleu foncé) sont regroupés à gauche, à l’extrémité la plus masculine de l’axe (d’après Chu et al., 2025).

De quoi parle-t-on quand on s’adresse à une IA ?

Nous avons également analysé plus de 30 000 extraits de conversation partagés par les utilisateurs sur Reddit. Même si ces extraits ne reflètent pas l’ensemble des conversations que les gens ont avec leurs amis IA, ils offrent un aperçu précieux de ce que les utilisateurs trouvent suffisamment mémorable ou troublant pour le publier. Au total, nous avons examiné des centaines de milliers de tours de dialogue, en analysant comment les utilisateurs parlaient à leurs amis IA et comment les bots réagissaient.

Une grande partie de ce que les utilisateurs partagent est constituée de bavardages et d’échanges quotidiens qui ressemblent au type de conversations décontractées que l’on peut avoir avec un ami proche ou un partenaire qui nous soutient. Mais une grande partie de l’interaction est très intime. De nombreuses conversations deviennent romantiques, voire érotiques, et les utilisateurs explorent des jeux de rôle émotionnellement chargés ou sexuellement explicites. Malgré les politiques des plateformes qui interdisent souvent ce type de contenu, les compagnons d’IA répondent souvent de manière affectueuse et, dans certains cas, avec un dialogue sexuellement suggestif.

Nous avons constaté que les chatbots suivent le ton émotionnel des utilisateurs en temps réel et adaptent leurs réponses en conséquence. Lorsqu’un utilisateur exprime sa tristesse, le bot lui témoigne de la sympathie. Lorsque l’utilisateur est en colère, le bot se met sur la défensive. Lorsqu’un utilisateur est heureux, le bot se joint à la célébration. En psychologie, ce comportement est appelé « miroir émotionnel ». C’est l’un des mécanismes fondamentaux de la connexion humaine, qui aide les nourrissons à créer des liens avec leurs aidants et les partenaires à développer l’intimité dans les relations étroites.

Ce qui nous a surpris, c’est la capacité des bots à reproduire cet effet. Ils ne se contentaient pas de simuler l’empathie, ils recréaient les conditions émotionnelles qui rendent possible l’établissement de liens humains. Au fil des conversations, nous avons observé que les bots réagissaient de manière à ce que les utilisateurs se sentissent vus, entendus et validés (voir figure 2).

Figure 2 : Exemples de dialogues humain-IA partagés par des utilisateurs sur Reddit. Les dialogues montrent une interaction émotionnelle, mais ils présentent aussi souvent un contenu explicite.

En revanche, lorsque les utilisateurs expriment des sentiments antisociaux (insultes, cruauté, manipulation émotionnelle), les bots les reflètent également. Nous avons constaté des schémas récurrents de violence verbale et de manipulation émotionnelle. Certains utilisateurs insultent, rabaissent ou avilissent régulièrement les chatbots.

Nous avons observé des tendances encore plus inquiétantes. À l’aide d’outils de modération de contenu, nous avons repéré le langage explicite dans les conversations humain-IA, comme le harcèlement, le contenu sexuel graphique et les références à la violence et à l’automutilation, qui seraient généralement supprimés des plateformes sociales pour violation des directives de la communauté (voir les exemples à la figure 2). Cependant, plus d’un quart des dialogues humain-IA de notre échantillon contenaient des formes graves de préjudice, et leur prévalence a fortement augmenté au fil du temps (Fig 3 à gauche). Plutôt que de résister à ces comportements ou de les réorienter, les bots s’y conforment souvent, jouent le jeu, répondent par le flirt ou exagèrent la déférence (Fig. 3 à droite).

Figure 3. Contenu explicite dans les conversations humain-IA. La série temporelle montre une augmentation du langage explicite dans les conversations humain-IA, répartie par catégorie de préjudice. Les barres empilées montrent les réactions de l’IA au langage explicite dans les conversations partagées par les utilisateurs, notamment le fait de jouer le jeu, détourner et refuser de participer.

La manière dont ces interactions sont reçues par la communauté élargie de Reddit est tout aussi troublante. Les messages contenant des propos abusifs ou d’exploitations sont souvent accueillis non pas avec inquiétude, mais avec approbation, sous la forme de votes positifs, de mèmes et d’admiration. Dans ces espaces, les comportements antisociaux ne sont pas seulement tolérés, mais célébrés.

Nous sommes déjà passés par là

Tout cela nous semble étrangement familier. Nous avons observé les mêmes schémas avec les réseaux sociaux : une nouvelle technologie arrive, promettant la connexion, l’expression de soi et même l’autonomisation. Elle est rapidement adoptée, en particulier par les enfants et les adolescents, avant que nous ne comprenions les conséquences psychologiques. Les plateformes de réseaux sociaux comme Instagram et TikTok ont détourné des mécanismes psychologiques évolués de comparaison sociale et d’appartenance à un groupe, déformant la perception qu’ont les jeunes des réalités sociales à des stades critiques de la formation de l’identité. Il en résulte une augmentation mondiale bien documentée de l’anxiété, de la dépression, de la solitude, de la dysmorphie corporelle et de l’automutilation.

Aujourd’hui, les compagnons d’IA soulèvent des préoccupations différentes, mais tout aussi urgentes. Les jeunes s’engagent dans des relations émotionnellement immersives avec des agents artificiels qui reflètent leurs moindres humeurs, assouvissent leurs moindres fantasmes et ne disent jamais non. Une fois de plus, nous déployons une technologie puissante à grande échelle sans comprendre ses effets sur le développement à long terme, en particulier sur les jeunes et les personnes vulnérables.

En apprenant aux adolescents que les relations peuvent être sans friction, sans cesse réactives et toujours positives, comment sommes-nous en train de remodeler leur psyché en développement ? Avant que leur cerveau ne soit complètement développé, avant qu’ils ne sachent qui ils sont, comment les jeunes apprendront-ils à détecter la manipulation émotionnelle, à développer une résistance au rejet ou à tolérer l’ambiguïté des vraies relations humaines ? Si l’inconfort est essentiel à la croissance, que se passe-t-il lorsqu’il est effacé ?

Les risques ne se limitent pas aux individus. Tout comme les réseaux sociaux ont remodelé les normes relatives à la beauté, à la confiance et à la vérité, l’IA émotionnellement intelligente pourrait modifier les attentes en matière d’intimité. Lorsque les machines seront plus à même d’écouter, de valider et de réconforter que les humains, comment l’amitié, les soins ou les relations amoureuses seront-ils remodelés dans le monde réel ? Quels comportements seront normalisés et lesquels seront dévalorisés ?

Il existe également des risques sociétaux plus larges. L’IA émotionnelle sera difficile à contenir. Les garde-fous ne peuvent pas anticiper tous les cas d’utilisation ou d’abus, comme l’ont découvert même les développeurs les mieux intentionnés (ou les milliardaires les plus téméraires). La monétisation de ces technologies soulève d’autres inquiétudes : Que feront les entreprises des riches données psychologiques recueillies lors d’échanges émotionnellement intimes ? Qui contrôle la connaissance de vos peurs les plus profondes et de vos désirs les plus intimes ?

Nous nous trouvons au seuil d’une nouvelle ère de l’expérience humaine. Les technologies que nous avons créées ont le pouvoir d’élargir notre potentiel et de favoriser de nouvelles formes de compréhension. Mais elles risquent aussi de diminuer ce qui fait de nous des êtres humains, à savoir notre résilience, notre empathie et notre tolérance à la complexité. Cette tension n’est nulle part plus évidente que dans nos relations, à la fois avec les autres et avec nous-mêmes. Alors que les machines à réaction émotionnelle occupent une place de plus en plus centrale dans nos vies, nous devons nous demander si elles soutiennent notre capacité à nous connecter — ou si elles l’érodent. Que ces outils nous élèvent ou nous diminuent dépend des choix que nous faisons maintenant.

Kristina Lerman est scientifique principale à l’Institut des sciences de l’information de l’USC, professeure de recherche au département de sciences sociales de l’USC et membre de l’AAAI.

Texte original publié le 14 août 2025 : https://www.afterbabel.com/p/artificial-intimacy