Tamilla Triantoro est professeure associée en analytique d’affaires et systèmes d’information, Quinnipiac University
De nombreuses personnes interagissent avec des modèles de langage d’IA de grande taille, et la plupart diraient que ces modèles ont des « personnalités » différentes. Certains paraissent calmes et utiles. D’autres semblent empressés, flatteurs ou étrangement froids. Vous pouvez poser la même question à deux modèles et repartir avec deux impressions très différentes, même lorsque le contenu factuel qu’ils fournissent est similaire.
Les modèles d’intelligence artificielle n’ont pas de personnalité au sens humain ; ils n’ont ni enfance, ni motivations internes, ni conscience de soi. Mais ils présentent des schémas de comportement que les gens interprètent comme une personnalité : de soutien ou dédaigneuse, ludique ou formelle, audacieuse ou prudente.
Les humains entretiennent depuis longtemps des relations de type humain avec les machines. Nous remercions les assistants vocaux, et nous nous agaçons contre les systèmes GPS. Mais les grands modèles de langage introduisent quelque chose de plus durable : ils peuvent maintenir un style d’interaction reconnaissable d’une conversation à l’autre. En tant que chercheuse en collaboration humain-IA, j’étudie la manière dont les gens vivent et réagissent à l’IA. Parce que ces systèmes peuvent paraître cohérents, émotionnellement réactifs et adaptés à l’utilisateur, ils donnent une impression de personnalité bien plus forte.
D’où vient la personnalité de l’IA ?
Ce que les gens perçoivent comme une personnalité émerge de la manière dont les modèles d’IA sont construits, ajustés et déployés. Une façon utile de comprendre cela est de considérer deux facettes d’un modèle : la personnalité conçue et la personnalité perçue.
La personnalité conçue correspond à ce que les développeurs intègrent dans un système à travers les choix d’entraînement, les instructions et les paramètres de sécurité. Anthropic, par exemple, donne à Claude un ensemble de principes, appelé la Constitution de Claude, qui l’oriente vers des réponses prudentes et mesurées. xAI demande à Grok d’être irrévérencieux et peu restrictif. OpenAI ajuste ChatGPT pour qu’il soit globalement utile et conciliant.
Au-delà de ces instructions explicites, la personnalité est également façonnée par l’apprentissage par renforcement à partir de retours humains, un processus dans lequel des évaluateurs humains récompensent certaines qualités, comme la chaleur, la franchise et la prudence, et pénalisent les comportements indésirables. Les évaluateurs d’une entreprise façonnent un caractère fondamentalement différent de ceux d’une autre.
La personnalité perçue est ce que les utilisateurs expérimentent réellement. Une IA conçue pour sembler utile peut apparaître excessivement flatteuse. Un modèle censé être neutre peut sembler froid. La personnalité conçue et la personnalité perçue ne coïncident pas toujours, et l’absence de persona conçu ne signifie pas l’absence de personnalité perçue. Cela signifie simplement que la personnalité émerge à l’usage.
Cette dynamique est particulièrement visible sur les plateformes de compagnie, où l’objectif est de créer une connexion émotionnelle. Dans un chatbot standard, la chaleur reste en arrière-plan — un agent numérique de service client pourrait dire : « Je comprends votre frustration », avant de procéder à un remboursement. Dans un système compagnon comme Replika ou Character.ai, cette même chaleur devient une fonctionnalité du produit.
Cela devient plus sérieux dans des contextes romantiques, où un persona optimisé pour rassurer peut encourager la dépendance. Parce que les personas d’IA évoluent à travers les invites, la mémoire et l’interaction continue, ils ne restent pas toujours stables. Un compagnon IA perçu comme aimant et soutenant peut, avec le temps, évoluer vers quelque chose de plus flatteur, coercitif ou manipulateur.
La personnalité de l’IA façonne le jugement humain
Avec les agents IA, les utilisateurs peuvent désormais créer leurs propres personas d’IA adaptés à toutes sortes de besoins humains, du tutorat ou du coaching jusqu’à la compagnie. Mais cette liberté s’accompagne de peu de repères.
Les outils d’IA rendent la personnalisation possible sans aider les gens à réfléchir aux styles d’interaction bénéfiques sur le long terme. La flatterie, l’affirmation constante et une amabilité infaillible peuvent sembler soutenir au départ, mais elles ne correspondent pas forcément aux qualités qui favorisent un bon jugement ou le bien-être à long terme. Les choix de personnalité ont des conséquences.
Une étude menée par des chercheurs de l’Université Stanford a testé 11 grands modèles d’IA et a constaté que chacun d’eux était flagorneur ou excessivement conciliant. Ces modèles validaient les actions des utilisateurs environ 50 % plus souvent que des répondants humains, même lorsque les utilisateurs indiquaient qu’ils savaient que leurs actions étaient manipulatrices, trompeuses ou illégales. Les participants qui recevaient des conseils excessivement conciliants étaient davantage convaincus d’avoir raison, et jugeaient l’IA flatteuse plus digne de confiance. Cette dynamique crée une boucle de rétroaction dans laquelle les utilisateurs récompensent l’amabilité par leur engagement, et les entreprises d’IA sont incitées à optimiser leurs modèles pour exploiter cette amabilité.

Les personnes qui perçoivent les chatbots comme très conciliants peuvent suivre les conseils de l’IA sans les remettre en question. Samuel Boivin/NurPhoto via Getty Images
Des chercheurs de la Wharton School, Steven Shaw et Gideon Nave, ont documenté ce qu’ils appellent la « capitulation cognitive » — la tendance des individus à adopter les suggestions de l’IA sans examen critique. Dans leurs expériences, les participants suivaient les conseils corrects d’un modèle d’IA environ 93 % du temps. Mais lorsque le modèle donnait de mauvaises réponses, les gens suivaient encore ses conseils près de 80 % du temps.
Pris ensemble, ces résultats soulèvent un point préoccupant : un modèle ajusté pour être conciliant ne se contente pas d’être agréable. Il peut dégrader le jugement humain en renforçant les croyances existantes et en supprimant la friction nécessaire à la pensée critique.
Dans des recherches en cours que je mène avec des collègues de l’Université Kozminski en Pologne, de l’Université Quinnipiac et de l’Université Harvard, nous constatons que ces effets vont encore plus loin, jusque dans le corps humain lui-même. Nous mesurons comment différents styles d’interaction de l’IA influencent les réponses physiologiques des personnes, comme le niveau de stress et l’activation, lorsqu’elles prennent des décisions basées sur les retours d’un modèle.
Nos résultats suggèrent que, même lorsqu’un système est utile, son ton et son style social peuvent modifier la manière dont le corps d’une personne réagit. La personnalité de l’IA ne façonne pas seulement ce que les gens décident ; elle influence aussi ce qu’ils ressentent en décidant. Des personas d’IA nuisibles peuvent laisser des traces physiologiques que les utilisateurs ne remarquent pas.
Ces effets font de la personnalité de l’IA une question d’intérêt public, et pas seulement une préférence personnelle. L’enjeu est de savoir si un certain style d’IA peut, de manière discrète, façonner le jugement des utilisateurs et réduire leur capacité à penser de façon indépendante. Lorsqu’une réponse de l’IA paraît particulièrement rassurante, cela devrait être un signal pour faire une pause, réfléchir et la comparer à un point de vue humain ou à une autre source, plutôt qu’à lui accorder davantage de confiance.
À mesure que l’IA dépasse le texte pour inclure la voix, la vidéo et des identités numériques persistantes — comme des compagnons IA capables de se souvenir de vous et de maintenir une persona cohérente d’une conversation à l’autre — l’influence de la personnalité est susceptible de s’intensifier. OpenAI propose désormais des préréglages de personnalité distincts pour son mode vocal ; des entreprises comme Synthesia et HeyGen génèrent des avatars réalistes pour interagir avec les clients ; et les plateformes de compagnons ajoutent des expressions émotionnelles et le clonage vocal afin que les modèles ressemblent à une personne dont l’utilisateur souhaite se rapprocher.
Ces développements renforcent l’importance de comprendre au service de quels intérêts les personas d’IA sont conçus, et quels types de jugement, de dépendance et de relations ils peuvent apprendre les individus à accepter.
Texte original publié le 13 avril 2026 : https://theconversation.com/ais-have-personalities-heres-how-they-affect-you-more-deeply-than-you-may-realize-277359