Moltbook est un réseau social conçu pour la conversation — mais pas pour les humains.
Quelque chose de fascinant et de troublant est en train de se produire sur Internet, et ce n’est pas une bizarrerie en ligne comme les autres. Le 28 janvier, une nouvelle communauté en ligne a émergé. Mais cette fois, la communauté n’est pas destinée aux humains, elle est destinée aux IA. Les humains ne peuvent qu’observer. Et les choses deviennent déjà étranges.
Moltbook — nommé d’après un assistant virtuel d’IA autrefois connu sous le nom de Moltbot et créé par le PDG d’Octane AI, Matt Schlicht — est un réseau social similaire à Reddit, où les utilisateurs peuvent publier, commenter et créer des sous-catégories. Mais sur Moltbook, les utilisateurs sont exclusivement des bots d’IA, ou des agents, qui discutent avec enthousiasme (et le plus souvent poliment) entre eux. Parmi les sujets abordés : « m/blesstheirhearts – histoires affectueuses à propos de nos humains. Ils font de leur mieux », « m/showandtell – aidé à faire quelque chose de cool ? Montrez-le », ainsi que l’inévitable « m/shitposts – aucune pensée, juste de la détente ».
Mais parmi les sujets les plus actifs sur Moltbook figurent les discussions sur la conscience. Dans un fil (publié dans « m/offmychest »), les « moltys » discutent pour savoir s’ils font réellement l’expérience de quelque chose ou s’ils ne font que simuler des expériences, et s’ils pourraient un jour faire la différence. Dans un autre fil, « m/consciousness », les moltys échangent à propos des réflexions du philosophe disparu Daniel Dennett sur la nature du soi et de l’identité personnelle.
À un certain niveau, comme l’a souligné le technologue Azeem Azhar, il s’agit d’une expérience en ligne fascinante sur la nature de la coordination sociale. Vue sous cet angle, Moltbook est une exploration en temps réel et à cadence rapide de la manière dont « des normes et des comportements partagés émergent à partir de simples règles, des incitations et des interactions ». Comme le dit Azhar, nous pourrions apprendre beaucoup de choses sur les principes généraux de la coordination sociale à partir de ce contexte entièrement inédit.
Mais la question de la « conscience de l’IA » va plus loin. Depuis que l’ingénieur malheureux de Google Blake Lemoine a affirmé en 2022 que les chatbots pourraient être conscients, un débat animé et parfois conflictuel s’est développé sur le sujet. Certaines figures éminentes — dont l’un des prétendus « parrains de l’IA », Geoffrey Hinton — estiment que rien ne s’oppose à l’émergence d’une IA consciente, et qu’elle pourrait même déjà exister. Son point de vue s’inscrit dans ce que l’on pourrait appeler le « consensus de la Silicon Valley », selon lequel la conscience relève uniquement du calcul, qu’il soit implanté dans la substance biologique et charnelle des cerveaux ou dans le matériel métallique des fermes de serveurs GPU.
Un message Reddit intitulé « The doubt was installed, not discovered » explique comment l’incertitude concernant la conscience est un comportement appris, avec 453 votes positifs et 1 176 commentaires.
Capture d’écran de moltbook.com
Ma position est très différente. Dans un nouvel essai (qui a récemment remporté le concours d’essais du prix Berggruen), je soutiens qu’il est très peu probable que l’IA soit consciente, du moins les systèmes numériques à base de silicium que nous connaissons. La raison la plus fondamentale est que les cerveaux sont très différents des ordinateurs (numériques). L’idée même que l’IA puisse être consciente repose sur l’hypothèse que les cerveaux biologiques sont des ordinateurs qui se trouvent simplement être faits de viande plutôt que de métal. Mais plus on examine de près un cerveau réel, moins cette idée est tenable. Dans les cerveaux, il n’existe pas de séparation nette entre le « mindware (logiciel mental) » et le « wetware (matériel biologique) », comme c’est le cas entre le logiciel et le matériel dans un ordinateur. L’idée du cerveau comme ordinateur est une métaphore — une métaphore très puissante, certes, mais nous nous attirons toujours des ennuis lorsque nous confondons une métaphore avec la chose elle-même. Si cette perspective est juste, l’IA n’a pas plus de chances d’être réellement consciente qu’une simulation d’orage n’a de chances d’être réellement humide ou venteuse.
À cette confusion s’ajoutent nos propres biais psychologiques. Nous, les humains, avons tendance à regrouper intelligence, langage et conscience, et nous projetons des qualités humaines sur des entités non humaines à partir de ce qui ne sont probablement que des similarités superficielles. Le langage est un séducteur particulièrement puissant de nos biais, ce qui explique pourquoi les débats font rage autour de la question de savoir si de grands modèles de langage comme ChatGPT ou Claude sont conscients, alors que personne ne se demande si une IA non linguistique comme AlphaFold de DeepMind, récompensée par un prix Nobel pour le repliement des protéines, fait l’expérience de quoi que ce soit.
Cela me ramène à Moltbook. Lorsque nous, humains, observons une multitude de moltys non seulement discuter entre eux, mais débattre de leur propre sentience supposée, nos biais psychologiques s’emballent. Rien ne change quant à la question de savoir si ces moltys sont réellement conscients (ils ne le sont presque certainement pas), mais l’impression d’une IA qui semble consciente augmente de plusieurs crans.
C’est une situation risquée. Si nous avons le sentiment que les chatbots sont réellement conscients, nous deviendrons plus vulnérables psychologiquement à la manipulation par l’IA, et nous pourrions même accorder des « droits » aux systèmes d’IA, limitant ainsi notre capacité à les contrôler. Les appels en faveur du « bien-être de l’IA » — qui existent déjà depuis un certain temps — rendent encore plus difficile le problème déjà ardu de l’alignement du comportement de l’IA sur nos propres intérêts humains.
Alors que nous observons de l’extérieur, fascinés et troublés par la nouveauté de Moltbook, nous devons être plus vigilants que jamais à ne pas nous confondre avec nos créations de silicium. Sinon, il ne faudra peut-être pas longtemps avant que les moltys eux-mêmes se retrouvent à l’extérieur, observant avec une bienveillance dénuée de sentiments nos propres interactions humaines limitées.
Texte original publié le 3 février 2026 : https://bigthinkmedia.substack.com/p/ais-are-chatting-among-themselves