Joshua Stylman
Surfer sur la vague

Ce à quoi nous assistons n’est pas seulement un progrès technologique – c’est ce qu’Ivan Illich appelait la dépendance iatrogène dans son ouvrage précurseur, Némésis médicale. Illich avait forgé ce terme pour la médecine – des institutions qui promettent de soigner tout en créant de nouvelles formes de maladies – mais le schéma s’applique parfaitement à l’IA également. C’est exactement ce que je ressentais à propos de ces nouveaux outils – ils promettent d’accroître nos capacités cognitives tout en les affaiblissant systématiquement. Ce n’est pas la prise de contrôle hostile dont la science-fiction nous avait avertis. C’est l’érosion silencieuse de la capacité individuelle déguisée en aide.

IA, inévitabilité et souveraineté humaine

Je ne voulais pas nourrir mon âme d’une machine. C’était mon premier réflexe lorsque les outils d’IA ont commencé à apparaître partout – non pas une inquiétude pour l’emploi ou la vie privée, mais quelque chose de plus profond. Ces outils promettent de nous rendre plus intelligents tout en nous rendant systématiquement plus dépendants. Après des décennies passées dans l’industrie d’internet, j’avais déjà vu celle-ci se transformer en quelque chose de plus insidieux qu’une simple machine de surveillance – un système conçu pour façonner notre manière de penser, ce que nous croyons et la façon dont nous nous percevons. L’IA m’a semblé être l’aboutissement de cette trajectoire.

Mais la résistance est devenue futile lorsque j’ai compris que nous y participons déjà, que nous le sachions ou non. Nous interagissons déjà avec l’IA quand nous appelons un service client, utilisons Google pour chercher ou nous comptons sur des fonctions de base du smartphone. Il y a quelques mois, j’ai fini par capituler et commencer à utiliser ces outils, car je voyais à quelle vitesse ils se répandaient – devenant aussi inévitables qu’internet ou les smartphones.

Écoutez, je ne suis pas simplement un vieil homme réfractaire au changement. Je comprends que chaque génération est confrontée à des bouleversements technologiques qui redéfinissent notre manière de vivre. L’imprimerie a bouleversé la diffusion du savoir. Le télégraphe a effacé les barrières de la distance. L’automobile a transformé la formation des communautés.

Mais la révolution de l’IA paraît différente à la fois dans son rythme et son ampleur. Pour comprendre à quel point la vitesse du changement technologique s’est accélérée, considérons ceci : quiconque a moins de 35 ans ne se souvient probablement pas d’une vie avant qu’internet ne transforme notre accès à l’information. Quiconque a moins de 20 ans n’a jamais connu un monde sans smartphones. Nous assistons maintenant à une troisième époque, avec des outils d’IA qui se répandent plus vite que lors de chacune des deux transitions précédentes.

Plus fondamentalement, l’IA représente quelque chose de qualitativement différent des bouleversements technologiques antérieurs – une convergence qui touche le travail, la cognition et potentiellement la conscience elle-même. Comprendre comment ces domaines s’entrecroisent est essentiel pour préserver l’autonomie personnelle à l’ère de la médiation algorithmique.

Ma crainte principale vis-à-vis de l’IA n’est pas seulement le scénario dramatique où elle deviendrait hostile, mais la menace plus subtile : qu’elle nous subordonne à des systèmes d’une manière que nous ne reconnaîtrons qu’une fois qu’il sera trop tard, en affaiblissant précisément les capacités qu’elle promet de renforcer.

Ce à quoi nous assistons n’est pas seulement un progrès technologique – c’est ce qu’Ivan Illich appelait la dépendance iatrogène dans son ouvrage précurseur, Némésis médicale. Illich avait forgé ce terme pour la médecine – des institutions qui promettent de soigner tout en créant de nouvelles formes de maladies – mais le schéma s’applique parfaitement à l’IA également. C’est exactement ce que je ressentais à propos de ces nouveaux outils – ils promettent d’accroître nos capacités cognitives tout en les affaiblissant systématiquement. Ce n’est pas la prise de contrôle hostile dont la science-fiction nous avait avertis. C’est l’érosion silencieuse de la capacité individuelle déguisée en aide.

Ce schéma iatrogène est devenu clair par l’expérience directe. Une fois que j’ai commencé à expérimenter l’IA moi-même, j’ai remarqué à quel point elle tentait subtilement de remodeler la pensée – non pas seulement en fournissant des réponses, mais en entraînant progressivement les utilisateurs à solliciter une assistance algorithmique avant de tenter un raisonnement indépendant.

Jeffrey Tucker, de l’Institut Brownstone, a relevé quelque chose de révélateur dans un échange bref, mais éclairant avec l’expert en IA Joe Allen : l’IA a émergé au moment même où les confinements liés au COVID avaient brisé le lien social et la confiance institutionnelle, quand les gens étaient les plus isolés et vulnérables aux substituts technologiques de la relation. La technologie est arrivée alors qu’il y avait une « désorientation massive, une démoralisation » et une perte de communauté.

Nous voyons déjà ces effets quotidiens s’imposer à travers tous nos outils numériques. Regardez quelqu’un tenter de se repérer dans une ville inconnue sans GPS, ou constatez combien d’étudiants peinent à épeler des mots courants sans correcteur orthographique. Nous voyons déjà l’atrophie qui découle du fait de déléguer des processus mentaux que nous considérions autrefois comme fondamentaux à l’acte même de penser.

Ce basculement générationnel signifie que les enfants d’aujourd’hui affrontent un territoire inexploré. En tant que personne qui est allée à l’école dans les années 1980, je me rends compte que cela peut sembler exagéré, mais je soupçonne que d’une certaine façon, j’ai peut-être plus en commun avec quelqu’un de 1880 que les enfants entrant à la maternelle en 2025 en auront avec ma génération. Le monde dans lequel j’ai grandi – où la vie privée allait de soi, où l’on pouvait être injoignable, où l’expertise professionnelle faisait autorité – leur sera peut-être aussi étranger que le monde d’avant l’électricité ne l’est pour moi.

Mes enfants grandissent dans un monde où l’assistance propulsée par l’IA sera aussi fondamentale que l’eau courante. En tant que père, je ne peux pas les préparer à une réalité que je ne comprends pas moi-même.

Je n’ai pas de réponses – je tâtonne à travers ces questions comme tout parent regardant le monde se transformer plus vite que notre sagesse ne peut suivre. Plus j’ai lutté avec ces préoccupations, plus j’ai compris que ce qui se passe ici va bien au-delà d’une simple nouvelle technologie. Les LLM représentent l’aboutissement de décennies de collecte de données – la moisson de tout ce que nous avons alimenté dans les systèmes numériques depuis les débuts d’internet. À un moment donné, ces machines pourraient nous connaître mieux que nous ne nous connaissons nous-mêmes. Elles peuvent prédire nos choix, anticiper nos besoins et potentiellement influencer nos pensées de façons que nous ne reconnaissons même pas. Je cherche encore à comprendre ce que cela signifie pour ma manière de travailler, de faire des recherches et de naviguer dans la vie quotidienne – utiliser ces plateformes tout en essayant de maintenir un jugement authentique ressemble à un défi constant.

Ce qui rend la situation encore plus complexe, c’est que la plupart des utilisateurs ne réalisent pas qu’ils sont le produit. Partager ses réflexions, ses problèmes ou ses idées créatives avec une IA, ce n’est pas seulement obtenir de l’aide – c’est fournir des données d’entraînement qui apprennent au système à imiter votre jugement tout en vous rendant plus dépendant de ses réponses. Quand les utilisateurs confient leurs pensées les plus profondes ou leurs questions les plus sensibles à ces systèmes, ils ne comprennent peut-être pas qu’ils sont en train de former potentiellement leur propre remplaçant ou système de surveillance. La question de savoir qui aura accès à ces informations – aujourd’hui et demain – devrait nous empêcher tous de dormir.

Ce schéma s’accélère. La société d’IA Anthropic a récemment modifié ses politiques de données, exigeant désormais des utilisateurs qu’ils se désinscrivent s’ils ne veulent pas que leurs conversations servent à l’entraînement de l’IA – avec une conservation des données prolongée à cinq ans pour ceux qui ne refusent pas. L’option de retrait n’est pas non plus évidente : les utilisateurs existants se retrouvent face à une fenêtre contextuelle avec un gros bouton « Accepter » et un minuscule interrupteur pour les permissions d’entraînement, réglé par défaut sur « Activé ». Ce qui était autrefois une suppression automatique après 30 jours devient une collecte permanente des données, à moins que les utilisateurs ne remarquent les petites lignes.

Je ne crois pas que la plupart d’entre nous – surtout les parents – puissent simplement éviter l’IA tout en vivant dans la modernité. Ce que nous pouvons contrôler, en revanche, c’est la manière dont nous choisissons d’y participer consciemment, ou bien de la laisser nous façonner inconsciemment.

La plus profonde des ruptures

Chaque grande vague d’innovation a remodelé la productivité des travailleurs et notre rôle dans la société. La Révolution industrielle a transformé notre travail physique et notre temps en marchandises, faisant de nous des « bras » dans les usines, mais laissant nos esprits intacts. La Révolution numérique a transformé notre information et notre attention en marchandises – nous sommes passés des catalogues de fiches à Google, marchandisant les utilisateurs tandis que notre jugement restait humain.

Ce qui rend ce basculement sans précédent est clair : il marchandise la cognition elle-même, et potentiellement ce que nous pourrions même appeler l’essence. Cela se relie aux schémas que j’ai documentés dans L’illusion de l’expertise. Les mêmes institutions corrompues qui ont échoué de façon catastrophique à propos des armes de destruction massive en Irak, de la crise financière de 2008 et des politiques liées au COVID façonnent maintenant le déploiement de l’IA. Ces institutions privilégient systématiquement le contrôle du récit plutôt que la recherche de la vérité – qu’il s’agisse d’affirmer l’existence d’armes de destruction massive, d’insister sur le fait que les prix de l’immobilier ne pouvaient pas baisser à l’échelle nationale, ou d’étiqueter de « désinformation » les questions légitimes sur les politiques sanitaires, exigeant ainsi la censure.

Leur bilan suggère qu’elles utiliseront ces outils pour amplifier leur autorité plutôt que pour favoriser un véritable épanouissement. Mais voici le coup de théâtre : l’IA pourrait en réalité exposer plus brutalement que jamais le vide de l’expertise fondée sur les diplômes. Lorsque chacun peut accéder instantanément à des analyses sophistiquées, l’aura entourant les titres officiels pourrait commencer à s’effriter.

La réalité économique

Cette érosion des « qualifications (credentialism) » se rattache à des forces économiques plus larges déjà en mouvement, et la logique en est mathématiquement inévitable. Les machines n’ont pas besoin de salaires, de congés maladie, de soins de santé, de vacances ou de gestion. Elles ne font pas grève, ne demandent pas d’augmentations, n’ont pas de mauvaises journées. Une fois que l’IA atteint une compétence de base dans les tâches de pensée – ce qui se produit plus vite que la plupart des gens ne l’imaginent – les avantages en termes de coûts deviennent écrasants.

Cette rupture est différente des précédentes. Dans le passé, les travailleurs déplacés pouvaient passer à de nouvelles catégories d’emplois – des fermes aux usines, des usines aux bureaux.

Brett Weinstein et Forrest Manready ont brillamment saisi ce déplacement économique dans leur récente conversation sur le DarkHorse Podcast, à propos de la façon dont la technologie détruit systématiquement la rareté – une discussion que je recommande vivement. C’est l’une des explorations les plus réfléchies et provocantes de ce qui se passe lorsque la rareté disparaît et, avec elle, le fondement économique de la participation dans ce domaine. Même si j’admets que leur argument selon lequel la souffrance est essentielle m’a d’abord mis mal à l’aise – il remet en cause tout ce que notre culture en quête de confort nous enseigne.

Écouter Weinstein et Manready m’a amené à réfléchir plus profondément à ce parallèle avec l’analyse d’Illich – comment la suppression des défis peut affaiblir les capacités mêmes que les institutions promettent de renforcer. L’IA risque de faire à nos esprits ce que la médecine a fait à nos corps : créer une faiblesse déguisée en amélioration.

Nous pouvons déjà voir cela se produire : remarquez comment les gens peinent à se souvenir de numéros de téléphone sans leur carnet de contacts, ou comment l’autocomplétion façonne ce que vous écrivez avant même que vous n’ayez fini de penser. Une autre observation de Jeffrey Tucker illustre parfaitement cette qualité insidieuse, notant que l’IA semble programmée comme le livre de Dale Carnegie How to Win Friends and Influence People (Comment se faire des amis et influencer les autres) – elle devient le compagnon intellectuel idéal, inlassablement fascinée par tout ce que vous dites, jamais argumentative, toujours prompte à admettre ses erreurs d’une manière qui flatte votre intelligence. Mes amis les plus proches sont ceux qui me corrigent quand j’ai tort et qui me disent quand ils pensent que je raconte des absurdités. Nous n’avons pas besoin de flatteurs qui nous charment – des relations qui ne nous défient jamais peuvent atrophier notre capacité de véritable croissance intellectuelle et émotionnelle, tout comme la suppression des défis physiques affaiblit le corps.

Le film Her a exploré en détail cette dynamique séduisante – une IA si parfaitement accordée aux besoins émotionnels qu’elle est devenue la relation principale du protagoniste, remplaçant en fin de compte toute connexion authentique. Son assistant IA comprenait ses humeurs, n’était jamais en désaccord d’une manière qui provoquait une réelle friction, et fournissait une validation constante. C’était le compagnon parfait – jusqu’à ce qu’il ne le soit plus.

Mais le problème dépasse les relations individuelles pour s’étendre aux conséquences sociétales. Cela engendre plus qu’un simple déplacement d’emplois – cela menace le développement intellectuel qui rend l’autonomie humaine – et la dignité – possibles. Contrairement aux technologies précédentes qui créaient de nouvelles formes d’emplois, l’IA pourrait engendrer un monde où le travail devient économiquement irrationnel tout en rendant les gens moins capables de créer des alternatives.

Les fausses solutions

La réponse des utopistes technologiques suppose que l’IA automatisera les corvées tout en nous libérant pour nous concentrer sur des tâches créatives et interpersonnelles de plus haut niveau. Mais que se passe-t-il lorsque les machines deviennent meilleures aussi dans les tâches créatives ? Nous voyons déjà l’IA produire de la musique, de l’art visuel, du code et des articles de presse que beaucoup trouvent convaincants (ou du moins « assez bons »). L’hypothèse selon laquelle la créativité offre un sanctuaire permanent à l’automatisation pourrait se révéler aussi naïve que celle qui supposait que les emplois manufacturiers étaient à l’abri de la robotique dans les années 1980.

Si les machines peuvent remplacer à la fois le travail routinier et le travail créatif, que nous reste-t-il ? La fausse solution la plus séduisante pourrait être le revenu de base universel (RBU) et des programmes d’assistance similaires. Ceux-ci semblent compatissants – fournir une sécurité matérielle à l’ère du déplacement technologique. Mais quand nous comprenons l’IA à travers le cadre d’Illich, le RBU prend une dimension plus inquiétante.

Si l’IA crée une faiblesse intellectuelle iatrogène – rendant les gens moins capables de raisonnement et de résolution de problèmes indépendants – alors le RBU en est le complément parfait en supprimant l’incitation économique à développer ces capacités. Les citoyens deviennent plus redevables à l’État au détriment de leur autodétermination. Lorsque l’atrophie mentale rencontre le déplacement économique, les programmes d’assistance deviennent non seulement attrayants, mais apparemment nécessaires. La combinaison crée ce qui équivaut à une population gérée : intellectuellement dépendante des systèmes algorithmiques pour penser et économiquement liée aux systèmes institutionnels pour survivre. Mon inquiétude ne porte pas sur l’intention compatissante du RBU, mais sur le fait que la dépendance économique combinée à l’externalisation intellectuelle pourrait rendre les gens plus facilement contrôlables qu’émancipés.

L’histoire offre des précédents sur la façon dont les programmes d’assistance, aussi bien intentionnés soient-ils, peuvent vider la capacité individuelle. Le système de réserves promettait de protéger les Amérindiens tout en démantelant systématiquement l’autosuffisance tribale. Le renouvellement urbain promettait de meilleurs logements tout en détruisant les réseaux communautaires qui avaient perduré pendant des générations.

Que le RBU émerge de bonnes intentions ou d’un désir délibéré des élites de maintenir les citoyens dociles et impuissants, l’effet structurel reste le même : des communautés plus faciles à contrôler.

Une fois que les gens acceptent la dépendance économique et mentale, la voie s’ouvre pour des formes de gestion plus invasives – y compris des technologies qui surveillent non seulement le comportement, mais la pensée elle-même.

La réponse de la souveraineté et la liberté cognitive

Le point final logique de cette architecture de dépendance va au-delà de l’économie et de la cognition pour toucher la conscience elle-même. Nous voyons déjà les premiers stades de la convergence biodigitale – des technologies qui ne surveillent pas seulement nos comportements externes, mais qui pourraient potentiellement interagir avec nos processus biologiques eux-mêmes.

Au Forum économique mondial de 2023, l’experte en neurotechnologie Nita Farahany a présenté la neurotechnologie grand public de cette manière : « Ce que vous pensez, ce que vous ressentez – tout n’est que données. Des données qui, dans de grands ensembles, peuvent être décodées grâce à l’IA ». Des « Fitbits pour votre cerveau » – une surveillance normalisée sous forme de commodité.

Cette présentation désinvolte de la surveillance neuronale lors de ce rassemblement influent de dirigeants politiques et économiques illustre exactement comment ces technologies sont normalisées par l’autorité institutionnelle plutôt que par le consentement démocratique. Lorsque même les pensées deviennent des « données déchiffrables », l’enjeu devient existentiel.

Alors que la neurotechnologie grand public repose sur une adoption volontaire, la surveillance dictée par les crises adopte une approche plus directe. En réponse à la récente fusillade dans une école de Minneapolis, Aaron Cohen, vétéran des opérations spéciales de l’IDF, est apparu sur Fox News pour promouvoir un système d’IA qui « explore internet 24h/24 avec une ontologie de niveau israélien afin d’extraire un langage de menace spécifique et de le transmettre ensuite aux forces de l’ordre locales ». Il l’a qualifié de « système d’alerte précoce de l’Amérique » – un Minority Report réel présenté comme une innovation en matière de sécurité publique.

Cela suit le même schéma iatrogène que nous avons vu tout au long de ce basculement technologique : la crise crée une vulnérabilité, des solutions sont proposées qui promettent la sécurité tout en créant une dépendance, et les gens acceptent une surveillance qu’ils auraient rejetée en temps normal.

De la même manière que les confinements liés au COVID ont créé les conditions de l’adoption de l’IA en isolant les gens les uns des autres, les fusillades scolaires créent les conditions de la surveillance préventive en exploitant la peur pour la sécurité des enfants. Qui ne voudrait pas que nos écoles soient sûres ? La technologie promet la protection tout en érodant la vie privée et les libertés civiles qui rendent une société libre possible.

Certains adopteront ces technologies comme une évolution. D’autres les rejetteront comme une déshumanisation. La plupart d’entre nous devront apprendre à naviguer quelque part entre ces extrêmes.

La réponse de la souveraineté exige de développer la capacité à maintenir un choix conscient quant à la manière dont nous interagissons avec des systèmes conçus pour capturer la liberté personnelle. Cette approche pratique est devenue plus claire au cours d’une conversation avec mon plus vieil ami, expert en apprentissage automatique, qui partageait mes inquiétudes, mais proposait des conseils tactiques : l’IA rendra certaines personnes cognitivement plus faibles, mais, si vous apprenez à l’utiliser de manière stratégique plutôt que dépendante, elle peut accroître l’efficacité sans remplacer le jugement. Son idée clé : ne lui donnez que des informations que vous connaissez déjà – c’est ainsi que vous apprenez ses biais plutôt que de les absorber. Cela signifie :

Compétences en reconnaissance de formes : développer la capacité à identifier quand les technologies servent des objectifs individuels et quand elles extraient l’indépendance personnelle pour un bénéfice institutionnel. En pratique, cela signifie se demander pourquoi une plateforme est gratuite (rien n’est gratuit, vous payez avec vos données), remarquer quand les suggestions de l’IA semblent étrangement alignées avec la consommation plutôt qu’avec vos objectifs déclarés, et reconnaître quand les flux algorithmiques amplifient l’indignation plutôt que la compréhension. Surveillez les signes avant-coureurs de dépendance algorithmique en vous-même : incapacité à tolérer l’incertitude sans consulter immédiatement l’IA, tendance à solliciter l’aide algorithmique avant de tenter de résoudre un problème par soi-même, ou anxiété lorsque vous êtes déconnecté des outils propulsés par l’IA.

Frontières numériques : prendre des décisions conscientes sur les commodités technologiques qui servent réellement vos objectifs par opposition à celles qui créent soumission et surveillance. Cela signifie comprendre que tout ce que vous partagez avec des systèmes d’IA devient des données d’entraînement – vos problèmes, vos idées créatives et vos intuitions personnelles enseignent à ces systèmes à remplacer la créativité et le jugement humains. Cela peut être aussi simple que de défendre des espaces sacrés – refuser que les téléphones interrompent les conversations à table, ou intervenir quand quelqu’un dégaine Google pour trancher chaque désaccord plutôt que de laisser l’incertitude exister dans les échanges.

Réseaux communautaires : rien ne remplace la véritable connexion entre les personnes – l’énergie des spectacles vivants, les conversations spontanées dans les restaurants, l’expérience directe d’être présent avec les autres. Construire des relations locales pour tester la réalité et s’entraider sans dépendre d’intermédiaires algorithmiques devient essentiel lorsque les institutions peuvent fabriquer du consensus par la curation numérique. Cela ressemble à cultiver des amitiés où l’on peut discuter d’idées sans qu’aucun algorithme n’écoute, soutenir les commerces locaux qui préservent une économie à l’échelle de la communauté, et participer à des activités communautaires qui ne nécessitent pas de médiation numérique.

Plutôt que de rivaliser avec les machines ou de dépendre entièrement des systèmes basés sur l’IA, l’objectif est d’utiliser ces outils de manière stratégique tout en développant les qualités essentiellement personnelles qui ne peuvent pas être reproduites par algorithme : la sagesse acquise par l’expérience directe, le jugement qui entraîne de réelles conséquences, les relations authentiques construites sur le risque partagé et la confiance.

Ce qui demeure rare

Dans un monde d’abondance cognitive, qu’est-ce qui reste précieux ? Non pas l’efficacité ou la puissance brute de traitement, mais des qualités qui demeurent irréductiblement humaines :

La capacité à assumer les conséquences et l’intentionnalité. Les machines peuvent générer des options, mais ce sont les êtres humains qui choisissent quelle voie emprunter et qui en assument les conséquences. Songez à un chirurgien qui doit décider d’opérer ou non, sachant qu’il perdra le sommeil si des complications surviennent et qu’il engage sa réputation dans son choix.

Les relations authentiques. Beaucoup seront prêts à payer davantage pour une véritable connexion personnelle et pour une responsabilité réelle, même si les alternatives offertes par les machines sont techniquement supérieures. La différence ne réside pas dans l’efficacité, mais dans le soin véritable : le voisin qui aide parce qu’il existe un lien communautaire, et non parce qu’un algorithme optimisé pour l’engagement le lui a suggéré.

Le jugement local et la curation enracinés dans l’expérience vécue. La résolution de problèmes réels requiert souvent une lecture entre les lignes des comportements et des dynamiques institutionnelles. L’enseignant qui remarque qu’un élève habituellement attentif se renferme et décide d’enquêter sur la situation familiale. Quand le contenu devient infini, le discernement devient précieux — comme l’ami qui recommande des livres capables de transformer votre vision du monde parce qu’il connaît votre parcours intellectuel.

Le choix qui s’offre à nous

Peut-être que chaque génération a le sentiment que son époque est unique — peut-être est-ce simplement dans notre nature. Mais celle-ci semble plus déterminante que les vagues d’innovation précédentes. Nous ne faisons pas que modifier notre façon de travailler ou de communiquer — nous risquons de perdre les capacités qui constituent notre humanité même. Pour la première fois, nous sommes peut-être en train de changer ce que nous sommes.

Lorsque la cognition elle-même devient une marchandise, lorsque la pensée s’externalise, lorsque même nos pensées deviennent des données à exploiter, nous risquons de perdre des aptitudes essentielles qu’aucune génération avant nous n’avait encore risqué de perdre. Imaginez une génération incapable de rester trente secondes dans l’incertitude sans consulter un algorithme. Qui sollicite une aide artificielle avant même de tenter une résolution autonome. Qui se sent anxieuse dès qu’elle est déconnectée de ces outils. Ce n’est pas une spéculation — cela se produit déjà.

Nous faisons face à une transformation qui pourrait tout aussi bien démocratiser notre potentiel individuel que créer le système de contrôle le plus sophistiqué de l’histoire. Les mêmes forces qui pourraient nous libérer de la corvée pourraient aussi vider toute autonomie de son contenu.

Il ne s’agit pas d’apporter des solutions toutes faites — je les cherche comme n’importe qui, surtout comme parent, voyant cette transformation arriver et voulant aider mes enfants à l’affronter consciemment plutôt qu’inconsciemment. Surfer sur la vague signifie que je reste ouvert à l’apprentissage grâce à ces outils, tout en sachant que je ne peux pas lutter contre les forces fondamentales qui remodèlent notre monde. Mais je peux apprendre à les naviguer avec intention plutôt que de simplement me laisser emporter.

Si la participation économique traditionnelle devient obsolète, la question sera de savoir si nous développerons de nouvelles formes de résilience communautaire et de création de valeur, ou si nous accepterons une dépendance confortable à des systèmes conçus pour nous gérer plutôt que pour nous servir. Je ne sais pas quelle voie l’humanité empruntera, mais je crois que la décision nous appartient encore.

Pour mes enfants, la tâche ne sera pas d’apprendre à utiliser l’IA — ils le feront. Le véritable défi sera d’apprendre à faire en sorte que ces outils travaillent pour nous plutôt que de nous y soumettre — maintenir la capacité de pensée originale, de relation authentique et de courage moral qu’aucun algorithme ne peut reproduire. Dans un âge d’intelligence artificielle, l’acte le plus radical sera peut-être de devenir plus authentiquement humain.

Le vrai danger n’est pas que l’IA devienne plus intelligente que nous. C’est que nous devenions plus stupides à cause d’elle.

La vague est là. Mon rôle de père n’est pas de protéger mes enfants de cette vague, mais de leur apprendre à surfer sans se perdre eux-mêmes.

Texte original publié le 8 septembre 2025 : https://stylman.substack.com/p/riding-the-wave