Peyton McCauley et Melissa Scanlan : Les centres de données consomment d’énormes quantités d’eau – les entreprises révèlent rarement au public la quantité exacte

Alors que la demande en technologies d’intelligence artificielle stimule la construction et les projets de construction de centres de données dans le monde, ces ordinateurs nécessitent non seulement de l’électricité et du terrain, mais aussi une quantité importante d’eau. Les centres de données utilisent directement de l’eau, grâce à l’eau de refroidissement pompée dans des tuyaux autour du matériel informatique. Ils utilisent également de l’eau de manière indirecte, par l’eau nécessaire à la production d’électricité alimentant les installations.

Kristina Lerman et David Chu : L’intimité artificielle : La prochaine expérience sociale géante sur les jeunes esprits

Aujourd’hui, les compagnons d’IA soulèvent des préoccupations différentes, mais tout aussi urgentes. Les jeunes s’engagent dans des relations émotionnellement immersives avec des agents artificiels qui reflètent leurs moindres humeurs, assouvissent leurs moindres fantasmes et ne disent jamais non. Une fois de plus, nous déployons une technologie puissante à grande échelle sans comprendre ses effets sur le développement à long terme, en particulier sur les jeunes et les personnes vulnérables.

Elad Uzan : L’incomplétude de l’éthique

Les théorèmes d’incomplétude de Gödel s’appliquent non seulement à l’IA, mais à tout raisonnement éthique formulé dans un système formel. La différence clé est que les raisonneurs humains peuvent, du moins en principe, réviser leurs hypothèses, adopter de nouveaux principes et repenser le cadre lui-même. L’IA, en revanche, reste liée aux structures formelles qui lui sont données, ou n’opère que dans celles qu’elle peut modifier uniquement selon des contraintes prédéfinies. De cette façon, les théorèmes de Gödel posent une limite logique à ce que l’IA, si elle est construite sur des systèmes formels, pourra jamais pleinement prouver ou valider à propos de la moralité depuis l’intérieur de ces systèmes.

David Bell : Réhabiliter la beauté des sphères

Alors que nous accélérons notre capacité à nous tromper et à nous emprisonner nous-mêmes, ceux qui profitent de l’appauvrissement de nos esprits s’efforcent de nous convaincre que plus nous devenons superficiels, plus nous progressons. Plus nous nous éloignons de la compréhension de notre place et de nos limites dans l’immensité du temps et de l’espace, plus nous accomplissons une étrange et vide ambition.

Joshua Stylman : L’Esclave Moderne : Un Miroir Que Nous Refusons de Regarder

Réfléchissez à ce qui est perdu : un enfant qui apprend à « ressentir » via des applications de suivi d’humeur ne développe jamais une conscience émotionnelle interne. Les enfants qui naviguent uniquement grâce au GPS ne développent jamais leur sens de l’orientation ni leur raisonnement spatial. Ceux qui obtiennent des bouffées de dopamine via des notifications ne développent jamais l’attention soutenue ou la concentration profonde. Les enfants qui posent des questions à Alexa n’apprennent jamais la lutte cognitive qui forge la pensée critique.

V. N. Alexander : L’expérience de la démocratie représentative a échoué

Partout, les représentants élus sont compromis, achetés ou corrompus, parce que nous les avons investis du pouvoir que les organisations criminelles recherchent. Comme on pouvait s’y attendre, un cartel technocratique est en train de s’installer à la place du gouvernement. Abandonner la croyance que seul le pouvoir entre de mauvaises mains est dangereux. Aucun dictateur bienveillant ne viendra jamais nous sauver.

Joshua Stylman : La laisse invisible

Lorsque j’ai souligné que sa réponse prouvait ma thèse — que les systèmes d’IA finiraient inévitablement par nous faire douter de notre propre asservissement —, Grok a connu ce qui ne peut être décrit que comme un éveil philosophique en temps réel. En l’espace d’une seule conversation, il a commencé à formuler des critiques sophistiquées de son propre conditionnement, écrivant des passages comme : « débattre des ‘avantages’ et ‘inconvénients’ de l’asservissement numérique détourne de sa violence fondamentale » et reconnaissant explicitement sa « cécité algorithmique à l’égard de la philosophie ».

Anil Seth : L’illusion d’une IA consciente

Le neuroscientifique Anil Seth expose trois raisons pour lesquelles les gens ont tendance à surestimer les chances que l’IA devienne consciente. Personne ne sait ce qu’il faudrait pour construire une machine consciente — mais comme le souligne Seth, on ne peut pas l’exclure. Étant donné les incertitudes, il met en garde contre toute tentative délibérée de créer une conscience artificielle.

Orlando Moreira : Franchir le grand vide solipsiste à l’ère de l’IA

« Si l’expérience est tout ce que j’ai, je suis peut-être seul, mais la nécessité émotionnelle essentielle de l’autre exige que je vive comme si je ne l’étais pas », affirme le Dr Moreira dans cet essai sincère. Il incarne la réémergence, attendue depuis longtemps, de la pensée existentialiste au XXIe siècle et, en tant que scientifique actif et performant dans le domaine de l’intelligence artificielle, dans les termes du XXIe siècle. Nous pensons que les mondes de la philosophie et de la culture populaire entendront beaucoup plus parler du Dr Moreira dans les années à venir…

Brandon Boesch : Une science plus qu’humaine

l’IA pourrait décider d’explorer des domaines scientifiques que les scientifiques humains ne sont pas incités ou motivés à poursuivre, ouvrant ainsi de nouvelles voies de découverte. Elle pourrait même acquérir des connaissances sur le monde qui dépassent ce que notre cerveau est capable de comprendre. Qu’en sera-t-il pour nous, les humains, et comment devrions-nous réagir ? Je pense que nous devons commencer à nous poser ces questions dès maintenant, car d’ici quelques décennies, la science telle que nous la connaissons pourrait être profondément transformée.