L’intelligence artificielle, ou IA, est actuellement le sujet à la mode. Impossible d’y échapper : art généré par l’IA, musique, écriture… elle est partout. Et n’oublions pas les robots, les Terminators et les poupées sexuelles capables de vous murmurer des mots doux à l’oreille. Quel monde charmant nous construisons ! Et tout cela n’est-il pas juste pour le plaisir et le divertissement ? Oui, bien sûr.
Évidemment, ce que l’on nous présente comme amusant et divertissant au départ, nous, les simples mortels, finit par s’intégrer dans notre quotidien : des smartphones pour jouer et organiser toutes sortes d’activités, ChatGPT pour faire nos devoirs, ou encore des voitures autonomes qui viennent nous chercher après nos courses ou un dîner. Mais jusqu’à présent, rien de comparable au robot Terminator. Ce genre de chose appartient au cinéma, n’est-ce pas ? Oui, bien sûr.
Nous ne sommes pas toujours conscients des milliers de façons dont l’IA influence notre vie quotidienne. Les robots assemblent nos voitures depuis longtemps, par exemple. Bien que nous soyons au courant, nous ne réalisons pas toujours pleinement à quel point ces technologies prennent le contrôle. Nous le soupçonnons, mais nous commençons à peine à en prendre conscience.
Et si nous écoutons Elon Musk et ses pairs, nous sommes suffisamment avertis des dangers à venir.
L’IA n’est plus juste un programme informatique ou une machine métallique qui soudent des pare-chocs de voitures. Aujourd’hui, elle va bien au-delà. Sa prouesse actuelle réside dans sa capacité à anticiper nos actions — apparemment, elle peut « penser », pour ainsi dire. Elle semble avoir un « esprit propre » et est conçue pour rendre les humains obsolètes, non seulement dans le secteur du travail manuel, mais partout.
Bien sûr, on nous assure que ce n’est pas si grave, que ce n’est qu’un outil dont nous pouvons tous tirer profit. On nous agite la carotte sous le nez, nous vantant ses merveilles et son éclat. Mais je suis certain que le bâton sera tout aussi merveilleux, tout aussi brillant — et ultimement mortel.
Nous n’atteindrons peut-être pas le stade où des robots décideront d’exterminer les humains « défectueux et inutiles ». C’est un classique de la science-fiction. Je ne pense pas qu’il faille en arriver là (mais c’est possible).
Ce qui, à mon avis, arrivera bien plus rapidement, c’est la mort de l’humanité, la disparition de ce qui nous rend humains, progressivement, sans que presque personne ne s’en aperçoive. Ceux qui s’en rendront compte iront se cacher (peut-être littéralement, à la manière de Matrix ou Robocop), puis ils recommenceront toute cette mascarade humaine. Et peut-être que la prochaine fois (ou la troisième ? ou la quatrième ?) ne sera pas une « mascarade » — espérons que nous apprendrons de nos erreurs.
Pour l’instant, la majorité de ce que nous connaissons de l’IA, en tant que consommateurs, se résume au divertissement ou aux tâches banales qui remplacent les emplois manuels. Mais qu’en est-il des domaines plus sérieux, comme les forces de l’ordre ou l’armée ? L’IA et la robotique y font déjà leurs débuts, et lorsque ces technologies auront atteint leur apogée, ce ne sera pas joli.
Je pense que tout le monde connaît le chien robot développé pour la police. Actuellement, il est utilisé pour des tâches relativement inoffensives : patrouiller dans les parcs, désamorcer des bombes, effectuer des missions de surveillance et de reconnaissance. Mais des projets existent déjà pour les armer et les déployer dans des situations plus « actives ». Les forces de l’ordre utilisent aussi d’autres formes de robotique, comme des drones pour la surveillance aérienne, des négociateurs lors de prises d’otages, et même des distributeurs de contraventions.
En revenant à l’armement des « robots-chiens policiers », certains modèles sont déjà équipés de gaz lacrymogènes, de tasers ou de filets. En Chine, un chien robot spécial (en réalité, pas un « chien » à proprement parler) patrouille dans les rues de Wenzhou, dans la province du Zhejiang. Cette machine peut même poursuivre des suspects à une vitesse de 35 km/h. Pas aussi mignon qu’un vrai chien, mais apparemment tout aussi efficace, voire davantage.
Sur le front juridique, j’ai récemment lu qu’une avocate en Colombie-Britannique s’est fait réprimander pour avoir utilisé ChatGPT afin d’inventer des affaires judiciaires. Elle a apparemment utilisé ces informations erronées lors d’un procès de grande envergure dans une affaire familiale. Bien qu’elle ait affirmé ne pas avoir cherché à tromper intentionnellement, elle a été jugée responsable.
Bien que l’utilisation de l’IA dans les procédures judiciaires ne soit pas encore courante, on voit déjà se dessiner les tendances futures. Les robots dans les forces de l’ordre semblent logiques, mais les utiliser dans les tribunaux en est encore à ses balbutiements. Mais retenez mes mots : ils finiront par tout faire aussi bien que les humains.
Qui refuserait un avocat robot, équipé d’une base de données regroupant tous les précédents judiciaires et capable de formuler des arguments logiques et impartiaux ? Un jury de robots serait également une évidence : un jugement totalement objectif des faits présentés. Quelle époque formidable nous attend ! La plupart des criminels n’auront même pas le temps d’atteindre le tribunal : ils se feront neutraliser par Rover sur le terrain, en plein acte criminel — pas besoin de procès, vu la précision et le discernement « infaillible » des Robocops.
Quant à l’armée, cela ne mérite même pas débat.
Ils sont conçus pour tuer l’ennemi, alors si cela peut être fait sans causer trop de pertes du côté des « gentils », eh bien, pourquoi pas ? Qu’on les envoie. Les conflits militaires ont déjà perdu toute considération éthique (comment le fait de tuer peut-il jamais être éthique ?) avec la guerre par drones : appuyer sur des boutons depuis le Maryland pour tuer des gens au Pakistan (ou ailleurs, peu importe). Alors, pourquoi ne pas envoyer des robots et autres dispositifs télécommandés sur le terrain pour faire le génocide à notre place ?
Est-ce que j’exagère ? Après tout, les criminels sont des criminels, non ? Ne devraient-ils pas être arrêtés de la manière la plus efficace et la plus sécurisée possible ? (Sécurisée pour les policiers humains.) L’armée, quant à elle, est là pour neutraliser l’ennemi, principalement pour que cet ennemi ne nous tue pas. Toute méthode efficace et efficiente pour y parvenir n’est-elle pas un avantage ?
Je ne le pense pas. La militarisation de la police, dans n’importe quelle situation, conduit toujours à des dérives. Regardez l’Histoire. Une force de police militarisée ne réduit généralement pas la criminalité, mais facilite plutôt le contrôle et la répression des citoyens ordinaires et innocents. Les forces de police sont des instruments au service de ceux qui détiennent le pouvoir, en général les gouvernements locaux et fédéraux. Si nous pouvions leur faire confiance, nous pourrions aussi faire confiance à la police pour agir dans notre intérêt, nous qui sommes leurs employeurs. Mais depuis quand peut-on faire confiance aux gouvernements ? Nous n’avons jamais pu, et nous ne devrions jamais le faire. Si on leur donne trop de pouvoir, ce pouvoir sera inévitablement utilisé contre nous. Nous le voyons clairement partout dans le monde aujourd’hui.
Robofido n’est pas une bonne idée. Pas plus que l’idée d’intégrer l’IA et la robotique dans les forces de police ou dans l’application de la loi. L’IA et la robotique n’ont pas leur place dans le système judiciaire, où la culpabilité ou l’innocence doivent être déterminées.
Certes, nous sommes peut-être encore loin d’un impact réel de l’IA sur le système judiciaire, mais ses prémices sont déjà là, et nous devons rester vigilants quant à ses progrès.
L’IA, telle que nous voyons son application aujourd’hui, est un fléau. Comment allons-nous y faire face de manière efficace et éthique, je l’ignore. Mais il faudra le faire, avant qu’il ne soit trop tard. Aussi cliché que cela puisse paraître, nous ne devons pas laisser passer cela sans agir sérieusement.
Texte original : https://off-guardian.org/2025/01/25/ai-law-and-order/