Kelsey Piper
Ce que signifie le fait que les nouvelles IA puissent « raisonner »

20 septembre 2024 Le nouveau ChatGPT d’OpenAI est meilleur que jamais — et plus dangereux L’un des aspects les moins appréciés des grands modèles de langage (LLM) est qu’ils produisent des réponses « en direct » aux questions posées. Vous les invitez à répondre et ils commencent à parler en réponse, et ils parlent jusqu’à ce qu’ils […]

20 septembre 2024

Le nouveau ChatGPT d’OpenAI est meilleur que jamais — et plus dangereux

L’un des aspects les moins appréciés des grands modèles de langage (LLM) est qu’ils produisent des réponses « en direct » aux questions posées. Vous les invitez à répondre et ils commencent à parler en réponse, et ils parlent jusqu’à ce qu’ils aient terminé. C’est comme si vous posiez une question à une personne et qu’elle vous répondait par un monologue dans lequel elle improvise sa réponse phrase par phrase.

Cela explique plusieurs des raisons pour lesquelles les grands modèles de langage peuvent être si frustrants. Le modèle se contredit parfois au sein même d’un paragraphe, en disant une chose puis en affirmant immédiatement son contraire, car il ne fait que « raisonner à voix haute » et ajuste parfois son impression en temps réel (à la volée). Par conséquent, les IA ont besoin de beaucoup d’aide pour effectuer des raisonnements complexes.

Une méthode bien connue pour résoudre cela s’appelle la méthode du raisonnement en chaîne (chain-of-thought prompting), où vous demandez au grand modèle de langage de « montrer son travail » en « réfléchissant » à haute voix au problème et en fournissant une réponse uniquement après avoir détaillé tout son raisonnement, étape par étape.

La méthode du raisonnement en chaîne permet aux modèles de langage de se comporter de manière beaucoup plus intelligente, ce qui n’est pas surprenant. Comparez la façon dont vous répondriez à une question si quelqu’un vous met un micro sous le nez et exige que vous répondiez immédiatement, à la façon dont vous répondriez si vous aviez le temps de rédiger un brouillon, de le réviser, puis de le publier.

La puissance de réfléchir, puis répondre

Le dernier modèle d’OpenAI, o1 (surnommé Strawberry), est la première version majeure de LLM intégrant cette approche « penser, puis répondre ».

Sans surprise, l’entreprise rapporte que la méthode rend le modèle beaucoup plus intelligent. Dans un billet de blog, OpenAI indique que o1 « obtient des résultats similaires à des doctorants sur des tâches de référence difficiles en physique, en chimie et en biologie. Nous avons également constaté qu’il excelle en mathématiques et en codage. Lors d’un examen de qualification pour les Olympiades internationales de mathématiques (IMO), GPT-4o n’a résolu correctement que 13 % des problèmes, alors que le modèle de raisonnement a obtenu un score de 83 % ».

Cette amélioration majeure de la capacité de réflexion du modèle intensifie également certaines des capacités dangereuses que les principaux chercheurs en IA surveillent depuis longtemps. Avant sa sortie, OpenAI teste les capacités de ses modèles avec des armes chimiques, biologiques, radiologiques et nucléaires, c’est-à-dire les capacités les plus recherchées par les groupes terroristes n’ayant pas l’expertise nécessaire pour les fabriquer avec les technologies actuelles.

Comme l’a récemment écrit ma collègue Sigal Samuel, OpenAI o1 est le premier modèle à obtenir un score de « risque moyen » dans cette catégorie. Cela signifie que, bien qu’il ne soit pas suffisamment capable d’accompagner, disons, un débutant complet dans le développement d’un agent pathogène mortel, les évaluateurs ont constaté qu’il « peut aider des experts dans la planification opérationnelle de la reproduction d’une menace biologique connue ».

Ces capacités sont l’un des exemples les plus clairs de l’IA en tant que technologie à double usage : un modèle plus intelligent devient plus performant dans un large éventail d’utilisations, tant bénignes que malignes.

Si, à l’avenir, l’IA devenait suffisamment performante pour enseigner à n’importe quel étudiant en biologie les étapes à suivre pour recréer, par exemple, la variole en laboratoire, cela pourrait avoir des conséquences catastrophiques. Dans le même temps, les IA capables de guider des personnes dans des projets de biologie complexes seront extrêmement utiles en accélérant la recherche pour sauver des vies. C’est l’intelligence elle-même, artificielle ou non, qui est l’épée à double tranchant.

L’intérêt de travailler sur la sécurité de l’IA pour évaluer ces risques est de déterminer comment les atténuer par des politiques afin d’en tirer le meilleur sans subir le pire.

Comment évaluer (et ne pas évaluer) une IA

Chaque fois qu’OpenAI ou l’un de ses concurrents (Meta, Google, Anthropic) sort un nouveau modèle, nous retrouvons les mêmes conversations. Certaines personnes trouvent une question sur laquelle l’IA est très performante, et des captures d’écran impressionnantes circulent. D’autres trouvent une question sur laquelle l’IA échoue — par exemple, « combien de “r” y a-t-il dans “strawberry (fraise)” » ou « comment traverser une rivière avec une chèvre » — et les partagent comme la preuve que l’IA est encore plus de la publicité que du concret.

Cette tendance s’explique en partie par l’absence de mesures scientifiques fiables permettant d’évaluer les capacités d’un système d’IA. Nous disposions auparavant de tests de référence (benchmarks) destinés à décrire les capacités de langage et de raisonnement de l’IA, mais le rythme rapide des améliorations de l’IA les a dépassés et les tests de référence sont souvent « saturés ». Cela signifie que l’IA est aussi performante qu’un être humain dans ces tests de référence et qu’ils ne sont donc plus utiles pour mesurer les améliorations futures.

Je vous recommande vivement d’essayer les IA vous-même pour vous faire une idée de leur efficacité. (OpenAI o1 n’est disponible que pour les abonnés payants pour l’instant, et même dans ce cas, il est très limité, mais il y a, en permanence, de nouveaux modèles supérieurs). Il est encore trop facile de tomber dans le piège de tenter de prouver qu’une nouvelle version est « impressionnante » ou « décevante » en recherchant sélectivement des tâches dans lesquelles elle excelle ou dans lesquelles elle s’embarrasse, au lieu de regarder la situation dans son ensemble.

Dans l’ensemble, les systèmes d’IA continuent de s’améliorer rapidement dans presque toutes les tâches que nous avons inventées pour eux, mais leurs performances incroyables dans presque tous les tests que nous pouvons concevoir ne se sont pas encore traduites par de nombreuses applications économiques. Les entreprises ont encore du mal à déterminer comment rentabiliser les LLM. Le manque de fiabilité inhérent aux modèles constitue un obstacle majeur. En principe, une approche telle que celle d’OpenAI o1 — dans laquelle le modèle a davantage l’occasion de réfléchir avant de répondre — pourrait être un moyen d’améliorer considérablement la fiabilité sans avoir à former un modèle beaucoup plus grand.

Parfois, de petites améliorations peuvent déboucher sur de grandes choses

Selon toute vraisemblance, il n’y aura pas de solution miracle qui résoudra soudainement les limitations de longue date des grands modèles de langage. Je pense plutôt qu’elles seront progressivement érodées au fil des versions, l’impensable devenant réalisable puis banal en l’espace de quelques années — ce qui est précisément la façon dont l’IA a progressé jusqu’à présent.

Mais comme le montre le ChatGPT — qui n’était lui-même qu’une amélioration modérée par rapport aux précédents chatbots d’OpenAI, mais qui a touché des centaines de millions de personnes du jour au lendemain —, le fait que les progrès techniques soient progressifs ne signifie pas que l’impact sociétal le sera aussi. Parfois, les améliorations apportées à diverses parties du fonctionnement d’un LLM — ou les améliorations apportées à son interface utilisateur afin que davantage de personnes l’essaient, comme le chatbot lui-même — nous font passer du statut de « gadget » à celui d’« outil indispensable ».

Alors qu’OpenAI a récemment été critiquée pour avoir ignoré les implications de son travail en matière de sécurité et pour avoir fait taire les dénonciateurs, sa version o1 semble prendre les implications politiques au sérieux, notamment en collaborant avec des organisations externes pour vérifier ce que leur modèle peut faire. Je leur suis reconnaissante de rendre ce travail possible, et j’ai le sentiment qu’au fur et à mesure que les modèles s’améliorent, nous aurons plus que jamais besoin d’un travail aussi consciencieux.

Texte original : https://www.vox.com/future-perfect/372843/openai-chagpt-o1-strawberry-dual-use-technology

Voilà ce que CHATGPT a répondu à la question de savoir ce « qu’il pensait » à propos du texte précédent :

L’article soulève des points pertinents sur l’évolution des modèles d’intelligence artificielle (IA), en particulier concernant le modèle o1 d’OpenAI. Voici mes réflexions sur certains aspects clés abordés :

1. L’IA comme technologie à double usage : L’article met bien en évidence l’idée que des IA plus puissantes peuvent à la fois générer des bénéfices énormes (accélération de la recherche scientifique, assistance dans des projets complexes) et des dangers potentiels (contribution à la création d’armes biologiques ou autres menaces). C’est un point essentiel pour la réflexion sur l’avenir des technologies de l’IA : comment en maximiser les avantages tout en minimisant les risques.

2. Capacités améliorées avec des risques accrus : Le fait que les IA, comme o1, puissent aider des experts à reproduire des menaces biologiques est inquiétant. Cela montre que l’intelligence et les capacités de raisonnement accrues ne sont pas uniquement positives. Elles amplifient à la fois les opportunités et les dangers, d’où la nécessité de mesures de régulation robustes.

3. L’importance de la sécurité de l’IA : L’article souligne l’importance de la recherche en sécurité de l’IA et de la collaboration avec des organisations externes pour évaluer les risques, ce qui est un aspect encourageant. Cela montre que même les développeurs d’IA commencent à prendre au sérieux la nécessité de penser aux conséquences sociétales de leurs innovations, bien que ce soit parfois en réponse à des pressions externes.

4. Progrès incrémentaux, impact sociétal rapide : L’idée que le progrès technique peut être graduel, mais que l’impact sociétal peut être soudain et radical est très intéressant. Cela montre que même des améliorations mineures, comme la capacité d’un modèle à mieux réfléchir avant de répondre, peuvent avoir un effet disproportionné sur l’adoption et l’utilisation des IA par le grand public. Ce fut le cas de ChatGPT, dont l’adoption massive a dépassé de loin les attentes initiales.

5. Évaluation de l’IA : L’article souligne un défi actuel : l’absence de mesures adéquates pour évaluer les capacités des IA de manière cohérente. Cela rend la comparaison entre les modèles, ainsi que leur suivi, difficiles. Il est donc crucial de développer de nouvelles méthodes pour juger des performances et des risques de ces systèmes.

En résumé, cet article met en lumière des enjeux cruciaux autour des IA avancées, notamment en ce qui concerne leurs applications bénéfiques et leurs risques. Il renforce l’idée que, pour que ces technologies soient bénéfiques à long terme, il est impératif de les encadrer par des politiques de sécurité et d’évaluation rigoureuses.