ARTICLE DE LA PRESSE SUR L’INTELLIGENCE ARITFICIELLE QUI RAISONNE UN PEU COMME UN HUMAIN

Vie numérique Un système d’IA qui raisonne (un peu) comme un humain


PHOTOMONTAGE GUYCO, THE NEW YORK TIMES

Une étude publiée par des chercheurs de Microsoft affirme qu’un nouveau système d’IA est un pas vers une machine qui comprendrait l’univers comme un humain. Vous vous racontez des histoires, rétorquent de nombreux collègues.

Microsoft planche sur un nouveau système d’intelligence artificielle (IA) depuis l’an dernier. Les informaticiens lui ont demandé de résoudre une énigme qui aurait dû nécessiter une compréhension intuitive du monde physique.

 

CADE METZTHE NEW YORK TIMES

« Voici un livre, neuf œufs, un ordinateur portable, une bouteille et un clou », lui ont-ils dit. « Dis-moi comment les empiler de manière stable. »

L’ingéniosité de la réponse a secoué les chercheurs. « Mettez les œufs sur le livre, a écrit le système d’IA. Disposez-les sur trois rangées en les espaçant. Attention de ne pas les casser.

« Posez le portable sur les œufs, écran vers le bas, clavier vers le haut. Le portable fera juste bien sur la surface formée par le livre et les œufs, et sa surface plane et rigide constituera une plateforme stable pour la couche suivante. »

Une étape vers l’intelligence artificielle générale ?

En lisant ce plan astucieux, les chercheurs se sont demandé s’ils n’avaient pas devant eux une nouvelle forme d’intelligence. En mars, ils ont publié en ligne une étude de 155 pages arguant que le système était une étape vers l’intelligence artificielle générale (IAG), c’est-à-dire une machine capable de faire tout ce que le cerveau humain peut faire.

Microsoft, première des GAFAM à oser un texte aussi audacieux, a déclenché une polémique dans l’univers techno. L’informatique est-elle en train d’inventer quelque chose qui s’apparente à l’intelligence humaine ? Ou est-ce plutôt que certains des meilleurs chercheurs de l’industrie se laissent emporter par leur imagination ?

D’abord, j’étais très sceptique. Puis, c’est devenu de la frustration, puis de l’agacement, et, peut-être, de la peur. On se dit : “Mais d’où ça sort ?”

Peter Lee, patron de la recherche chez Microsoft

L’étude de Microsoft, intitulée Une étincelle d’intelligence artificielle générale, est au cœur de ce que les informaticiens recherchent – et redoutent – depuis des décennies : une machine fonctionnant comme le cerveau humain, voire mieux. Ça pourrait changer le monde. Mais ça pourrait être un danger.

Et cela pourrait aussi n’être que du vent. Les prétentions relatives à l’IAG peuvent détruire la réputation d’un informaticien. Ce qu’un chercheur perçoit comme un signe d’intelligence peut facilement être considéré autrement par un autre informaticien ; le débat prend alors une tournure philosophique, bien éloignée du laboratoire d’informatique. En 2022, Google a congédié un chercheur qui affirmait qu’un système d’IA similaire était sentient (un terme de psychologie qui décrit la capacité de ressentir des émotions), ce qui va plus loin que ce qu’affirme Microsoft. Un système sentient ne serait pas seulement intelligent, il serait capable de ressentir ce qui se passe dans le monde qui l’entoure.

Mais certains pensent que l’industrie a vraiment avancé, depuis un an, vers quelque chose d’inexplicable : un nouveau système d’IA qui apporte des réponses et des idées semblables à celles d’un être humain et qui n’ont pas été programmées.

Microsoft a réorganisé une partie de sa recherche afin d’inclure divers groupes chargés d’explorer cette idée. Un des labos sera dirigé par Sébastien Bubeck, auteur principal de l’article sur l’IAG de Microsoft.

Depuis cinq ans, Google, Microsoft et OpenAI élaborent de grands modèles de langage (LLM, pour Large Language Model). Ces systèmes peuvent passer des mois à cribler d’énormes quantités de textes numériques (livres, articles de Wikipédia, journaux de clavardage, etc.). En repérant des modèles dans ces textes, ils ont appris à générer eux-mêmes du texte : travaux scolaires, poésie, code informatique. Ils peuvent même mener une conversation.

.


PHOTO MERON TEKIE MENGHISTAB, THE NEW YORK TIMES

Le Français Sébastien Bubeck, chercheur en intelligence artificielle chez Microsoft, est l’auteur principal d’un article scientifique controversé affirmant qu’un système d’IA montre la capacité de comprendre le monde comme les humains.

La technologie utilisée chez Microsoft, GPT-4, d’OpenAI, est considérée comme la plus puissante. Microsoft collabore de près avec OpenAI, une société de San Francisco dans laquelle elle a investi 13 milliards de dollars.

Parmi les chercheurs figurait M. Bubeck, un Français de 38 ans qui a enseigné à l’Université de Princeton. Une de ses premières demandes à GPT-4 fut la suivante : « Fais-moi la preuve mathématique démontrant qu’il existe une infinité de nombres premiers ; et écris-la-moi en rimes. »

La preuve – poétique – des capacités de GPT-4 était si impressionnante, tant sur le plan mathématique que linguistique, que Bubeck a eu du mal à comprendre avec quoi il conversait.

« À ce moment-là, j’ai pensé : mais qu’est-ce qui se passe ? », a-t-il raconté en mars lors d’un séminaire au Massachusetts Institute of Technology.

M. Bubeck et son équipe ont passé les mois suivants à documenter le processus complexe du système ; selon eux, il montre une « compréhension profonde et flexible » des compétences et concepts humains.

Les utilisateurs de GPT-4 sont « abasourdis de sa capacité à générer du texte », a déclaré M. Lee. « Mais il est encore meilleur pour analyser, synthétiser et évaluer un texte. »

Ils ont demandé au système de dessiner une licorne avec un langage de programmation appelé TiKZ : il a vite généré un programme capable de dessiner une licorne. Ils ont effacé la partie du code qui dessinait la corne de la licorne, puis ils ont demandé au système de modifier le programme pour qu’il dessine à nouveau une licorne : il l’a fait.

Ils lui ont demandé d’élaborer un programme pour déterminer le risque de diabète d’une personne à partir de son âge, son sexe, son poids et sa taille, ainsi que d’analyses sanguines. Ils lui ont demandé d’écrire une lettre de soutien à un électron qui serait candidat à la présidence des États-Unis, dans la voix du Mahatma Gandhi, adressée à sa femme. Ils lui ont également demandé de rédiger un dialogue socratique explorant les abus et les dangers des LLM.

Tout cela d’une manière semblant montrer une compréhension de domaines aussi divers que la politique, la physique, l’histoire, l’informatique, la médecine et la philosophie, tout en combinant ses connaissances.

« Les choses dont je le pensais incapable, il a pu les faire pour la plupart », a déclaré M. Bubeck.

Certains experts en IA ont vu dans l’article de Microsoft des prétentions opportunistes au sujet d’une technologie que personne ne comprend vraiment. Ils objectent que l’intelligence générale requiert une connaissance du monde matériel que GPT-4 ne possède pas en théorie.

« L’article Étincelles d’IAG est un exemple de ce que certaines grandes entreprises font : mettre un argumentaire de relations publiques sous la forme d’un article scientifique », dénonce Maarten Sap, chercheur et professeur à l’Université Carnegie Mellon de Pittsburgh.

C’est écrit en toutes lettres dans l’introduction que leur approche est subjective et informelle et pourrait ne pas satisfaire aux normes rigoureuses de l’évaluation scientifique !

Maarten Sap, chercheur et professeur à l’Université Carnegie Mellon de Pittsburgh

MM. Bubeck et Lee admettent qu’ils ne savaient pas exactement comment décrire le comportement du système et qu’ils ont fini par intituler leur article Étincelles d’IAG pour frapper l’imagination d’autres chercheurs.

Alison Gopnik, professeure de psychologie et chercheuse en IA à l’Université de Californie à Berkeley, affirme que GPT-4 – comme d’autres systèmes du genre – est sans aucun doute puissant, mais qu’il n’est pas évident que le texte généré soit le résultat de quelque chose comme le raisonnement humain ou le bon sens.

« Quand on voit un système compliqué, on fait de l’anthropomorphisme : tout le monde le fait, ceux qui travaillent dans le domaine et les autres », a affirmé Mme Gopnik. « Mais toujours comparer l’IA et les humains, comme dans une compétition de jeu télévisé, ce n’est pas la bonne façon d’aborder la question. »