IA génératives : regards croisés des chercheur·es ANITI
Les intelligences artificielles dites génératives ont fait une entrée fracassante dans la société, transformant nos usages dans des domaines aussi variés que l’éducation, les arts ou le marketing. Comment les chercheur·es de l’institut d’intelligence artificielle de Toulouse, ANITI, analysent l’arrivée de cette technologie ? Comment se conjugue-t-elle avec l’IA de confiance, au fondement des recherches de l’institut ? Décryptage.
Chat GPT et Dall-E d’Open AI, Bard ou plus récemment Gemini de Google, Midjourney du laboratoire de David Holz à San Francisco… En un an à peine, les IA génératives sont devenues familières, utilisées dans les entreprises, par les particuliers et même par les gouvernements. Génératrices de textes, d’images et de sons, elles suscitent autant d’enthousiasme que de crainte, y compris parmi les chercheur·es membres de l’institut d’intelligence artificielle de Toulouse, ANITI.
Des risques et des opportunités
En juin 2023, les chercheur·es de l’institut ont publié un document exprimant la position de la communauté sur le sujet. Ce position paper met en exergue les préoccupations des scientifiques quant aux origines des IA génératives. Aux mains « d’un petit nombre d’acteurs et actrices industriels », en particulier des GAFAM (Google, Apple, Facebook, Amazon et Microsoft), elles ne permettent pas une « compréhension scientifique » nécessaire au développement d’une « IA de confiance et responsable ».
Pointant « incertitudes » et « inquiétudes », les rédacteurs et rédactrices soulignent la capacité de ces technologies à transformer la société. Une mutation qui comporte des risques, mais aussi des bénéfices. Ils et elles insistent sur la nécessité de penser scientifiquement ces évolutions et d’encadrer le déploiement de ces nouveaux outils par des dispositions légales.
Par cet avis, les chercheur·es réaffirment aussi le sens des recherches qu’ils et elles ont entreprises, en faveur d’une IA fiable, robuste, explicable - dont on peut expliquer les décisions qu’elle prend - et digne de confiance. Une IA hybride, qui combine la puissance des réseaux de neurones et la performance du raisonnement et de la logique ; des IA génératives, mais à taille humaine, économes en données et énergie.
Parlons technique
Les IA génératives ne se contentent plus de classer ou d’analyser des données existantes, elles sont capables de générer des nouveaux contenus, images, textes, sons, à partir de ce qu’elles ont appris. À l’occasion de l’édition 2023 de la Nuit européenne des chercheur·es, l’expert en neurosciences du Centre de recherche cerveau et cognition (Cerco) Rufin VanRullen a partagé quelques principes de conception et fonctionnement des IA génératives.
En substance, le chercheur explique qu’il existe différentes architectures de réseaux neuronaux, définies par des données d’entrées, de sorties, et l’organisation de couches de neurones, selon leur nombre et leur taille. Parmi ces architectures, les transformeurs sont utilisés dans le domaine de l’apprentissage profond, en particulier pour le langage. Les tâches sont basées sur des séquences de même taille, par exemple une phrase ou une instruction, et le système transforme cette séquence pour donner la « bonne réponse » en sortie.
Durant l’apprentissage, qui peut être basé sur des corpus de données extrêmement conséquents – tout Internet par exemple-, les données sont transmises du neurone d'entrée au neurone de sortie, ce qu’on appelle propagation avant. Pour chaque nouvel usage, des « poids » sont ajustés en fonction de l’écart entre les prédictions du réseau et la solution satisfaisante. On parle alors de fonction de perte, qui diminue au fur et à mesure que l’IA apprend, par rétropropagation.
D’autres architectures, comme les modèles de diffusion, sont utilisées pour la génération d’images. Ils sont basés sur le même principe, mais cette fois, ils modifient progressivement les données pour obtenir la forme désirée. Une fois l’apprentissage terminé, on ajoute aléatoirement du bruit que le système enlève pour révéler l’image.
« En termes mathématiques, on dirait que l’on a une distribution de probabilités conditionnelles sur des objets très complexes », traduit le bio-informaticien Thomas Schiex, qui utilise depuis plusieurs années des IA génératives pour concevoir des protéines utiles dans de multiples domaines, notamment dans les processus de développement de médicaments.
Changement d’échelle
« Il a toujours été attendu que l’ordinateur montre des performances en calcul et en logique super-humaines ; les modèles génératifs sont utilisés depuis un siècle, et ce qui change, c’est la puissance et la rapidité de réaction des machines », avance également Thomas Schiex, chercheur INRAE (Institut national de recherche pour l'agriculture, l'alimentation et l'environnement).
Pour Rufin VanRullen, qui s’inspire du cerveau pour développer des réseaux de neurones artificiels, ce qui effraie ne sont pas tant les mécanismes à l’œuvre, mais l’entrainement de ces IA sur des jeux de données à grande échelle, qui dépasse ce que l’être humain est en capacité d’apprendre.
« Comme pour le cerveau, un neurone tout seul ne va pas pouvoir faire grand-chose… La révolution des IA génératives, c’est le principe de connecter des millions de neurones pour traiter l’information, générant en sortie des textes, des images, de sons assez semblables aux données d’entrée que la machine a apprises… exactement comme le cerveau crée à partir de ce qu’il a appris, vu, entendu ! », explique Rufin VanRullen.
Le changement d’échelle s’opère donc en termes de rapidité, de puissance, mais aussi en nombre d’utilisateur·rices. Au niveau mondial, l’assistant conversationnel ChatGPT, par exemple, avait attiré plus d’un million d’utilisateur·rices en cinq jours après son lancement.
Vrai ou faux ?
Mais attention, si ces IA sont puissantes et rapides, certaines de leurs réponses sont totalement fausses. Dans le domaine de l’IA, on parle d’ « hallucination » : une réponse, présentée comme un fait, qui s’avère erronée. « Ces nouveaux assistants peuvent s’avérer très utiles, mais il faut savoir en garder le contrôle, car ils se trompent », prévient le directeur scientifique de l’institut, Serge Gratton.
Pour l’expert en prédictions, il est nécessaire de trouver les « bonnes manières d’interroger ces IA », pour diminuer au maximum le risque d’erreurs. « Nous sommes encore dans une phase très expérimentale de ces IA », souligne Serge Gratton. « Elles conviennent certainement à certains usages, mais pas aux sujets abordés par les chercheur·es ANITI dans les systèmes critiques, pour lesquels les IA dignes de confiance sont une exigence ».
Néanmoins, le directeur scientifique envisage l’élargissement des domaines d’activités et d’applications, y compris au sein de l’institut. « L’engouement pour cette technologie montre que les systèmes basés sur ce type d’IA vont se diffuser dans de nombreux domaines scientifiques, on a même du mal à imaginer quels domaines en seront exempts à un horizon de dix ans ».
Les IA génératives ont ainsi déjà pénétré le domaine de la psychologie. La question n’est plus : l’IA commet-elle des erreurs ? Elle est exactement inverse : comment être sûr que l’autre ne me trompe pas grâce à l’IA ?
Le docteur en psychologie cognitive Jean-François Bonnefon témoigne que l’avènement de ces IA modifie sensiblement nos modes d’interaction. « Nous ne sommes plus seulement sur la question de la confiance envers l'IA, mais celle que l’on a les uns envers les autres. Il va y avoir une renégociation autour de ce qu'on considère comme une communication intègre entre les gens ». Le chercheur prend l’exemple des filtres vocaux pour appuyer sa démonstration ; des filtres capables d’améliorer la clarté d’une diction, de gommer des accents, de rendre les voix plus chaleureuse… « Suis-je autorisé à activer ces filtres sans prévenir mon interlocuteur·rice ? » s’interroge le chercheur. Jusqu’où peut aller l’autoreprésentation, sans tromper son interlocuteur·rice ?
Cependant, Jean-François Bonnefon tempère. Ce n’est pas la première fois que la technologie modifie nos normes sociales. La contraception fiable, par exemple, a complètement changé le rapport de la société envers la sexualité.
Créativité, apanage de l’humain ?
La capacité créative des IA génératives fait aussi partie des sujets qui interpellent les scientifiques. « Une notion très difficile à définir », observe Rufin VanRullen. « Même les artistes nous parlent d’étincelle. En pratique, la créativité, c’est partir de choses qu'on connaît et de pousser les limites toujours plus loin ». Pour le chercheur, les IA génératives en sont capables. Elles ont « appris » toutes les œuvres, toutes les techniques et n’ont pas de limites en termes de mémoire. « Elles apprennent une sorte de distribution. Grâce à un paramètre qu’on appelle température, qui rend leur comportement plus chaotique, elles peuvent ensuite s’écarter de la distribution initiale. Ce mécanisme peut donner lieu à une création qui est surprenante, intéressante, originale. Il n'y a aucune raison de penser que les humains procèdent différemment ».
Reprenant le célèbre exemple du coup d’AlphaGo contre l'un des meilleurs joueurs de la planète de go (jeu de stratégie de la même famille que les échecs), le Coréen Lee Sedol, en 2016, Jean-François Bonnefon pose une nouvelle hypothèse : « ce coup, entièrement non humain, a tellement surpris la communauté, que les humains se sont mis à jouer au go différemment après avoir vu le programme jouer. La capacité des IA génératives à être plus créatives que les humains en un temps record est une révolution vraiment importante », estime le chercheur.
Limites éthiques et juridiques : les IA génératives rebattent les cartes
Pour le sociologue de l’INRIA (Institut national de recherche en sciences et technologies du numérique) Yann Ferguson, les grands principes de l’éthique de l’IA fixées par l’Union européenne en 2019 pour parvenir à une IA de confiance sont mis à mal par le bouleversement engendré par les IA génératives. « Aucun des critères n’est respecté par ces systèmes, et pourtant, elles sont largement utilisées. C’est la preuve de l’importance de l’expérience utilisateur : on a fait sauter les verrous d’une « IA tranquille », explique le sociologue spécialisé IA et travail, également directeur scientifique du Labor IA.
L’accord de principe trouvé par l’Union européenne sur le futur règlement européen, le 8 décembre 2023, est une potentielle réponse aux dangers exprimés. Le règlement renouvelle l’approche, fondée sur les risques, avec des obligations renforcées pour les systèmes d’IA considérés « à haut risque », et un principe général de conformité avec le droit européen en matière de droit d'auteur. L’adoption de ce texte est attendu pour début 2024, pour une mise en application en 2026.
C’est le critère environnemental qui finira peut-être par arbitrer les usages. Pour l’heure, le cout énergétique considérable d’entrainement de ces IA génératives, type Chat GPT, ne constitue ni un frein à leur développement, ni à leur utilisation massive par le grand public. Au sein d’ANITI, le développement d’IA frugales, y compris les IA génératives, est un objectif. « Nous travaillons sur de nouveaux modèles d’hybridation », indique Serge Gratton. « On apporte du raisonnement, issu de la physique, des mathématiques, des neurosciences, dans des systèmes basés sur des jeux de données d’apprentissage ciblés, qui offrent de meilleures garanties de fiabilité, de robustesse, mais à plus petite échelle ». Des systèmes forcément moins gourmands en énergie.
« Il faudrait parvenir à égaler le besoin énergétique du cerveau qui, finalement, avec beaucoup de neurones, mais très peu d'énergie, arrive à faire des choses étonnantes », conclut Rufin VanRullen.
Les scientifiques membres de l'institut interdisciplinaire d'intelligence artificielle de Toulouse (ANITI - Artificial and natural intelligence Toulouse institute) interviewés dans cet article :
Jean-François Bonnefon est chercheur en psychologie cognitive au CNRS.
Yann Ferguson est chercheur en sociologie à l’INRIA - Institut national de recherche en sciences et technologies du numérique, et chercheur associé au sein du CERTOP - Centre d'étude et de recherche travail, organisation, pouvoir (CNRS, Université Toulouse - Jean Jaurès, Université Toulouse III - Paul Sabatier).
Serge Gratton est enseignant-chercheur en mathématiques appliquées à Toulouse INP - ENSEEIHT - Institut national polytechnique - École nationale supérieure d'électrotechnique, d'électronique, d'informatique, d'hydraulique et des télécommunications. Il est directeur scientifique de l’institut ANITI.
Thomas Schiex est chercheur en bio-informatique au sein du laboratoire Mathématiques et informatique appliquées Toulouse - MIAT, du centre INRAE Occitanie-Toulouse.
Rufin VanRullen est chercheur en neurosciences et intelligence artificielle au CNRS, au sein du Cerco - Centre de recherche cerveau et cognition (CNRS, Université Toulouse III - Paul Sabatier).
Journaliste : Valérie Ravinet. Suivi éditorial : Corinne Joffre et Clara Mauler. Une coproduction Exploreur - Université de Toulouse x ANITI. Cet article a été réalisé dans le cadre de la Nuit européenne des chercheur·es.