Intelligence artificielle : peut-on lui faire naturellement confiance ?

Partagez l'article

Maths・Ingénierie

Intelligence artificielle : peut-on lui faire naturellement confiance ?

robot
robot

Quel niveau de confiance devons-nous accorder aux applications d’intelligence artificielle ? Les recherches en cours permettent-elles à l’IA d’être réellement un outil au service des humains ? Exploreur pose la question à Louis Béthune, chercheur en intelligence artificielle, qui répond en détail sur les enjeux clés de biais et robustesse liés à l'IA d'aujourd'hui.

L'Université fédérale Toulouse Midi-Pyrénées et le Quai des Savoirs lancent Questions de confiance : un cycle de huit rencontres chaque dernier mardi du mois, de janvier à octobre 2022, proposé dans le cadre de l’exposition "Esprit Critique, détrompez-vous !" et des rencontres #Exploreur.

Rencontrez Louis Béthune, doctorant en informatique à l'Université Toulouse III - Paul Sabatier et membre de l'Institut interdisciplinaire d'intelligence artificielle de Toulouse, et Guillaume Sire, enseignant-chercheur en Sciences de l'information et de la communication à l'Université Toulouse I - Capitole,  le 28 juin 2022 à 18h au Quai des savoirs, en direct sur YouTube et en rediffusion dans cet article.

 

Par Emmanuelle Durand-Rodriguez, journaliste.

 

Les technologies d’IA sont considérées comme à haut risque, dans les domaines du transport, de la santé, de la vie privée et du risque de discrimination. Est-ce justifié ?

Louis Béthune : C’est tout à fait justifié. Si l’on confie des tâches critiques aux IA, on a besoin d'avoir des garanties. Or aujourd'hui, on n'arrive pas à démontrer formellement qu'elles résolvent bien le problème. On n’a pas les outils théoriques qui permettent de les garantir et de les certifier. Pas question dans ce contexte de leur confier un système critique comme un avion, une voiture autonome ou une décision liée à la sécurité ou la vie humaine.

Qu’appelle-t-on une technologie d'intelligence artificielle ?

LB : Le concept d’IA a émergé en même temps que le développement de l'informatique dans les années 50. Les premiers réseaux de neurones artificiels remontent au Perceptron de Frank Rosenblatt en 1957. À l'époque, le manque de puissance de calcul et de données les ont empêché de briller. Ils ont été supplanté par l’IA « symbolique » qui regroupe les systèmes experts basés sur la logique, le raisonnement et les modélisations du monde. L’intelligence artificielle « moderne » - celle dont on parle vraiment depuis une dizaine d’années - est basée sur une approche connexionniste (réseaux de neurones artificiels et apprentissage). Cette nouvelle IA a été rendue possible grâce à la formidable accélération des capacités de traitement des données des ordinateurs. Aujourd’hui, différentes applications d’IA permettent de traiter une grande capacité de données pour par exemple traduire des textes, analyser des images ou aider à prendre des décisions.

Quel est le principe de fonctionnement d’un réseau de neurones artificiels ?

LB : L'objectif est de définir le problème et la tâche à résoudre. On ne cherche pas à modéliser le monde ou les décisions humaines comme le fait un système expert. On récolte une grande quantité de données en lien avec le problème à résoudre et on présente à l’IA des paires entrée - sortie. Par exemple, une paire « image de chien - label chien » ou une paire « phrase en anglais - phrase traduite en français ». Lors de cet apprentissage, grâce à un algorithme spécifique, on demande au programme d’inférer seul, en autonomie, la règle qui permet de passer de l'un à l'autre. Il va donc trouver comment passer de l'image de chien au descriptif « chien » ou comment passer de l'anglais au français. On apprend à la machine une règle de décision, un programme.

Quels sont les avantages et désavantages de l’utilisation d’un réseau de neurones artificiels ?

LB : L’expertise humaine n’est pas nécessaire. Non seulement il est possible de battre les performances humaines, mais on peut utiliser des raisonnements que les experts ne connaissent pas ou ne savent pas expliquer. La méthode est très générale, c’est-à-dire qu’un algorithme qui effectue des traductions anglais-français pourra être réutilisé pour une traduction espagnol-allemand sans rien changer d'autre que les données. Mais les inconvénients sont nombreux. Les IA constituent une boite noire : les règles apprises sont très difficiles voire impossibles à expliquer aujourd’hui. On les sait aussi très vulnérables : il est « facile » de leur faire prendre une mauvaise décision et on ne sait pas non plus caractériser cette vulnérabilité de façon précise. Enfin, les IA sont très gourmandes en données (récolte coûteuse, stockage, vie privée) et en énergie. L’apprentissage et l’entraînement de certaines IA a coûté des millions d'euro en électricité et il n'est pas rare d'atteindre quelques centaines d'euros sur une simple expérience en recherche.

À quelle condition pourrait-on faire confiance à l’IA ?

LB : Une IA de confiance serait une IA dite « robuste, sans biais et explicable ». La recherche avance vite sur l’IA robuste, c’est-à-dire que l’on peut protéger contre les « attaques adversaire » . On appelle « attaque adversaire » le cas où une légère modification des pixels en entrée bouleverse la prédiction de sortie. C’est un problème que l’on pourraéliminer à courte échéance, notamment avec le travail effectué au sein d’ANITI, l’Institut interdisciplinaire d’intelligence artificielle de Toulouse (pour Artificial and Natural Intelligence Toulouse Institute).

 

images d'intelligence artificielle

Sur l’image ci-dessus, un réseau est chargé de prédire si l'individu possède une moustache ou non. À gauche (a), un réseau Lipschitz (implémenté dans une librairie de ANITI) met en évidence les parties du visage qui ont aidé à la prise de décision. À droite (b), on applique la même méthode sur un réseau de neurone ordinaire : les images sont beaucoup plus bruitées et moins faciles à interpréter. Cela montre que les réseaux Lipschitz sont à la fois robustes et explicables.

 

LB : On sait aussi que parfois l’IA apprend de mauvaises règles. Des chercheurs se sont rendu compte que leur détecteur de loups était en fait un détecteur de chien sur fond de paysage enneigé. Lorsqu'on montre un canidé (chien ou loup) sur fond enneigé, l'IA répondait « loup » et sinon « chien ». Une erreur difficile à détecter et à corriger car l’IA reste opaque et les chercheurs ne savent pas expliquer ce qu'elle apprend.

Les recherches sur l’IA explicable avancent-elles ?

LB : La question de l’IA explicable avance également. Il s’agit d’expliquer les décisions des réseaux de neurones en montrant les régions de l'image pertinentes et les concepts associés dans la base de données. Mais on est loin d'avoir résolu le problème. Il a d’ailleurs presque une dimension philosophique : exige-t-on de nos congénères humains qu'ils sachent tout expliquer de leurs décisions ? Dans un travail récent, nous répondons partiellement à cette question : notre méthode d’explicabilité trouve le « où » et le « quoi » associé à une décision. Par exemple, la détection d’une tronçonneuse est activée par la détection du moteur, de la chaîne, du manche… mais aussi du bûcheron. Ce qui montre que l’algorithme est biaisé car il utilise l’ensemble du contexte disponible, et pas juste l’objet lui-même.

images d'intelligence artificielle    

La question des biais dans l’IA est-elle encore plus complexe ?

LB : Elle est beaucoup plus difficile car elle mêle défis scientifiques et réflexions éthique, juridique et sociétale. Je ne pourrais pas dire aujourd’hui si une IA sans biais est possible car le monde qui nous entoure est trop complexe pour cela. Dans la vie de tous les jours, certains biais nous aident à prendre des décisions car ils apportent des informations complémentaires, d’autres biais ne sont pas souhaitables (racisme, sexisme, etc.) voire dangereux (ne pas reconnaître de nuit les piétons à la peau noire). Il me semble objectivement très difficile de garantir que tous les biais pourront être supprimés et qu'aucun groupe ou sous-groupe ne subira de discrimination car on peut classer les situations ou les humains selon d’innombrables critères. Néanmoins, il faut tendre vers cette « IA sans biais » idéale et supprimer les biais les plus grossiers et discriminants.

Où en est la recherche au sein de l’Institut interdisciplinaire d’intelligence artificielle de Toulouse sur ces sujets ?

LB : Aniti a connu les avancées espérées et les a même dépassé. On savait que le problème était très complexe et vaste ; nous sommes heureux d'avoir les résultats actuels. On pense pouvoir faire encore de nombreux progrès en capitalisant sur ces travaux, car notre compréhension des réseaux de neurones artificiels s'améliore de jour en jour. Nous sommes particulièrement fiers d'avoir capitalisé sur l'expertise existante à Toulouse en certifiabilité et d'avoir su adapter ces méthodes à l'IA moderne.

Place-t-on trop d’ « espoir » dans une IA qui serait totalement fiable ?

LB : Si on attend la garantie absolue qu’aucun problème ne surviendra jamais, c’est en effet trop ambitieux. On n'attend pas cela des humains non plus ! On sait qu'ils peuvent être fatigués ou faire des erreurs. On ira aussi loin que possible dans la certification des IA, pour avoir des intervalles de confiance, majorer les risques d'erreur... Mais ultimement, il faudra faire la même chose qu'avec un humain : accepter que l'incertitude est inhérente au monde qui nous entoure... et faire confiance ! Le temps est notre allié : laissons-nous le temps de tester les systèmes, en augmentant progressivement leurs responsabilités et on pourra vérifier empiriquement si cela fonctionne ou non. Nous n'avons pas besoin de reproduire la frénésie industrielle des trente glorieuses avec les problèmes qu'elle a provoqué (réchauffement climatique, énergie fossile, destruction de la biodiversité). Laissons le temps à la recherche d'avancer et aux citoyens de se former plutôt que d'imposer trop vite l'automatisation.

Pourquoi doit-on exiger davantage des machines que des humains ?

LB : Comme l’on tend à être plus empathique envers d'autres humains et qu’il est impossible de s'identifier à une machine, ses erreurs sont perçues comme une défaillance grave. En cas de problème, les IA ne bénéficient pas des mêmes « excuses de circonstance » que les humains. Pour ces raisons, on doit exiger plus des machines que des humains si on veut espérer les déployer à grande échelle. Par ailleurs, la garantie d'une augmentation de la sécurité et de fiabilité est importante pour justifier les raisons pour lesquelles on fait appel à l’IA au niveau industriel : la continuité des processus d'automatisation. La machine à vapeur a remplacé les bras, l'IA entend remplacer les yeux et les cerveaux, avec pour conséquence l’augmentation de la rentabilité et la réduction de la masse salariale. Dans ce contexte une technologie fiable est le minimum que l’on puisse demander, le tout accompagné par des dispositifs de redistribution des richesses.

Sommes-nous insouciants dans notre usage des outils numériques ?

LB : Au regard de la place que prend cette question dans le débat public et politique, on voit que les gens ne sont pas insouciants. Il est important que citoyens exigent que les IA qui seront utilisées soit explicables, robustes et sans biais. Les gens réclament plus de démocratie et de participation et semblent réticents à l'idée de confier des problèmes importants à une IA. On en a eu l’exemple avec la défiance qu’a généré l'algorithme Admission Post Bac qui a généré une telle défiance qu’il a été  supprimé. Un effort pédagogique est nécessaire pour expliquer les limitations des technologies d’IA mais aussi ses points forts. Je défends un usage raisonné de l'IA, guidé par l'intérêt commun et la méthode scientifique, loin des sensationnalismes et du marketing.

L’IA représente-t-elle une rupture anthropologique majeure pour les humains ?

LB : Non, je ne pense pas du tout. Même si je sais que l’IA est associée au fantasme de la création d’un alter ego artificiel, ce n’est pas du tout ce qui est à l’œuvre. Personne ne crée aujourd’hui d’humain artificiel. On est juste en train de développer de meilleurs systèmes automatiques spécialisés dans la reconnaissance de certains phénomènes. C’est une révolution industrielle, pas une révolution humaine.