En intelligence artificielle, rien ne sert de courir, il faut prendre le bon chemin
Dans la famille mathématiques, l’optimisation est une discipline à part entière qui s’avère essentielle pour la recherche en intelligence artificielle. Explications avec le chercheur Jérôme Bolte, porteur de la chaire « Optimisation de grande taille pour l’IA » (Large scale optimization for AI) au sein de l’Institut interdisciplinaire d’intelligence artificielle de Toulouse, ANITI.
Par Valérie Ravinet, journaliste.
« L’optimisation est une forme d’aide à la décision pour maximiser un revenu, ou encore minimiser un coût, dans un environnement contraint »
indique Jérôme Bolte, professeur de mathématiques, chercheur à Toulouse School of Economics (TSE), Université Toulouse Capitole, pour définir simplement son domaine d’activité.
Le vocabulaire emprunté à l’économie pour définir l’optimisation est sans doute liée à la naissance conjointe de cette discipline avec l’économie mathématique. « La notion de revenu est bien sûr abstraite ; si l’on souhaite construire un fuselage d’avion aussi silencieux que possible, le coût s’évalue par rapport au niveau de bruit, et l’objectif est que le bruit soit le plus discret possible, en tenant compte de toutes les contraintes : vitesse, confort ou encore nombre de passagers… »
Ainsi définie, l’optimisation est une branche des mathématiques, qui a pour nature d’être transversale et de pouvoir entrer en interaction avec les statistiques, la géométrie ou l’algèbre. Cette polyvalence en fait un outil puissant pour répondre aux grands enjeux de l’intelligence artificielle, même si cela sous-entend souvent de « vaincre l’abstraction de chaque spécialité pour comprendre chaque façon de penser et ainsi d’en tirer parti dans le cadre très concret de l’IA », confie le chercheur.
IA et optimisation : une relation naissante et prometteuse
Avec l’arrivée des données massives, dit « big data », l’optimisation change de paradigme et prend de l’ampleur.
« Une fois les données prélevées et prétraitées par des statistiques, la dernière étape est celle de l’optimisation »
avance Jérôme Bolte.
Les réseaux de neurones artificiels, d’inspiration biologique, ont aussi des modèles mathématiques. « Il faut imaginer une machine géante qui avale des données, ou plus précisément des nombres, équipée d’un nombre conséquent de boutons de réglage, et qui fournit en sortie une classification des données d’entrée. Un de nos objectifs consiste à étalonner la machine en réglant ses boutons à partir de données connues afin de lui apprendre à trier celles qui sont inédites. Nous, optimisateurs, sommes parmi ceux qui faisons des recommandations sur les réglages des boutons. »
Parmi les nombreuses questions soulevées, la première concerne précisément la manière dont s’opère le réglage. Pour un mathématicien, elle se traduit par l’utilisation d’algorithmes, « des règles de déplacement des boutons, que l’on améliore délicatement, de proche en proche. Puis on se demande si l’ajustement est satisfaisant, si on peut le flouer, si les réglages préconisés sont robustes », confie le mathématicien. Cette phase d’optimisation s’appelle l’entrainement, elle vise donc à mettre au point des algorithmes pour entrainer efficacement les réseaux de neurones. C’est le cœur du travail actuel de Jérôme Bolte.
Résolutions de problèmes en série
L’un des problèmes majeurs de l’entraînement des réseaux de neurones s’appelle, pour les mathématiciens, la « non-convexité ». Pour éclairer ses propos, le professeur invoque une image : celle d’un vaste profil montagneux, avec des vallées, des pics, des collines… Sur ce profil, une petite fourmi qui ne voit qu’à quelques centimètres autour d’elle-même doit se rendre au point le plus bas. « Nous agissons comme des conseillers en déplacement », poursuit-t-il. « La tâche est impossible lorsqu’on ne voit qu’à quelques centimètres, la fourmi ne peut pas deviner la vallée derrière le col ! L’art de l’optimisation est donc de donner de bons conseils, ou de mettre au point des équipes de fourmis pour atteindre l’objectif et y parvenir de la manière la plus efficace, ou la plus sûre, éviter des erreurs de cheminement… »
Autre écueil : les dimensions même du problème à résoudre, qui correspondent souvent à la taille des données et à leur quantité. « Quand les dimensions sont très grandes, les données trop massives, des problèmes très simples comme les systèmes d’équations linéaires, compris depuis des siècles, deviennent presque impossibles à résoudre ; ils changent quasiment de nature ». C’est ce genre de fossé auquel les chercheurs sont confrontés. Ces problèmes de grande taille, dont le plus délicat est l’entrainement des réseaux de neurones, permettent de réaliser de bonnes prévisions ou choix (d’où le vocable « d’intelligence » artificielle) : reconnaitre un objet sur une image, proposer une traduction dans une langue différente, piloter un drone dans des circonstances délicates, compléter des mots dans un texte lacunaire, interpréter le sujet d'une conversation, identifier de bonnes molécules pour une antibiothérapie ou encore faire des recommandations commerciales, à l’instar des propositions de films ou séries personnalisées par la plateforme Netflix.
Sous cet angle, « l’institut ANITI donne un élan vers l’interdisciplinarité, le monde académique et industriel, l’échange entre les experts permettant à tous de se faire une idée plus claire de son propre domaine d’expertise et d’y susciter des initiatives innovantes ».
Même si les dissonances entre informatique et mathématique sont encore nombreuses, « nous travaillons à combler ces difficultés en fournissant des modèles théoriques répondant à la réalité des deux mondes, de sorte que les algorithmes mis en œuvre en pratique soient parfaitement modélisés par les mathématiques », affirme Jérôme Bolte.
Travail d’équipe
Au sein de la chaire « Optimisation de grande taille pour l’IA », les spécialités couvrent l’optimisation, l’imagerie et le traitement du signal. François Malgouyres et Edouard Pauwels, enseignants-chercheurs à l’Université Toulouse III – Paul Sabatier, Frédéric de Gournay, enseignant-chercheur à l’INSA Toulouse et Pierre Armand Weiss, chercheur CNRS, œuvrent avec Jérôme Bolte pour mettre au point des algorithmes efficaces pour entraîner les réseaux de neurones.
Pur théoricien et doté d’un esprit d’aventure, Jérôme Bolte aborde l’IA comme un défi et s’y lance avec plaisir.
« Je fais des mathématiques parce c’est un monde magnifique, où l’on peut dire des choses modestes mais indéniablement exactes… L’IA suscite un engouement mondial, une compétition à laquelle j’ai plaisir à participer »
conclut-il.
Pour sûr, Jérôme Bolte est parti à point et a pris le bon chemin.