L’IA, une simple affaire de données ?

Partagez l'article

Maths・Ingénierie

L’IA, une simple affaire de données ?

une article aniti ia donnees

En matière d’intelligence artificielle, parler de données ne suffit pas ; encore faut-il les caractériser et construire des algorithmes qui répondent aux enjeux d’applications dans tous les domaines. C’est la mission de Nicolas Dobigeon, chercheur spécialiste en traitement du signal. Le point sur une recherche en plein développement.

Par Valérie Ravinet, journaliste.

 

Elles ne sont pas une, mais multiples : les sources qui se cachent derrière les fameuses « données », permettant leur obtention, sont loin d’être de même nature. Une photo d’un champ, pour mesurer un taux de croissance de plantes - une donnée - peut être prise par deux satellites - deux capteurs, produisant deux sources différentes- à des moments distincts. Pour être utiles, ces deux images doivent être analysées, identifiées et classifiées. Selon les secteurs d’activité, les sources sont hétéroclites : des images, des sons, des informations de comptes utilisateurs….

Quand un même phénomène est regardé par différents capteurs, elles sont superposées, agencées de sorte à former une carte multi-dimensionnelle de l’observation.

« Mon travail est axé sur les données physiques, provenant de sources comme les capteurs optiques ou d’ondes radio. Je travaille sur les images qu’il faut caractériser et comprendre une fois collectées. Chaque point de l’image, dit pixel, peut receler plusieurs milliers de couches, chacune comportant des informations qui renseignent très précisément sur les propriétés que l’on cherche à identifier »

précise le chercheur Nicolas Dobigeon, spécialiste du traitement du signal, enseignant-chercheur à Toulouse INP.

 

Séparer les sources

Première problématique abordée, la séparation de sources. Du fait du nombre important d’informations contenues au sein d’un même pixel, la difficulté réside dans l’identification des signatures élémentaires, temporelles et spatiales, de chaque constituant présent dans l’image, selon l’outil utilisé pour le collecter.

« Ce « dé-mélange » spectral est une technique utilisée pour des domaines d’application très variés, en minéralogie, en détection de pollution, dans le cadre de surveillance d’écosystèmes, en astronomie ou encore dans le domaine de la santé. Dans ces domaines, on a l’habitude de travailler avec des spectres lumineux, des « images 3D » d’objets »

énumère le chercheur.

Son domaine d’application privilégié : l’observation de la Terre, sur laquelle les équipes de recherches toulousaines sont en pointe.

 

Détecter les changements

Il s’agit, par exemple, de réaliser et mettre à jour des cartes d’occupation des sols à grande échelle en caractérisant les paysages, dans l’espace et dans le temps. « Bien sûr, une image de la France entière n’a pas été acquise en une seule fois et par un seul satellite. Pour établir une cartographie à cette échelle, avec une haute résolution, des images ont été accumulées sur des périodes potentiellement longues. Il faut ensuite avoir la capacité d’analyser les changements qui s’opèrent à la fois dans le temps et dans l’espace, collectés avec des appareils différents. Les modèles que notre équipe met au point doivent être suffisamment flexibles et souples pour s’adapter à toute cette hétérogénéité », développe Nicolas Dobigeon. Des travaux qui permettent d’établir des cartes, mais aussi de caractériser les services écosystémiques sur un paysage donné : comment la présence de haie favorise la biodiversité, quelle est l’incidence des constructions sur des catastrophes naturelles….

 

Et l’IA dans tout ça ?

Dans ce domaine d’application comme dans d’autres, les techniques d’intelligence artificielle ont permis des progrès sensibles. L’équipe de Nicolas Dobigeon planche également sur les thématiques santé ou l’aide à la conduite de véhicules autonomes pour le compte de l’Institut interdisciplinaire d’intelligence artificielle de Toulouse, Aniti. Les méthodes utilisées par les chercheurs sont de deux ordres. Les techniques supervisées entrainent les algorithmes sur des modèles d’images annotées, où la machine est informée de ce qu’elle regarde. L’autre classe d’algorithmes, dite « non supervisé » fait « travailler » les machines à partir d’un minimum d’informations, s’affranchissant de l’appui de bases d’apprentissage.

« En observation de la Terre, les types de capteurs, qui peuvent être différents satellites, ou bien basés au sol, comme des sismomètres sont très différents. Si l’étape d’apprentissage d’un réseau de neurones est réalisée sur un certain type de sources, on ne peut pas être sûr qu’il proposera des résultats fiables à partir d’autres sources. Or, en cas de catastrophe naturelle par exemple, on ne peut pas se permettre d’attendre qu’un satellite soit disponible. Il faut travailler sur la manière d’adapter un réseau qui a appris sur un certain type de données à d’autres sources, des données qui ne sont pas similaires mais au moins équivalentes, tout en assurant la même performance. Ce qu’on appelle données hétérogènes. »

 

Un champ de recherche gigantesque

Dans le domaine de l’observation de la Terre, c’est typiquement le jeu des sept erreurs : deux images d’un même lieu prises à deux moments différents par des capteurs de nature différente, par exemple avant et après une catastrophe. A priori, la comparaison n’est pas possible, puisque l’image est différente. La proposition de l’équipe consiste à établir des stratégies de détection de changements à partir de ces données hétérogènes, de façon non supervisée, et établir les différences entre les deux prises de mesure. L’approche proposée s’appuie sur un modèle d’inversion : il s’agit de modéliser l’observation et le processus d’acquisition qui a conduit à cette observation ; on revient à l’information utile et exploitable à partir de milliers de données.

« Le champ de recherche est gigantesque, s’enthousiasme Nicolas Dobigeon. L’IA représente une opportunité de faire un lien entre des modalités d’acquisition différente par des capteurs de natures différentes, grâce à des approches d’apprentissage profond capables de faire un lien et de l’apprendre. Grâce à ces techniques, on résout des problématiques que l’on était jusqu’alors incapable de traiter ou qui nécessitaient des temps de traitement très longs. Nous pouvons aujourd’hui lever des verrous avec des solutions algorithmiques mises au point par les géants du numérique que nous adaptons à nos problématiques. »

« C’est une voie de l’IA à la française »

conclut le chercheur.

 

 

portrait Dobigeon
© DR.

Bio express

Enseignant-chercheur à Toulouse INP - ENSEEIHT, l'École nationale supérieure d'électrotechnique, d'électronique, d'informatique, d'hydraulique et des télécommunication, Nicolas Dobigeon est un spécialiste du traitement du signal. Au sein de l’Institut de Recherche en Informatique de Toulouse (IRIT), ses domaines de recherche portent sur les traitements statistiques du signal et des images, dans l’équipe signal et communication. Il est porteur de la chaire « Fusion pour l’inférence à partir de données hétérogènes », dont l’objectif est de développer des algorithmes d'apprentissage capables d'extraire des informations significatives à partir de données multi-sources, multi-échelles et multi-temporelles, notamment dans le domaine de l’observation de la terre et de l’aide à la conduite.