IA explicable hybride pour signal et image

IAehsi est un Groupe de travail GDR-IASIS

Contexte

Les approches d’intelligence artificielle d’apprentissage profond sont devenues essentielles dans l’analyse et la classification des données signal et image notamment. Bien ces modèles aient produit des résultats impressionnants, ils manquent de transparence. Aussi, d’un point de vue applicatif, les outils d’analyse à base d’Intelligence Artificielle (IA) requièrent une certification pour l’application dans des domaines critiques, par exemple l’imagerie médicale ou la sécurité. Ainsi le domaine de recherche sur l’IA de confiance, ou l’intelligence artificielle explicable (XAI) est en pleine effervescence.

Pour des données sous forme d’image, expliquer la décision d’un réseau neuronal profond consiste souvent à identifier l’ensemble des pixels d’entrée qui ont le plus contribué à la décision. Pour les signaux mono ou multidimensionnel, il s’agit d’indiquer des intervalles en cours de temps et les dimensions qui ont induit la décision de classification produite, afin de confronter les explications avec les attentes des experts du domaine.

Ces approches montrent aujourd’hui leurs limites. L’image ou le signal sont de plus en plus souvent considérées comme des sources d’information dans des applications qui utilisent des systèmes experts à base de règles et selon des ontologies des concepts métier. La confiance en les décisions de ces outils passe par l’explication de toute la chaîne décisionnelle. On parle donc d’ « explication hybride ». Aujourd’hui, à la fois sur le plan national et international, ce sujet de recherche est exploré de façon intense dans des communautés de l’IA, Visualisation de l’Information, Signal-Image et Mathématiques de l’IA.

Objectifs

Ce groupe de travail a pour objectif principal de fédérer la communauté nationale intéressée par ce sujet. Au delà du GdR IASIS, le GT sera notamment amené à interagir avec le groupement de recherche « Raisonnement, Apprentissage, et Décision en Intelligence Artificielle » GdR RADIA et ses GT « Modèles Hybrides d’IA » MHyAI et « Explicabilité et Confiance » EXPLICON.

A l’issue du GT (avril 2026) nous proposerons une synthèse de l’état de l’art et des pistes de recherches les plus prometteuses.

Réalisations

A venir

Animation