Ce projet vise à développer des systèmes d’IA « human friendly ». Ce deuxième projet viendra faire écho à l’appel à proposition de chaires en IA de l’ANR. L’objectif général de ce projet est de développer des systèmes qui veillent à ce que les résultats qu’ils fournissent puissent être explicables (possibilité de justification du résultat produit) et certifiables (respect des contraintes spécifiées). Les méthodes d’IA numérique permettent de résoudre des problèmes de la vie courante avec une très grande efficacité, mais il est actuellement impossible d’obtenir une compréhension macroscopique de leur fonctionnement. Il s’agit ainsi (1) de développer des modèles causaux s’apparentant à des réseaux bayésiens acycliques mais différents sur deux aspects : les réseaux causaux sont parcimonieux (pour expliquer les décisions) et l’orientation des arcs dans la structuration du modèle causal est importante (la causalité ne se réduit pas à une corrélation statistique) ; (2) de concevoir des modèle d’apprentissage automatique garantissant des propriétés quant à la probabilité de succès, la vitesse pour les données complexes de grande dimension ; (3) de proposer des méthodes de raisonnement avec explication des données manquantes ; (4) de proposer des méthodes généralisées d’apprentissage par renforcement capables de s’adapter et résoudre des familles de problèmes et ne nécessitant plus un apprentissage pour chaque problème.
Contrats doctoraux en Intelligence Artificielle
Principal investigateur (PI) : Olivier Colot