PFIA 2025 invite des propositions de sessions tutorielles. Les tutoriels seront organisés du 30 juin au 4 Juillet 2025, pour une durée d'environ 2h30.
La participation aux tutoriels est gratuite pour tous les participants à la conférence PFIA 2025.
Les tutoriels doivent servir un ou plusieurs des objectifs suivants:
Les tutoriels sont destinés à couvrir de manière équilibrée des connaissances raisonnablement bien établies. Les tutoriels ne doivent pas être utilisés pour préconiser une seule voie de recherche, ni promouvoir un produit. Nous promouvons des tutoriels avec une composante pratique ou un autre élément interactif.
Les réseaux de neurones profonds (DNNs) ont révolutionné de nombreux domaines comme la vision par ordinateur, la conduite autonome ou le traitement automatique du langage. Toutefois, ces modèles affichent souvent une confiance excessive, même lorsqu’ils se trompent. Cela pose des risques considérables dans les systèmes critiques pour la sécurité. Ce tutoriel vise à introduire les notions d’incertitude dans les modèles d’apprentissage profond, en mettant un accent particulier sur les approches bayésiennes, les méthodes ensemblistes et les techniques post-hoc. Nous présenterons les fondements théoriques, les limites des approches classiques, et proposerons des démonstrations pratiques utilisant la bibliothèque TorchUncertainty.
IntervenantsGianni Franchi est maître de conférences à ENSTA Paris. Il a obtenu un doctorat en mathématiques appliquées en 2016 à l’Université PSL. Ses domaines de recherche incluent la vision par ordinateur, l’apprentissage automatique, l’apprentissage statistique, avec un intérêt particulier pour la quantification de l’incertitude dans les réseaux de neurones profonds ainsi que la robustesse de ces modèles.
Olivier Laurent a obtenu un master en informatique et intelligence artificielle à ENSTA Paris en 2022. Il prépare actuellement une thèse de doctorat financée par l’Université Paris-Saclay.
Adrien Lafage a obtenu un master en informatique et intelligence artificielle de CY Tech (ex. EISTI), Cergy en 2021. Il prépare actuellement une thèse Cifre à l’ENSTA Paris.
Ce tutoriel introduit la programmation par contraintes avec la bibliothèque PyCSP3 et le solveur ACE. Des exercices interactifs ponctueront la session.
IntervenantsChristophe Lecoutre est Co-développeur de PyCSP3 et du solveur ACE, enseignant-chercheur expérimenté, auteur de nombreuses publications dans le domaine.
Ce tutoriel présente des approches pour la coordination d’actions d’agents coopératifs, suivant deux cadres : l’optimisation distribuée sous contraintes et les enchères coopératives. Nous illustrerons ces modèles et méthodes autour de cas d’études issus de la gestion de constellations de satellites et de la robotique collective.
IntervenantsGauthier Picard a reçu son doctorat en Informatique de l’Université de Toulouse en 2004, et son habilitation à diriger des recherches en Informatique de l’Université de Saint-Étienne en 2014. Il a occupé le poste de Professeur en Informatique au MINES Saint-Étienne et celui de Chercheur associé au Laboratoire Hubert Curien UMR CNRS 5516. Il est actuellement Directeur de recherche à ONERA, the French Aerospace Lab. Ses recherches portent sur la coordination, la coopération, l’allocation de ressources et de tâches, l’adaptation et l’optimisation distribuée, avec un intérêt particulier pour la mise en pratique de ces concepts théoriques dans des applications concrètes telles que les réseaux Internet-of-Things (IoT), la gestion intelligente de réseau électrique, la gestion de constellations de satellites d’observation de la Terre, la coordination de l’espace aérien pour plusieurs UAVs et les missions d’exploration multi-robots.
L’objectif de ce tutoriel est double. Il s’agit d’une part de faire un état de l’art sur les questions que posent l’IA générative dans l’enseignement et l’apprentissage, et d’autre part, de dresser des pistes de recherche pour accompagner positivement les apprenants et les enseignants.
IntervenantsNadia Abchiche Mimouni est maîtresse de conférences à l’Université Côte d’Azur depuis 2023. Elle est rattachée au laboratoire I3S et ses enseignements sont dispensés à Polytech Nice Sophia.
Samuel Tronçon : Chercheur à Netlab / Ananké, ancien enseignant en logique mathématique et auteur en linguistique computationnelle.
Ce tutoriel explore les principes de l'explicabilité dans le traitement du langage naturel (NLP), en abordant les concepts clés et les méthodologies actuelles. Les participants apprendront à appliquer ces concepts à des modèles NLP pour améliorer la transparence et la confiance dans leurs prédictions/résultats.
IntervenantsWassila Ouerdane : Professeure à CentraleSupélec, spécialiste en représentation des connaissances et IA explicable.
Antonin Poché : Doctorant à l’IRT Saint Exupéry et IRIT, ancien ingénieur en explicabilité pour la vision par ordinateur.
Jean-Philippe Poli : Directeur de recherche au CEA List, expert en modèles explicables basés sur la logique floue.
Ce tutoriel vise à introduire les enjeux, défis et principales approches algorithmiques de l’apprentissage continu à travers une présentation synthétique et des exercices pratiques. On s’intéressera en particulier aux algorithmes récents permettant d’apprendre un modèle de classification d’images de manière incrémentale.
IntervenantsEva Feillet : Post-doctorante au LAMSADE, spécialiste de l’apprentissage incrémental, ingénieure CentraleSupélec, thèse à Paris-Saclay.
Céline Hudelot : Professeure d’informatique à CentraleSupélec, directrice du laboratoire MICS, experte en IA explicable et apprentissage avec peu de données.
Adrian Popescu : Ingénieur-chercheur HDR au CEA LIST, spécialiste de l’apprentissage continu et de l’IA frugale.
Ahmed Samet (ahmed.samet@insa-strasbourg.fr)