IA de confiance : peut-on expliquer un LLM ?

17/10/2023

Tous les webinaires

Sommaire

L'explosion du recours aux IA génératives soulève un problème majeur : peut-on faire confiance et comprendre les résultats de l'IA ?

💡 Description
La course à la puissance des LLMs à laquelle nous assistons depuis quelques mois, rend l'enjeu de l'explicabilité des algorithmes aussi capital que compliqué : peut-on encore comprendre le cheminement d'un modèle de plusieurs dizaines de milliards de paramètres ?
Si les Shapley Values se sont installées comme les standards de l’explicabilité en Machine Learning, leur utilité disparait sur un modèle aussi complexe qu’un LLM. La nature même du type d’explication recherché pour un LLM diffère de ce qui est recherché sur un modèle de type classification.
Alors comment savoir si un Large Language Model agit tel un “perroquet” répétant ce qu’il a appris ou s'il vous donne une réponse, issue de l'acquisition d'un concept ?

⏰ Déroulement
14h00-14h10 : Introduction
14h10-14h30 : Présentation
14h30-14h45 : Question-Réponse

🎙 Intervenants
Bastien Zimmermann
, Ingénieur R&D chez Craft AI
Hélen d’Argentré
, Head of Marketing chez Craft AI

👋 A propos
Startup française pionnière de l’IA de confiance, Craft AI est spécialisé dans l’industrialisation de projets d’intelligence artificielle. Depuis 8 ans, Craft AI a développé une expertise technologique unique dans l’opérationnalisation de modèles de Machine & Deep Learning. L’entreprise permet notamment à ses clients de développer, de spécialiser et d’opérer leurs propres IA génératives. Elle propose enfin une vision responsable de l’IA, c'est-à-dire économe en énergie, explicable et respectueuse de la vie privée.

À télécharger