Model Serving: how to implement real-time inference ?
Dans ce webinaire nous avons montré comment créer un pipeline de Machine Learning, le passer en production en quelques minutes, servir les résultats via une API sécurisée et analyser son exécution (experiment tracking). Nous avons utilisé comme exemple un cas d’usage de prédiction de consommation électrique par région, toutes les 30 minutes sur un horizon de 24 heures, à partir des données collectées en direct par le gestionnaire du réseau français (RTE).