Model Serving: how to implement real-time inference ?

25/05/2023

Tous les webinaires

Sommaire

Dans ce webinaire nous avons montré comment créer un pipeline de Machine Learning, le passer en production en quelques minutes, servir les résultats via une API sécurisée et analyser son exécution (experiment tracking). Nous avons utilisé comme exemple un cas d’usage de prédiction de consommation électrique par région, toutes les 30 minutes sur un horizon de 24 heures, à partir des données collectées en direct par le gestionnaire du réseau français (RTE).

🎙 Intervenants
Matteo Lhommeau, Data Scientist chez Craft AI
Roman Vennemani, AI Architect chez Craft AI
Hélen d’Argentré, Head of Marketing chez Craft AI

👋 A propos
Craft AI a développé une plateforme SaaS qui facilite le développement et le déploiement d’applications Python, sans compétence de DevOps. Grâce à la plateforme, on peut facilement monter des infrastructures de calcul, créer des pipelines de code Python et les déployer en production sous la forme d’API sécurisée.

Sur le marché, nous sommes positionnés comme pure-player de MLOps avec une spécialisation sur le déploiement et le pilotage des modèles. Nous proposons une solution très simple à prendre en main, avec une interface ergonomique et une tarification claire. Seul acteur français et européen, nous offrons à nos clients une forte proximité et réactivité ainsi qu’un attachement tout particulier aux aspects de souveraineté et de protection des données.

Grâce à notre offre, nos clients divisent par 5 le temps nécessaire pour livrer une application à leurs utilisateurs finaux et réduisent de 80% le coût associé.