Formulaire de contact
Votre demande a bien été envoyée.
Veuillez saisir votre nom
Merci de saisir une adresse e-mail
Le format de l’e-mail est incorrect
Veuillez saisir le nom de votre société
Veuillez saisir un message

3 questions à Florent Piétot - co-fondateur de Nibble.ai

← Toutes les ressources
3 questions à Florent Piétot - co-fondateur de Nibble.ai

Florent Piétot est le co-fondateur de Nibble.ai. Il est également créateur et co-organisateur de la MLOps Community Paris. Il compte plusieurs expériences dans l'entreprenariat, le marketing, le product design ou encore la data science. Spécialisé en IA et Data Science depuis 2016, Florent garde comme objectif principal l'amélioration constante des pratiques dans ces domaines.

Pourquoi le MLOps est-il de plus en plus présent et utilisé aujourd'hui ? Quelles problématiques permet-il de résoudre ?

L’essor récent du MLOps (Machine Learning Operationalization) témoigne d’une prise de conscience de la complexité inhérente à la mise en production, la maintenance et l’évolution des modèles d’IA par les individus et les organisations. Le terme est parti d’un néologisme en 2019 pour devenir buzzword récemment. Comme tout buzzword, le risque est d’en oublier les concepts sous-jacents, et de se contenter d’en imiter les signaux extérieurs perçus, sans profondeur et sans substance. (effet “culte de cargo”).

Le DevOps était une extension naturelle de la philosophie agile, étendant l’approche non seulement à l’écriture du code, mais à l’ensemble des processus qui l’entoure et qui permet une mise en production. Le DevOps met donc l’emphase sur ce qui compte le plus dans ce contexte : la collaboration. De la même manière, l’efficacité du travail en équipe est le facteur essentiel dans l’opérationnalisation de modèles d’IA.

Là où le DevOps se focalise sur un unique silo, le fossé entre dev et ops, le MLOps doit aller plus loin: le machine learning étant une science expérimentale muée par des processus itératifs, tant en phase de recherche qu’en production. A cela s’ajoute que le DevOps se concentre sur la livraison d’un seul et unique artefact, le code, là où les processus ML doivent jongler avec un nombre plus important, a minima code, données et modèles, les trois entretenant d’ailleurs des relations d’interdépendances. Ces facteurs ont de larges conséquences organisationnelles et expliquent pourquoi l’on ne peut réduire le MLOps à n’être que du “DevOps appliqué au Machine Learning”.

A titre d’exemple, la qualité d’une fonctionnalité d’un produit peut dépendre de la performance de la modélisation sur certaines strates de données : quel design produit peut-on mettre en œuvre pour atténuer les risques potentiels ? Ceci, comme d’autres, est un problème particulièrement complexe qui nécessite une collaboration étroite entre multiples parties prenantes aux affinités et compréhensions très distinctes.

Les complexités de nos sujets sont par ailleurs aussi amplifiées par le mysticisme qui entoure les technologies d’intelligence artificielle. Ajouté à ceci les récents titres racoleurs dans les médias, qui combinés à soixante années de culture pop/science-fiction, créent des croyances très éloignées des réalités technologiques.

Malgré cela, les organisations commencent à comprendre comment jongler avec les complexités inhérentes à ces technologies ainsi que leurs réalités économiques. Les bénéfices peuvent être très importants mais les coûts associés sont le plus souvent sous-estimés. Le MLOps est une réponse à ces complexités. Ce mouvement représente un changement culturel majeur pour les organisations. Une approche holistique, combinée à de l’évangélisation MLOps, va faire avancer la maturité de l’organisation, permettant ainsi d’investir sur les projets gagnants et de définir les processus et outils nécessaires à une collaboration efficace. In fine, c’est toute l’organisation qui bénéficiera de l’industrialisation réussie des modèles d’IA créateurs de valeur.

Quelle est la mission de nibble.ai ? Quels outils sont utilisés, dans quelle industrie et pour quels résultats ?

Mon cofondateur et moi-même avons commencé à travailler ensemble il y a cinq ans basés sur la forte intuition que la majeure partie des initiatives de data science en production étaient dysfonctionnelles et/ou inefficaces. Nous avions à l’époque des idées produit, cependant, de nombreuses interviews utilisateurs nous ont convaincus que le marché manquait encore de maturité. En tant qu’entrepreneurs, notre seul focus est d’aider nos clients à résoudre leurs problèmes. Dans ce contexte, nous nous sommes remontés les manches et avons commencé à proposer des services de consulting et avons lancé des évènements MLOps à Paris (nous avons depuis fait un partenariat avec l’initiative globale MLOps Community).

Nous travaillons avec des entreprises de nombreux secteurs, tels que l’industrie, le retail ou le e-commerce, en proposant à la fois du consulting stratégique mais aussi des services plus techniques. Nous pensons que ce mix est critique pour un sujet aussi naissant. Nous ajustons nos offres en fonction de l’organisation du client, de sa taille et de son niveau de maturité. D’une jeune entreprise sans ressources internes spécialisées, jusqu’à des entreprises CAC 40 avec de grands projets stratégiques déjà lancés. Pour une entreprise qui démarre sur ces sujets, nous pouvons aider les équipes à définir les bons business cases et d’y associer une stratégie permettant de livrer de la valeur de manière incrémentale. Pour une entreprise ayant déjà des projets d’IA en cours et des ressources en interne, nous les aidons à conduire le changement culturel et organisationnel en agissant comme des MLOps advocates, en mettant des processus fiables en place, en les aidant à prendre conscience de leur maturité MLOps et en priorisant en fonction. Nous participons également aux efforts d’implémentation, soit en tant que contributeurs individuels soit par du coaching.

Nous agissons comme un collectif; au lieu de placer des consultants avec des compétences figées pour un temps figé, nous proposons des équipes multidisciplinaires et complémentaires. Cette approche nous permet d’être très flexibles et très réactifs aux changements rapides des besoins business. Par ailleurs, depuis l’an dernier, nous embrassons encore plus le modèle du collectif en intégrant dans nos squads des freelances indépendants, complétant ainsi notre expertise sur des sujets adjacents aux nôtres, par exemple récemment avec de l’Analytics Engineering.

Travailler avec des personnes avec un état d’esprit entrepreneurial, talentueux dans leurs expertises et capables de conduire le changement culturel nous permet d’aider nos clients à se mettre sur les bons rails. Il en résulte que nous observons une amélioration significative de la maturité MLOps chez nos clients : meilleur contrôle du cycle de vie des modèles, réduction des erreurs de modélisation par une meilleur gestion de l’ingénierie logicielle et de l’usage et/ou création d’outils pour améliorer la validation des modèles, ainsi que de meilleures performances. De manière générale, des collaborations plus fluides qui résultent en de meilleurs produits AI générant plus de valeur. Par ailleurs, par cette progression, nous commercialisons depuis l’an dernier une solution type Feature Platform auprès de certains clients sélectionnés.

Selon vous, quelle sera la prochaine révolution de l'IA et des data science ?

Ce qui compte vraiment est l’adoption. Bien que nous ayions vu des progrès énormes ces quatre dernières années (après la phase d’étalage de POCs sur les étagères), nous n’en sommes encore qu’au tout début de cette révolution.

Comme le disait Renaux Allioux (Cofondateur et Chief Innovation Officer de Preligens) lors de la dernière édition de notre évènement MLOps Community Paris: “the hard thing is still production”.

Au-delà des problèmes de scalabité et de limitations matérielles, nous voyons aussi le retour de plus de focus sur la modélisation en elle-même. Historiquement, notre mouvement a commencé en regardant à l’extérieur : en réalisant que les modèles et leur code n’étaient qu’une fraction des systèmes ML en production, comme une petite boîte noire au milieu d’un vaste océan de complexité infrastructurelle. C’était un temps où la plupart d’entre nous focalisions nos efforts à lancer un amas d’expérimentations qui n’avaient aucune chance d’aboutir en production.

Dorénavant, par la prise de conscience des complexités structurelles liées à la mise en production, il est sage d’accorder de nouveau un peu d’importance à la qualité et à la performance des modèles que nous sommes désormais en capacité de déployer. Après tout, ils sont la raison d’être fondamentale de toute l’infrastructure les entourant ; même dans le cas de modèles fondationnels par exemple, d’une part un paramétrage dédié (fine-tuning) est souvent requis, et d’autre part ces modèles sont soumis aux mêmes risques, par exemple des préoccupations éthiques telles que des enjeux d’équité, de transparence et d’explicabilité. En 2023, et pour les temps qui viennent, il n’existe toujours pas de baguette magique.  Ainsi, avec une maturité organisationnelle et écosystémique grandissante, nous revisitons l’idée même que signifie pour un modèle d’être de qualité, bien au-delà du simple fait d’optimiser une valeur scalaire dans un notebook. Les contraintes de production challengeant les qualités intrinsèques des modèles. 

Dans un tel contexte, les qualités d’un modèle relèvent de son auditabilité, son explicabilité, son observabilité, sa capacité à être “monitoré”, de la capacité du système à avoir un accès facile à des variables explicatives (features voire même embeddings) avec une fréquence de rafraîchissement élevée, et bien plus encore. Afin de faire face à ces challenges, les organisations avec le bon niveau de maturité MLOps vont se mettre à chercher des processus et des outils à même de pouvoir les résoudre.

Related articles
3 questions à Bruno Thuillier - CTO de Alpha Mos
3 questions à Bruno Thuillier - CTO de Alpha Mos
3 questions à Bruno Thuillier - CTO de Alpha Mos
3 questions à Jérôme Trédan
3 questions à Jérôme Trédan
3 questions à Jérôme Trédan
3 questions à Laurence Devillers
3 questions à Laurence Devillers
3 questions à Laurence Devillers