L'entreprise cherchait à optimiser ses processus de production, à réduire les coûts opérationnels et à améliorer la gestion des données. L'implémentation de solutions innovantes en matière de science des données et la migration des infrastructures vers le cloud faisaient partie des objectifs clés.
Mon rôle était de :
Migrer les bases de données vers le cloud pour améliorer l'accessibilité et l'intégration en temps réel des données.
Concevoir, orchestrer et déployer des modèles prédictifs afin d’anticiper des problèmes dans les lignes de production, notamment les glissements en laminages.
Mettre en place une maintenance prédictive pour minimiser les arrêts non programmés et améliorer la productivité.
Former les équipes sur les concepts de data science et industrialiser les processus d'intelligence artificielle (IA).
Développer des applications interactives pour faciliter l'utilisation des données par les équipes opérationnelles.
Pour cela :
J'ai dirigé la migration des bases de données IBA vers Azure Cloud en intégrant des passerelles Kafka pour assurer une transmission en temps réel des données. Cette solution a permis d'améliorer la gestion des données et de les rendre plus accessibles.
J'ai développé des modèles prédictifs en production pour anticiper les glissements en laminages, réduisant ainsi les arrêts de production. J'ai utilisé Kubeflow pour garantir la scalabilité et la traçabilité des expériences.
J'ai créé des algorithmes de maintenance prédictive pour détecter les défauts d'arrosage des cylindres, ce qui a permis de réduire les arrêts imprévus de 8 % et les coûts de maintenance de 20 %.
J'ai identifié et analysé près de 10 cas d’usage métiers ayant un impact significatif sur la production, ce qui a permis d’optimiser les processus et d’améliorer la rentabilité.
J'ai développé des applications interactives via Streamlit et FastAPI pour permettre aux équipes opérationnelles d'interagir facilement avec les modèles de données.
J'ai formé les équipes sur les concepts de data science et mis en place des pratiques de MLOps et DataOps pour l'industrialisation des solutions IA.
Comme résultats :
La migration vers le cloud et l'intégration en temps réel des données ont permis une meilleure gestion des données, tout en réduisant les délais d'accès.
Les modèles prédictifs ont contribué à réduire les arrêts de production, améliorant ainsi la continuité des opérations.
La maintenance prédictive a permis de réduire de 8 % les arrêts imprévus et de 20 % les coûts associés.
Les applications interactives ont facilité l'accès aux données et ont été largement adoptées par les équipes, améliorant l'efficacité opérationnelle.
Les processus IA industrialisés ont renforcé la robustesse et la scalabilité des solutions déployées.
Les initiatives globales ont contribué à l’optimisation des chaînes de production, à la réduction des coûts, à l’amélioration de la qualité des produits, et ont favorisé l’adoption d’une culture orientée données au sein de l'organisation.
Outils utilisés : Kafka, Kubeflow, kubeflow pipeline, Azure Cloud, Azure DevOps, Streamlit, FastAPI, MLOps, DataOps, Power BI, Python, VS Code.
Chez Power Inside Data, l'objectif était de développer une solution innovante permettant d'améliorer la recherche d'images grâce à des technologies de recherche sémantique, utilisant des modèles de langage naturel pour améliorer la pertinence des résultats dans un contexte d'utilisation à grande échelle. L'infrastructure devait garantir des performances rapides tout en étant capable de gérer de grandes bases de données d'images et de requêtes textuelles.
Tâches :
Développer une infrastructure de recherche sémantique associant des images à des descriptions textuelles en exploitant des modèles de langage naturel (LLM).
Mettre en place des bases de données vectorielles pour indexer et rechercher efficacement les embeddings d'images.
Optimiser les modèles pour assurer une correspondance précise entre les requêtes textuelles et les images, et déployer la solution dans un environnement cloud.
Collaborer avec des équipes interdisciplinaires pour intégrer cette solution dans des systèmes de production, en respectant les contraintes de performance.
Actions :
J'ai conçu un pipeline d'extraction de vecteurs sémantiques en utilisant SBERT et BERT, permettant de transformer des images et des requêtes textuelles en représentations vectorielles. Ces vecteurs ont permis d'effectuer des correspondances contextuelles précises entre images et texte.
J'ai intégré les bases de données vectorielles Milvus et FAISS, garantissant une indexation et une recherche efficace d'embeddings à grande échelle. Ces technologies ont assuré des recherches rapides sur des millions de vecteurs, tout en maintenant une faible latence.
J'ai optimisé les modèles en procédant à des fine-tuning sur des LLM pré-entraînés, ce qui a permis de renforcer la pertinence des résultats de recherche, notamment pour des requêtes complexes.
J'ai contribué à la conception d'une infrastructure distribuée à faible latence, capable de traiter des requêtes sur des bases de données massives, ce qui a été essentiel pour répondre aux besoins de production à grande échelle.
J'ai orchestré le déploiement des modèles sur le cloud Azure, en utilisant des outils DevOps et LLMOps pour garantir une scalabilité et une fiabilité optimales.
J'ai collaboré avec des équipes de data scientists, ingénieurs en machine learning, et développeurs back-end pour intégrer la solution dans des systèmes de production existants, tout en respectant les contraintes de performance.
Résultats :
La pertinence des résultats de recherche d'images a été améliorée de 30 %, ce qui a entraîné une réduction significative des taux de rebond et une augmentation de la satisfaction des utilisateurs.
L'intégration de la recherche sémantique a permis d'ouvrir de nouvelles opportunités commerciales, offrant des options de recherche plus sophistiquées et personnalisées aux utilisateurs finaux.
Outils utilisés : Azure Cloud, Azure DevOps, LLMOps, Python, Notebook, docker.
En tant que Lead Data Scientist chez Expleo Group, j’ai dirigé des projets d’intelligence artificielle générative pour des clients prestigieux comme Airbus et Renault. Les défis incluaient l’optimisation des processus de production et l’amélioration de l’efficacité opérationnelle à grande échelle, tout en apportant des solutions personnalisées adaptées aux besoins spécifiques de chaque client.
Tâches :
Concevoir et diriger des projets d’IA générative pour Airbus, en se concentrant sur la réduction des temps de consultation de données et l’amélioration des processus de production.
Développer des modèles de vision par ordinateur pour automatiser les inspections qualité chez Renault.
Encadrer des équipes de R&D pour garantir la livraison de solutions innovantes, tout en respectant les délais et les objectifs de qualité.
Mettre en place des modèles de machine learning et de traitement du langage naturel (NLP) pour améliorer la prise de décision basée sur les données textuelles.
Actions :
Pour Airbus, j’ai dirigé le développement d'une solution d'IA générative destinée à analyser plus de 20 ans de données textuelles sur les défauts des pièces, permettant de réduire le temps d'analyse manuelle des défauts.
Chez Renault, j’ai développé un système de vision par ordinateur capable de détecter en temps réel des défauts de fabrication et des pièces manquantes, automatisant ainsi les inspections. Ce projet incluait la collecte d’images, la préparation des données et le développement de modèles d’apprentissage profond.
J’ai encadré des équipes de R&D pour s’assurer de la livraison de solutions innovantes, notamment en machine learning et NLP, tout en respectant les délais et les objectifs de qualité des clients.
J’ai conçu et mis en production des modèles ML & LLM en utilisant des bibliothèques telles que scikit-learn, scikit-llm, mlflow, et flask, pour analyser les bases de données textuelles et faciliter la consultation des ingénieurs.
J’ai travaillé en étroite collaboration avec des équipes interdisciplinaires pour intégrer ces solutions aux chaînes de production, tout en garantissant leur évolutivité avec des technologies comme Azure Cloud et Azure DevOps.
Résultats :
Pour Airbus, le projet d'IA générative a permis de réduire de 15 % le temps de consultation des données, augmentant ainsi l'efficacité des ingénieurs de production.
Le système de vision par ordinateur développé pour Renault a amélioré la précision des contrôles qualité, contribuant à une réduction des coûts de fabrication et à une meilleure détection des défauts en temps réel.
L’optimisation des processus de consultation de données a réduit les délais de réponse des équipes d’ingénierie et renforcé la position de Airbus et Renault comme leaders de l’innovation dans leurs secteurs.
J’ai assuré la documentation des solutions développées et la mise en place de processus standardisés pour garantir leur pérennité et adoption par les équipes opérationnelles.
Outils utilisés : Azure Data Factory, Azure Cloud, Azure DevOps, MLOps, LLMOps, PowerBI, Python, VS Code, scikit-learn, scikit-llm, MLflow, docker.
L'université avait besoin de renforcer les compétences des étudiants en mathématiques et en programmation Python pour leur préparation académique.
J'étais responsable de l'enseignement des cours d'algèbre et de programmation Python aux étudiants de licence.
J'ai conçu des cours interactifs et pratiques, évalué les progrès des étudiants, et fourni des ressources pédagogiques adaptées à leur niveau pour les préparer aux défis académiques et professionnels.
Ces cours ont contribué à renforcer les compétences techniques des étudiants et à améliorer leur réussite académique dans des matières clés pour leur formation.
Le CEA cherchait à améliorer ses prévisions de sécurité concernant l'exposition des populations à l'irradiation en utilisant des modèles avancés de machine learning.
J'étais chargé de concevoir des modèles prédictifs et des applications de deep learning pour améliorer la précision des prévisions de sécurité.
J'ai développé un modèle de deep learning basé sur des données massives, mis en place des processus de traitement des données, et contribué à des projets de recherche stratégique en machine learning.
Ces modèles ont augmenté la précision des prévisions de sécurité de 25%, renforçant la capacité du CEA à prévenir les risques liés à l'irradiation.
outils : mlfow, mlops, powerbi, python, notebook, vs code, azure ml, azure databricks, airflow