💡 Machine Learning Engineer | MLOps | Data Engineering Passionné par l’IA et l’industrialisation de modèles, j’ai développé une solide expertise…
depuis la création du compte
Confiez votre projet à Fatou
Faites appel à l'expertise de Fatou pour faire avancer votre projet, ou découvrez autres freelances pour trouver celui qui correspondra parfaitement à vos besoins.
💡 Machine Learning Engineer | MLOps | Data Engineering
Passionné par l’IA et l’industrialisation de modèles, j’ai développé une solide expertise en MLOps, Big Data et déploiement de solutions IA en production. Fort d’expériences chez Locala, JCDecaux et Euler Hermes, j’ai travaillé sur des projets à grande échelle impliquant :
✔ Déploiement et optimisation de modèles IA en production (MLflow, Kubernetes, AWS, CI/CD).
✔ Traitement de milliards de points de données pour extraire des KPI géolocalisés et prédire des comportements (Spark, Databricks, AWS Glue).
✔ Mise en place de pipelines de traitement et monitoring avancé pour garantir la performance et la fiabilité des modèles.
Toujours en veille technologique, je suis à la recherche de nouveaux défis pour allier IA et production à grande échelle. 🚀
📩 Disponible pour échanger !
Logo de Locala
Data ScientistData Scientist
Locala · CDILocala · CDI
sept. 2021 - mai 2023 · 1 an 9 moisDu sept. 2021 au mai 2023 · 1 an 9 mois
Ville de Paris, Île-de-France, FranceVille de Paris, Île-de-France, France
Réalisation de nouveaux cas d’usage mobilisant des compétences en machine learning et deep learning et
qui répondent aux enjeux métiers, dans le respect du RGPD
• Création des modèles de machine learning avec PySpark MLlib
• Gestion des expériences et des modèles MLflow
• Descriptions et mis en place de protocoles d’évaluation correspondants
• Gestion des versions avec git
• Définition de l’ordre d’exécution des tâches avec un DAG airflow
• Gestion des packages Python avec PyCharm
• Gestion des cycles de vie des modèles avec MLflow
• Gestion des données de manière responsable, en respectant la confidentialité et les réglementations sur la
protection des données
• Documentation et communication des réalisations, en soignant particulièrement l’accessibilité de la
présentation à l’audienceRéalisation de nouveaux cas d’usage mobilisant des compétences en machine learning et deep learning et qui répondent aux enjeux métiers, dans le respect du RGPD • Création des modèles de machine learning avec PySpark MLlib • Gestion des expériences et des modèles MLflow • Descriptions et mis en place de protocoles d’évaluation correspondants • Gestion des versions avec git • Définition de l’ordre d’exécution des tâches avec un DAG airflow • Gestion des packages Python avec PyCharm • Gestion des cycles de vie des modèles avec MLflow • Gestion des données de manière responsable, en respectant la confidentialité et les réglementations sur la protection des données • Documentation et communication des réalisations, en soignant particulièrement l’accessibilité de la présentation à l’audience
Compétences : Machine learning · Gitlab · MLflow · Apache Airflow · Deep learning · PySpark · Python (Programming Language) · Segmentation · Machine Learning · Apache Spark · Gestion des données d’ingénierie · Apache Spark ML · Docker · Git · MLOps · Amazon Web Services (AWS) · Pycharm
• Gestion efficace des projets Scala en automatisant les tâches de gestion de dépendances, de compilation
et de déploiement avec Scala/Spark sur Maven
• Utilisation de Git pour la gestion des versions
• Transformations, analyses, et ingestion des données avec jobs Spark sur EMR/ GLUE
• Mis en place un pipeline de CI/CD pour automatiser le déploiement des pipelines d’ingestion de données• Gestion efficace des projets Scala en automatisant les tâches de gestion de dépendances, de compilation et de déploiement avec Scala/Spark sur Maven • Utilisation de Git pour la gestion des versions • Transformations, analyses, et ingestion des données avec jobs Spark sur EMR/ GLUE • Mis en place un pipeline de CI/CD pour automatiser le déploiement des pipelines d’ingestion de données
Compétences : Gitlab · Apache Airflow · PySpark · Extract, Transform, Load (ETL) · Apache Spark · Gestion des données d’ingénierie · Python · Docker · Git · MLOps · Amazon Web Services (AWS)
Responsable de la migration d'un outil de back testing vers le cloud AWS ainsi que Python :
* Migration du code R, R-shiny vers Python et des modèles
* Migration du code Latex vers Python
* Modélisation des pipelines pour ingestion des données sur AWS
* Mapping des des données historiques avec la nouvelle architecture Cloud
* Reconstruction des jeux de données et validation auprès du management
* Gestion du projet et documentation