Codeur Rank

4 149ème
sur 368 000

Statistiques

depuis la création du compte

Projets réalisés2 projets
Projets terminés0 %
Tarif horaire moyen60
Dernière connexion2 ans
Membre depuisOct. 2015
Profil vu2 450 fois

Vérifications

Adresse emailVérifié
Compte FacebookNon-vérifié
Compte LinkedInVérifié

Confiez votre projet à Gilchrist

Faites appel à l'expertise de Gilchrist pour faire avancer votre projet, ou découvrez autres freelances pour trouver celui qui correspondra parfaitement à vos besoins.

Publier un projet

À propos de Gilchrist

En tant que data engineer, je suis spécialisé dans la mise en place de systèmes de traitement, d'analyse et de visualisation de données.
Je travaille à la fois sur du big data et du small data.
Mes principales compétences sont :
-Python
-Dash(interface de visualisation de données)
-Spark(traitement de données big data)
-Hadoop(Stockage de données big data)
-Postgre, SQL Server, SQL
-HTML+CSS
-Git
-Airflow (automatisation de taches)

Évaluations vérifiées

5,0/5
Information administration windows serveur
Évalué le 25 octobre 2015 par deleted132599 (client)

Encore très satisfait des explications, merci.

Alexandre.

Projet d'étude Administration système windows
Évalué le 25 octobre 2015 par deleted132599 (client)

Très satisfait, à l'écoute de mes attentes.

Réalisations de Gilchrist

Data engineer

SOCIETE GENERALE
nov. 2018 - Aujourd'hui

● Développement d’interfaces de data visualisation DASH (python) pour le suivi des initiatives
de transformation de l’entité GAM
● Adaptation de données pour l'intégration dans un dashboard de suivi d’obsolescence
(Python/Spark/Zeppelin Notebook)
● Ordonnance de jobs Python et Spark via Airflow
● Mise en place d’une interface Call-to-Action pour la mise à jour du statut des éléments de
l’infrastructure (Flask, Sql Server)
● Introduction des métiers aux outils d’analyse de données(Pandas, Jupyter notebook, Plotly…)
Environnement : Hadoop Hortonworks, Pyspark 2/Zeppelin , Hive, Python /Dash/Flask/Pandas, Git , SQL

Data engineer

AXA
juin 2017 - oct. 2018

Mission : Sous la responsabilité du C.D.O, chargé de l’intégration de données dans le Data Lake pour AXA Partners et
développeur sur un projet de data gouvernance. Également formateur et support sur les outils du data lake à destination des
analystes.
● Participation aux ateliers d’intégration de nouvelles sources de données (intervenants à
l’international).
● Refonte de scripts SQL Server pour la compatibilité avec Hive et Impala
● Développement de scripts Python pour l’automatisation du traitement de métadonnées (provenant
de fichiers Excel)
● Jointure de multiples sources de données et mise à disposition de datamart pour les analystes et
data scientist (SparkSQL)
● Développements dans le cadre de la mise en place d’un datawarehouse pour un projet de data quality
(Spark, Scala, Hive)
● Gestion d’incidents (intégrité de données, rattrapage de données)
● Développement d’outils de monitoring du stockage de données sur hdfs en Shell et Python
Environnement : Hadoop Cloudera, Hive, Impala, Spark, Python , Scala , Spotfire , Orchestra EBX, Git

Data engineer

Europcar
mar. - juin 2017

Mission : Sous la responsabilité d’un chef de projet Data, chargé de la mise en place de l’infrastructure pour un pilote
d’analyse de données de véhicules connectés .
● Participation aux ateliers de modélisation des données et proposition d’un modèle de
données (MCD, MPD) répondant aux besoins d’analyse
● Récupération automatisée de données open source (météo, cartographie) pour croisement
avec données internes (Python + PostGIS + QGIS+ PostgreSQL)
● Mise en place de la brique d’analyse de données
● Calcul des indicateurs et création des premiers rapports sur Qlikview (Véhicules par zone, Durée des
déplacements)
Environnement : StarUML , Postgre, Python, Qlikview , PostGIS,QGIS

Data engineer

SFR
nov. 2016 - mar. 2017

Au sein d’une équipe de développeurs, chargé de la mise en place d’un pipeline de traitement de données et du calcul
d’indicateurs.
● Passage de la certification Spark (MapR)
● Agrégation de données avec Spark(Python), R et Apache Drill
● Ingestion des données dans MongoDB et configuration de la réplication
● Mise en place d’un ordonnanceur pour le suivi des taches du pipeline (Airflow)
● Mise en place d’un serveur applicatif Linux (RedHat 6.8)
Environnement : PySpark , R, Drill, Airflow

Recevez un devis de Gilchrist Tossou