Bonjour,
Description de la mission :
Notre société recherche pour l’un de ses clients, Un Data Engineer Spark / Kafka / Scala sur IDFBesoin :Récupérer les données issues de sources externesUtiliser la puissance du DatalakeProduire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels.Mise en oeuvre de la chaîne :d’ingestion de données,de validation de données,de croisement de données,de déversement dans le datalake des données enrichiesDévelopper dans le respect des règles d’architecture définiesDévelopper et documenter les user stories avec l’assistance du Product Owner.Produire les scripts de déploiementPrioriser les corrections des anomaliesAssister les équipes d’exploitationParticiper à la mise en oeuvre de la chaîne de delivery continueAutomatiser les tests fonctionnels
Aspects Humains :Grande capacité à travailler dans une équipe, en mode Scrum / Kanban.Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail).Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.Connaissances techniques :Stockage : HDFS / GCSTraitement: Maitrise de l’écosystème Spark / Kafka / ScalaPlanification : Airflow / ComposerGouvernance : Apache Atlas / HiveMéthodologies : Scrum, Kanban, GitDWH : SQL, Oracle / BigQueryDelivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud BuildLa connaissance de la plateforme Data GCP est un plusLa connaissance de la plateforme Amadea/Statmining est un plusSi vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word.
- Le client: est une SSII spécialisée dans le placement des ressources humaines.