Développeur Big Data : minimum 5 ans d?XP
Impératifs :
Java 8-11
Framework de calcul distribué (type Spark)
Méthode agile
Activités :
Conception/développement/supervision/optimisation de flux d’alimentation Spark de données à forte volumétrie
Supervision et diagnostic des jobs en productio
o Missions
Développer les applications du projet, en conformité avec les bonnes pratiques définies
Tester unitairement les développements
Relire le code produit par les autres développeurs (Pull Requests)
Participer à la correction des anomalies applicatives
Participer aux réunions d’équipe
Avoir un regard critique sur le travail demandé (choix techniques et spécifications fonctionnelles) et proposer des améliorations en conséquence
Expériences et connaissances requises :
Première expérience avec un Framework de calcul distribué (type Spark ou autre Framework)
Bonne connaissance de Java 8-11
Appétence pour la modélisation et traitement de données
Sensibilité à la méthodologie Agile
Une connaissance de AWS S3 et Hadoop (HDFS, Yarn, Hive, Map Reduce) est un plus
Compétences techniques :
Spark 3 / Spark SQL
Stockage via API S3 sur Ceph Object
Java 11, Spring 5.3, Spring Boot 2.6, JUnit 5
Maven, GIT, Jenkins
IaaS sur cloud privé : OpenStack / Terraform / Ansible/ Jenkins
Linux
Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+ CV dés que possible
- Le client: est une SSII spécialisée dans le placement des ressources humaines.
- Durée indicative: 3 mois
- Tarif journalier indicatif: 400 €
- Type de mission: Freelance en régie
- Démarrage: Asap
- Lieu: Lyon, Auvergne-Rhône-Alpes