Mission :
Objectifs de la mission et tâches
Impératifs :
- Expérience dans la BI/Data
- Spark
- Bonne connaissance des technologies Java 8-11
Activités :
Conception/développement/supervision/optimisation de flux d'alimentation Spark de données à forte volumétrie
Supervision et diagnostic des jobs en production
Mission :
Développer les applications du projet, en conformité avec les bonnes pratiques définies
Tester unitairement les développements
Relire le code produit par les autres développeurs (Pull Requests)
Participer à la correction des anomalies applicatives
Participer aux réunions d'équipe
Avoir un regard critique sur le travail demandé (choix techniques et spécifications fonctionnelles) et proposer des améliorations en conséquence.
Re-chiffrer si nécessaire la charge estimée pour les tâches qui lui sont affectées et ré-estimer le reste à faire au fil des développements
Remonter les alertes au plus tôt
Compétences requises :
Bonne connaissance des technologies Java 8-11, Spring (Spring Boot )
Bonne connaissance du développement Spark ou autre framework big data, avec idéalement du stockage type AWS S3 Modélisation et traitement de données
Sensibilité à la méthodologie Agile (Definition of ready, definition of done, valeurs scrum, ...)
Connaissances en modélisation de données décisionnelles appréciées
Une connaissance de Hadoop (HDFS, Yarn, Hive, Map Reduce) est un plus.
Technologies :
Java 11, Spring 5.3, Spring Boot 2.6, JUnit 5
Spark 3 / Spark SQL
Maven, GIT, Jenkins
IaaS sur cloud privé : OpenStack / Terraform / Ansible/ Jenkins
Stockage via API S3 sur Ceph Object
Linux
Le client: est une SSII spécialisée dans le placement des ressources humaines.
Durée indicative: 1 années
Tarif journalier indicatif: 250-350 €
Type de mission: Freelance en régie/ 50% en télétravail
Démarrage: ASAP
Lieu: Lyon