Description projet :
Vous aurez pour mission de :
Optimiser et accompagner la croissance du cluster Hadoop existant, dans le cadre des projets menés en relation avec les métiers et Maitrises d’Ouvrage concernés
Assurer l’implémentation des composants, le dimensionnement de l’infrastructure, en relation avec les équipes Système et Exploitation
Concevoir et développer des scripts en Hive, Spark, Talend et autres langages (Java, Python)
Assurer l’exploitabilité des développements
De maintenir le dictionnaire de données
De reporter l’avancement des travaux
De proposer des améliorations sur la mise en œuvre et l’utilisation de Hadoop
Compétences
Connaissances requises :
Hadoop (MapR), Spark
SQL
Langage de programmation parmi Scala, Python, Java
ETL (Talend)
Elastic Search
Javascript/NodeJs
Autonomie, curiosité seront des qualités indispensables pour remplir la mission
Expérience d’au moins 3 ans sur Hadoop.