Administrateur Big Data - Hadoop
Pour un de nos clients, nous recherchons : un administrateur Big Data
Mission /
Contribuer au bon fonctionnement et à la performance des systèmes, en effectuant ou participant aux études d'évolution technique, à l'installation et la maintenance des produits qui relèvent de son domaine d'expertise ;
Informer les acteurs de l'informatique et mettre à leur disposition la documentation et les procédures permettant l'exploitation, l'assistance et le déploiement des produits ;
Réaliser des études techniques : Architectures techniques, choix et tests de solutions techniques, mises en exploitation des solutions. Migrations techniques ;
Assurer un support 3ème niveau pour les acteurs de l'exploitation ( Pilotages d'exploitation, Développeurs) ;
Participer aux task force et autres cellules d'amélioration continue suite à des problèmes ou incidents de production ;
Définir les normes et règles communes à tous les centres de production sur la configuration et l'utilisation des produits ;
Rédiger et mettre à jour les documentations d'exploitation, d'installation, modes opératoires et documents permettant d'assurer le transfert des activités d'administration et d'exploitation auprès des équipes second niveau et premier niveau (Pilotage d'exploitation )
Effectuer des développements techniques nécessaires à l'exploitation et l'automatisation des tâches les plus courantes en administration/exploitation ;
Effectuer la veille technologique sur son champ d'expertise ;
Veiller à l'intégration (prise en compte) des contraintes et règles liées à la sécurité des SI
Fonctionnement : en mode Agile/Safe.
compétences recherchées pour le poste :
Expériences Hadoop sur une ou plus des technologies suivantes: Hortonworks, Cloudera, Ambari, HBase, Cassandra, Spark, Map Reduce, Hive, Presto, HDFS, Object Storage
Expérience avec les technologies BIG DATA dans le cloud (Azure par exemple)
Compétences linux et automatisation: bash shell, systèmes distribués, ansible,
Connaissances sur les outils de sécurité et d'autorisation des données dans les plateformes hadoop: ex. kerberos, ranger, cloud roles, active directory
Compréhension des concepts de base sur les technologies data: map reduce, spark jobs submit, Hive
Organisation, Documentation et Communication.
Autonomie, Capacité de travail en équipe
- Le client: est une SSII spécialisée dans le placement des ressources humaines.
- Durée indicative: 6 mois
- Tarif journalier indicatif: 400 €
- Type de mission: Freelance en régie / Télétravail 25%
- Démarrage: Asap
- Lieu: Neuilly-sur-Marne