Projet numéro 30278 : "ADMINISTRATEUR BIG DATA - HADOOP"


Initiateur du projet :
Description projet :
Administrateur Big Data - Hadoop

Pour un de nos clients, nous recherchons : un administrateur Big Data

Mission /


Contribuer au bon fonctionnement et à la performance des systèmes, en effectuant ou participant aux études d'évolution technique, à l'installation et la maintenance des produits qui relèvent de son domaine d'expertise ;

Informer les acteurs de l'informatique et mettre à leur disposition la documentation et les procédures permettant l'exploitation, l'assistance et le déploiement des produits ;

Réaliser des études techniques : Architectures techniques, choix et tests de solutions techniques, mises en exploitation des solutions. Migrations techniques ;

Assurer un support 3ème niveau pour les acteurs de l'exploitation ( Pilotages d'exploitation, Développeurs) ;

Participer aux task force et autres cellules d'amélioration continue suite à des problèmes ou incidents de production ;

Définir les normes et règles communes à tous les centres de production sur la configuration et l'utilisation des produits ;

Rédiger et mettre à jour les documentations d'exploitation, d'installation, modes opératoires et documents permettant d'assurer le transfert des activités d'administration et d'exploitation auprès des équipes second niveau et premier niveau (Pilotage d'exploitation )

Effectuer des développements techniques nécessaires à l'exploitation et l'automatisation des tâches les plus courantes en administration/exploitation ;


Effectuer la veille technologique sur son champ d'expertise ;

Veiller à l'intégration (prise en compte) des contraintes et règles liées à la sécurité des SI
Fonctionnement : en mode Agile/Safe.

compétences recherchées pour le poste :

Expériences Hadoop sur une ou plus des technologies suivantes: Hortonworks, Cloudera, Ambari, HBase, Cassandra, Spark, Map Reduce, Hive, Presto, HDFS, Object Storage

Expérience avec les technologies BIG DATA dans le cloud (Azure par exemple)

Compétences linux et automatisation: bash shell, systèmes distribués, ansible,

Connaissances sur les outils de sécurité et d'autorisation des données dans les plateformes hadoop: ex. kerberos, ranger, cloud roles, active directory

Compréhension des concepts de base sur les technologies data: map reduce, spark jobs submit, Hive

Organisation, Documentation et Communication.

Autonomie, Capacité de travail en équipe
  • Le client: est une SSII spécialisée dans le placement des ressources humaines.
  • Durée indicative: 6 mois
  • Tarif journalier indicatif: 400 €
  • Type de mission: Freelance en régie / Télétravail 25%
  • Démarrage: Asap
  • Lieu: Neuilly-sur-Marne

 
 


Projets "en attente" similaires


Charte graphique d-un programme de vocabulaire anglais.
Expert Technique Supervision - Secteur Energie - Paris
Developpement de reseau P2P securise par blockchain et conseils creation utility token.
Creation systeme de gestion CRM a integrer dans site boutique en ligue
Amelioration script boutique en ligne sur le pricing et cout envoi

Projets "en cours" similaires


transformation PDF numerise en fichier Excel
Integration Html-css-Urgent
Migration de programme
Recherche Developpeur magento ou prestashop - Republication
Contenu site web Urgent

Projets "en archive" similaires


Rechercher 500 videos sur le net et les indexer dans notre annuaire
detourrages rapides de photos
creation of a little web site
Assistance pour modifications sur site internet
Application Simple Voip sur Windev 10

Projets "VIP" similaires


Developper systeme d information vente a domicile
Developpements Telecom
Migration dune base 4d vers le web
Lise a jour du site www_insecula_com
Developpement d__un site communautaire _ php_mysql_ajax

 

 

 

 

(c)