[MISSION LONGUE] Administrateur Lakehouse / Cloudera - Expert Big Data (H/F)
Role details
Job location
Tech stack
Job description
? Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security)
Apache Atlas (Gouvernance & Lineage)
Spark + Apache Zeppelin (Processing)
NiFi (Ingestion)
Apache Impala (Analytics)
Hadoop (HDFS) + Apache Kudu (Data Lake)
Hue (Serving / SQL UI)
?? Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus., Administrer et maintenir l?écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper?).
Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision.
Documenter les procédures d?exploitation & rédiger des rapports synthétiques.
Respecter les SLA et intervenir en cas d?incident.
Travailler en environnement ITIL (gestion incidents, problèmes, changements).
Automatiser les déploiements via Ansible (certificats, keystores, configurations).
Utiliser les outils DevOps : GitHub, Jenkins.
Exploiter les environnements Linux (analyse de logs, diagnostic).
Participer aux réunions d?équipe, aux projets et aux comités.
Être force de proposition sur l?amélioration continue et la supervision.
? Environnement technique
Cloudera CDP ? Cloudera Manager ? HDFS ? Yarn ? Zookeeper Apache Ranger ? Apache Atlas ? Spark ? Zeppelin ? NiFi ? Impala Hadoop ? Kudu ? Hue Ansible ? GitHub ? Jenkins ? Linux, Client final : secteur paiement ? mission longue ? environnement Cloudera CDP
Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l?un de nos clients grands comptes dans la gestion et l?exploitation de son écosystème Big Data.
Requirements
5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif.
Très forte expertise sur les briques Lakehouse listées ci-dessus.
À l?aise en production, ITIL, sécurité, automatisation.
Bon niveau d?anglais (échanges éditeurs Cloudera & fournisseurs).
Consultant autonome, structuré, capable de rendre compte et d?améliorer l?existant.
? Disponibilité immédiate ou rapide
Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu, contactez-moi directement., ? Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security)
Apache Atlas (Gouvernance & Lineage)
Spark + Apache Zeppelin (Processing)
NiFi (Ingestion)
Apache Impala (Analytics)
Hadoop (HDFS) + Apache Kudu (Data Lake)
Hue (Serving / SQL UI)
?? Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus., 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif.
Très forte expertise sur les briques Lakehouse listées ci-dessus.
À l?aise en production, ITIL, sécurité, automatisation.
Bon niveau d?anglais (échanges éditeurs Cloudera & fournisseurs).
Consultant autonome, structuré, capable de rendre compte et d?améliorer l?existant., Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu, contactez-moi directement.