Tech Lead Big Data (H/F
Role details
Job location
Tech stack
Job description
Vous êtes (ou avez l'âme d') un leader ? Vous avez une expérience significative dans la mise en place de plateformes et d'Architectures Big Data ? Ça tombe bien, nous avons justement besoin de votre expérience pour accompagner nos clients dans la mise en place de leurs projets Big Data et Cloud !
L'équipe
Au sein de l'une de nos Business Unit de Conseil, d'Expertise et de Delivery Data, vous intègrerez une équipe de Data Specialists (Big Data, Data Science, Data Gouvernance, Data Viz…), capables d'accompagner nos clients dans la mise en œuvre d'une stratégie data globale., Expertise technique et animation transversale
Mise en œuvre d'architectures Big Data, potentiellement déployées en cloud ;
- Partenariat avec l'équipe R&D Keyrus et contribution à l'animation technique transversale au travers de réunions régulières ;
- Capitalisation des connaissances (production de documents techniques projets et développement des compétences des consultants en charge du déploiement pour les clients (binômage et accompagnement ponctuel) ;Participation au recrutement de nouveaux talents (validation technique de profils).
Veille et communication
- Assurer une veille technologique permanente pour garantir l'actualisation des compétences
- Assurer une évangélisation en interne Keyrus sur les thématiques du big data au travers de l'animation de Meetup ou d'afterwork périodiques sur ces thèmes.
- Former et accompagner à la montée des compétences des collaborateurs Big Data ;
- Assurer le rôle de speaker tant en interne (réunion mensuelle, séminaire/workshop,…) qu'en externe (salon, forum d'écoles, Meetup,…) ;
- Représenter Keyrus et son savoir-faire Big Data auprès des écoles/universités majeures du marché Big Data ;Participation au développement et à l'animation de relations partenaires avec les éditeurs des marchés Big Data et Cloud : Cloudera, Datastax, Amazon (WS), Microsoft (Azure),…
Requirements
Do you have experience in Spark?, Vous êtes diplômé(e) d'un Bac +5 en informatique (école d'ingénieur ou master - avec idéalement une filière orientée Big Data ou Cloud Computing) avec à minima une 1ère expérience significative dans la mise en oeuvre de technologies Big Data.
Compétences requises/attendues :
-
Maîtrise de l'écosystème Hadoop (HDFS, Pig, Hive, Sqoop,…), Spark, Kafka, ElasticSearch/SolR ;
-
Maitrise de l'un des langages de programmation suivant : Java, Scala, ou Python (dans un contexte Big Data) ;
-
Maitrise de la programmation orientée objet et d'un langage associé (Java, C++, C#) ;
-
Connaissance des concepts NoSQL et maîtrise d'au moins une solution parmi celles-ci : HBase, Cassandra, DynamoDB, DocumentDB, Big Table, MongoDB, Redis, Riak … ;
-
Capacité à évoluer dans un environnement anglophone
-
A minima, une connaissance fondamentale des algorithmes de Machine Learning.
Qualités requises :
- Vous avez conscience que vous serez un des piliers de l'activité et que votre légitimité technique passe notamment par l'émulation et le partage des connaissances au sein de l'équipe ;
- Vous avez besoin d'apprendre en permanence ;
- Vous êtes un(e) véritable « Data Geek », et vous avez un état d'esprit de gagnant
- Vous avez la capacité à expliquer/vulgariser et vous avez les qualités et compétences pour rassurer et convaincre vos interlocuteurs sur la pertinence de vos préconisations ;
- Vous avez un état d'esprit de gagnant et vous portiez à l'adolescence un tee-shirt portant l'inscription « The second place is the first looser » ;
- Vous ne vivez pas sur vos acquis, vous avez besoin d'apprendre en permanence et vous pensez qu'un sujet que vous ne connaissez pas est avant tout un sujet que vous ne connaissez pas encore ;
- Vous êtes bien sûr sympa et vous disposez d'un relationnel de situation. Le conflit et la polémique, très peu pour vous. Vous préférez fédérer, convaincre et rallier les sceptiques à vos idées.
Vos petits plus appréciables :
- La maîtrise d'un écosystème Cloud (AWS, Azure, GCP, Openstack) ;
- La connaissance des outils d'automatisation du provisionning propre aux clouds publics ;
- Connaissance des bonnes pratiques Devops d'intégration continue
- Avoir déjà évolué dans le monde du conseil en ingénierie Big Data ; Disposer d'une certification éditeur dans le domaine du Big Data (Cloudera, Hortonworks,…).