Senior Data Engineer - Cybersecurity - Video Streaming
Role details
Job location
Tech stack
Job description
Studios de cinéma
- Chaînes de télévision
- Plateformes de vidéo à la demande (VOD)
- Diffuseurs d'événements sportifs
L'objectif est de sécuriser la diffusion des contenus premium (films, séries, événements sportifs) en permettant notamment de tracer l'origine des fuites en cas de diffusion illégale.
Contexte : La société lance un projet stratégique -> la création d'un Security Operation Center (SOC) dédié à l'analyse et à la sécurisation des flux vidéo.
Objectif du projet :
- Sécuriser les services de streaming contre les menaces et comportements frauduleux.
- Garantir une détection proactive des signaux faibles,
- Garantir une haute qualité de données
- Piloter efficacement la remédiation pour renforcer la sécurité globale des plateformes.
Dans ce cadre vous intégré une équipe de 7 experts, dans un environnement agile, dynamique, technique et en constante évolution. En tant que Senior Data Engineer, la mission consiste à concevoir et opérer une infrastructure data & machine learning capable de collecter, centraliser et corréler les signaux de sécurité issus des pipelines de streaming et du cloud.
Missions :
- Concevoir, déployer et opérer une infrastructure data & machine learning pour une plateforme de sécurité avancée
- Participer à la définition d'architectures cloud robustes et scalables permettant l'ingestion de données en quasi temps réel
- Développer et industrialiser des pipelines de données fiables pour alimenter des usages BI et Machine Learning
- Structurer, nettoyer, enrichir et modéliser les données (logs CDN, DRM, piracy monitoring)
- Concevoir et faire évoluer des modèles de données dans une logique de Lakehouse
- Mettre en production, optimiser et monitorer les pipelines data
- Participer à la mise en place d'outils de visualisation et de reporting
- Contribuer à la gouvernance, la qualité et la sécurisation des données
- Intervenir sur des problématiques de détection d'anomalies et d'analyse croisée de signaux faibles
- Collaborer étroitement avec les équipes Produit, Data et techniques dans un cadre Agile
- Participer aux initiatives d'innovation (hackathons, présentations techniques, amélioration continue)
Environnement technique : Python, SQL, Java, Spark, AWS, Redshift, Lakehouse (Iceberg, Parquet), Airflow, Docker, GitLab CI/CD, Infrastructure as Code, AWS Neptune (Graph DB), OLTP, OLAP.
Requirements
Hard Skills : - Bonne maîtrise de Spark ainsi que de Java- Maîtrise des différents types de bases de données : OLTP, OLAP, Graph- Solide expérience des architectures Lakehouse (Iceberg, Delta Table) ainsi que des outils de catalogue et de gouvernance des données (Glue, Lake Formation, Polaris)- Expérience avec un outil d'orchestration (Airflow, Kestra, Step Functions...)- Très bonne maîtrise de Python, SQL, ainsi que des environnements Docker et des outils de CI/CD (type GitLab)- Expérience significative en environnement Cloud, idéalement sur AWS- Bonne culture DevOps : Infrastructure as Code, intégration et déploiement continuSoft Skills : - Excellentes capacités d'analyse et de résolution de problèmes complexes- Bonnes compétences en communication, avec une maîtrise de l'anglais écrit et oral (langue de travail)- Autonomie, curiosité et implication au quotidien- Rigueur, sens de la qualité et de la fiabilité- Forte orientation efficience (recherche, Bonne maîtrise de Spark ainsi que de Java
- Maîtrise des différents types de bases de données : OLTP, OLAP, Graph
- Solide expérience des architectures Lakehouse (Iceberg, Delta Table) ainsi que des outils de catalogue et de gouvernance des données (Glue, Lake Formation, Polaris)
- Expérience avec un outil d'orchestration (Airflow, Kestra, Step Functions...)
- Très bonne maîtrise de Python, SQL, ainsi que des environnements Docker et des outils de CI/CD (type GitLab)
- Expérience significative en environnement Cloud, idéalement sur AWS
- Bonne culture DevOps : Infrastructure as Code, intégration et déploiement continu
Soft Skills :
- Excellentes capacités d'analyse et de résolution de problèmes complexes
- Bonnes compétences en communication, avec une maîtrise de l'anglais écrit et oral (langue de travail)
- Autonomie, curiosité et implication au quotidien
- Rigueur, sens de la qualité et de la fiabilité
- Forte orientation efficience (recherche de solutions optimales, pas uniquement efficaces)
Les plus :
- Expérience en cybersécurité (SOC, SIEM, EDR)
- Expérience sur des plateformes data type Databricks ou Splunk
- Connaissances en Machine Learning (notamment AWS SageMaker), Esprit d'analyse
Benefits & conditions
Lieu : Rennes (Cesson-Sévigné) Rémunération : 50 000 - 60 000 Euros Télétravail : 1 à 2 jours / semaine Avantages : PEE, abondement 300% / Mutuelle 60% / Swile 60% par l'entreprise / Prévoyance 100% / Transport 75% par l'entreprise / PERCO / CET / Hackathons / Contexte international., de solutions optimales, pas uniquement efficaces)Les plus :- Expérience en cybersécurité (SOC, SIEM, EDR)- Expérience sur des plateformes data type Databricks ou Splunk- Connaissances en Machine Learning (notamment AWS SageMaker)