Senior Data Engineer - Cybersecurity - Video Streaming

Seyos
Canton de Betton, France
7 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French, English
Experience level
Senior
Compensation
€ 60K

Job location

Remote
Canton de Betton, France

Tech stack

Java
Agile Methodologies
Airflow
Amazon Web Services (AWS)
Cloud Computing
Databases
Continuous Delivery
Continuous Integration
Data Governance
DevOps
Python
Machine Learning
Online Analytical Processing
Online Transaction Processing
Security Information and Event Management
SQL Databases
Parquet
Data Ingestion
Spark
Gitlab
Gitlab-ci
Infrastructure Automation Frameworks
Splunk
Docker
Redshift
Databricks

Job description

Studios de cinéma

  • Chaînes de télévision
  • Plateformes de vidéo à la demande (VOD)
  • Diffuseurs d'événements sportifs

L'objectif est de sécuriser la diffusion des contenus premium (films, séries, événements sportifs) en permettant notamment de tracer l'origine des fuites en cas de diffusion illégale.

Contexte : La société lance un projet stratégique -> la création d'un Security Operation Center (SOC) dédié à l'analyse et à la sécurisation des flux vidéo.

Objectif du projet :

  • Sécuriser les services de streaming contre les menaces et comportements frauduleux.
  • Garantir une détection proactive des signaux faibles,
  • Garantir une haute qualité de données
  • Piloter efficacement la remédiation pour renforcer la sécurité globale des plateformes.

Dans ce cadre vous intégré une équipe de 7 experts, dans un environnement agile, dynamique, technique et en constante évolution. En tant que Senior Data Engineer, la mission consiste à concevoir et opérer une infrastructure data & machine learning capable de collecter, centraliser et corréler les signaux de sécurité issus des pipelines de streaming et du cloud.

Missions :

  • Concevoir, déployer et opérer une infrastructure data & machine learning pour une plateforme de sécurité avancée
  • Participer à la définition d'architectures cloud robustes et scalables permettant l'ingestion de données en quasi temps réel
  • Développer et industrialiser des pipelines de données fiables pour alimenter des usages BI et Machine Learning
  • Structurer, nettoyer, enrichir et modéliser les données (logs CDN, DRM, piracy monitoring)
  • Concevoir et faire évoluer des modèles de données dans une logique de Lakehouse
  • Mettre en production, optimiser et monitorer les pipelines data
  • Participer à la mise en place d'outils de visualisation et de reporting
  • Contribuer à la gouvernance, la qualité et la sécurisation des données
  • Intervenir sur des problématiques de détection d'anomalies et d'analyse croisée de signaux faibles
  • Collaborer étroitement avec les équipes Produit, Data et techniques dans un cadre Agile
  • Participer aux initiatives d'innovation (hackathons, présentations techniques, amélioration continue)

Environnement technique : Python, SQL, Java, Spark, AWS, Redshift, Lakehouse (Iceberg, Parquet), Airflow, Docker, GitLab CI/CD, Infrastructure as Code, AWS Neptune (Graph DB), OLTP, OLAP.

Requirements

Hard Skills : - Bonne maîtrise de Spark ainsi que de Java- Maîtrise des différents types de bases de données : OLTP, OLAP, Graph- Solide expérience des architectures Lakehouse (Iceberg, Delta Table) ainsi que des outils de catalogue et de gouvernance des données (Glue, Lake Formation, Polaris)- Expérience avec un outil d'orchestration (Airflow, Kestra, Step Functions...)- Très bonne maîtrise de Python, SQL, ainsi que des environnements Docker et des outils de CI/CD (type GitLab)- Expérience significative en environnement Cloud, idéalement sur AWS- Bonne culture DevOps : Infrastructure as Code, intégration et déploiement continuSoft Skills : - Excellentes capacités d'analyse et de résolution de problèmes complexes- Bonnes compétences en communication, avec une maîtrise de l'anglais écrit et oral (langue de travail)- Autonomie, curiosité et implication au quotidien- Rigueur, sens de la qualité et de la fiabilité- Forte orientation efficience (recherche, Bonne maîtrise de Spark ainsi que de Java

  • Maîtrise des différents types de bases de données : OLTP, OLAP, Graph
  • Solide expérience des architectures Lakehouse (Iceberg, Delta Table) ainsi que des outils de catalogue et de gouvernance des données (Glue, Lake Formation, Polaris)
  • Expérience avec un outil d'orchestration (Airflow, Kestra, Step Functions...)
  • Très bonne maîtrise de Python, SQL, ainsi que des environnements Docker et des outils de CI/CD (type GitLab)
  • Expérience significative en environnement Cloud, idéalement sur AWS
  • Bonne culture DevOps : Infrastructure as Code, intégration et déploiement continu

Soft Skills :

  • Excellentes capacités d'analyse et de résolution de problèmes complexes
  • Bonnes compétences en communication, avec une maîtrise de l'anglais écrit et oral (langue de travail)
  • Autonomie, curiosité et implication au quotidien
  • Rigueur, sens de la qualité et de la fiabilité
  • Forte orientation efficience (recherche de solutions optimales, pas uniquement efficaces)

Les plus :

  • Expérience en cybersécurité (SOC, SIEM, EDR)
  • Expérience sur des plateformes data type Databricks ou Splunk
  • Connaissances en Machine Learning (notamment AWS SageMaker), Esprit d'analyse

Benefits & conditions

Lieu : Rennes (Cesson-Sévigné) Rémunération : 50 000 - 60 000 Euros Télétravail : 1 à 2 jours / semaine Avantages : PEE, abondement 300% / Mutuelle 60% / Swile 60% par l'entreprise / Prévoyance 100% / Transport 75% par l'entreprise / PERCO / CET / Hackathons / Contexte international., de solutions optimales, pas uniquement efficaces)Les plus :- Expérience en cybersécurité (SOC, SIEM, EDR)- Expérience sur des plateformes data type Databricks ou Splunk- Connaissances en Machine Learning (notamment AWS SageMaker)

About the company

Notre client est une entreprise spécialisée dans les technologies de tatouage numérique (watermarking), utilisées pour protéger les contenus audiovisuels contre le piratage et la redistribution illégale. Ses solutions s'adressent principalement aux acteurs majeurs de l'industrie

Apply for this position