Architecte Data H/F

La Collective
26 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French, English
Experience level
Senior

Job location

Remote

Tech stack

Amazon Web Services (AWS)
Azure
Cloud Computing
Continuous Integration
Data Governance
Python
DataOps
SQL Databases
Google Cloud Platform
Snowflake
Spark
GIT
Data Lake
PySpark
Machine Learning Operations
Terraform
Databricks

Job description

Notre client dans le secteur de l'industrie recherche un Architecte Data expérimenté pour intervenir dans un environnement international.

La mission consiste à concevoir, structurer et optimiser une plateforme Data moderne reposant principalement sur Databricks, avec une utilisation complémentaire de Snowflake pour certains cas d'usage spécifiques.

Le consultant interviendra au sein d'équipes distribuées, en lien avec les Data Engineers, Data Scientists et Product Owners.

Contexte : Définir et mettre en œuvre l'architecture data cible (modèle Lakehouse / Data Platform).

Garantir la scalabilité, la performance, la sécurité et la gouvernance de la plateforme.

Accompagner les équipes dans l'adoption des outils Databricks et des bonnes pratiques DataOps.

Intégrer et optimiser les interactions entre Databricks et Snowflake.

Participer aux échanges techniques et aux ateliers internationaux (en anglais).

Missions : Concevoir et documenter l'architecture data globale autour de Databricks (Delta Lake, Unity Catalog, MLflow…).

Définir les modèles de données, pipelines et stratégies d'intégration (batch & streaming).

Superviser les bonnes pratiques de développement, d'automatisation et de CI/CD.

Collaborer avec les équipes Cloud (Azure / AWS / GCP selon contexte).

Assurer la communication technique en anglais avec les équipes globales.

Produire les livrables d'architecture, de documentation et de transfert de compétences.

Requirements

Databricks : excellente maîtrise (Spark, PySpark, Delta Lake, notebooks, Unity Catalog, orchestration).

Snowflake : bonne connaissance de la modélisation, du chargement et de la gestion des coûts.

Cloud : expertise sur un des principaux fournisseurs (Azure, AWS ou GCP).

Langages : Python, SQL, Spark.

DataOps / CI-CD : Git, Azure DevOps, Terraform ou équivalents.

Architecture : principes de Data Lakehouse, Data Governance, sécurité, performance et scalabilité.

Anglais : professionnel obligatoire (réunions, documentation, échanges internationaux).

Soft skills : Leadership technique et vision globale de l'écosystème data.

Excellentes capacités de communication (en anglais et français).

Autonomie, rigueur et esprit de collaboration dans un environnement agile et international

Compétences / Qualités indispensables : Anglais

Benefits & conditions

Snowflake

Informations concernant le télétravail : 2J/semaine en télétravail - 3 jours sur site à Bordeaux idéalement

About the company

Notre client dans le secteur Santé et pharma recherche un/une Architecte Data H/F

Apply for this position