Data Architect GCP / Snowflake, hibrido
Role details
Job location
Tech stack
Job description
Definir y liderar la arquitectura de datos en GCP y / o Snowflake.
Diseñar modelos modernos (DWH, Lakehouse, Data Mesh) y pipelines ETL / ELT.
Evaluar tecnologías del ecosistema GCP / Snowflake (BigQuery, Dataflow, Pub / Sub, Composer...).
Garantizar la seguridad, calidad, gobernanza y trazabilidad del dato.
Guiar a Data Engineers, Data Scientists y DevOps asegurando coherencia técnica.
Asesorar en estrategias de modernización del dato y adopción cloud.
Documentar arquitectura y asegurar alineación con estándares corporativos.
Requirements
- 10 años en arquitectura de datos y +4 años en GCP y / o Snowflake.
Dominio de BigQuery, Dataflow, Pub / Sub, Dataproc, Composer.
Experiencia real en Data Lakehouse y Data Mesh.
Alto nivel de SQL, Python y frameworks distribuidos (Spark, Beam).
Experiencia en seguridad, lineage, catálogo y gobierno del dato.
Habilidades de liderazgo, comunicación y capacidad formativa. Deseable
Certificación Google Professional Data Engineer.
Certificación Snowflake (SnowPro Advanced Data Engineer / Architect).
Experiencia en definiciones formativas para equipos de datos
Benefits & conditions
Salario competitivo en función de la experiencia aportada
Contrato indefinido u Opción de Contrato Mercantil
Ambiente de trabajo internacional, positivo, dinámico y motivador.
Modelo de trabajo híbrido con predominancia del teletrabajo.
Horario flexible y jornada intensiva durante el verano.
Formación continua.
Plan de compensación flexible.
Seguro de vida y accidentes.
Más de 25 días laborables de vacaciones al año.