Data Engineer (GCP / DataOps)

Kyndryl
Municipality of Madrid, Spain
3 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
Spanish

Job location

Municipality of Madrid, Spain

Tech stack

Airflow
Business Logic
Azure
Google BigQuery
Cloud Storage
Cluster Analysis
Continuous Integration
DevOps
DataOps
Software Engineering
SQL Databases
YAML
Google Cloud Platform
GIT
Looker Analytics
Software Version Control

Job description

  • Gestión de despliegue de Aplicaciones: configurar el ciclo de vida del dato desde el desarrollo hasta la producción utilizando las ramas de Git en Azure DevOps para desplegar automáticamente en GCP.
  • Desarrollo de Pipelines con Airflow: programar y supervisar flujos de trabajo en Cloud Composer , asegurando que las dependencias entre tareas sean eficientes y manejando reintentos (retries) de forma inteligente.
  • Modelado de Datos con dbt: escribir y mantener la lógica de negocio en SQL dentro de dbt , ejecutando estas transformaciones directamente sobre BigQuery para maximizar el rendimiento.
  • Implementación de Ingestas Serverless: crear funciones en Cloud Functions para reaccionar a la llegada de archivos en Cloud Storage o peticiones HTTP, y orquestar contenedores en Cloud Run para procesos que requieran más recursos.
  • Monitoreo y Observabilidad en Looker: diseñar informes técnicos en Looker que actúen como "Torre de Control", permitiendo al equipo de operaciones ver de un vistazo si algún pipeline ha fallado o si los datos están llegando con retraso.
  • Optimización de Costes y Rendimiento: analizar el historial de jobs en BigQuery para identificar consultas costosas y proponer mejoras en la estructura de las tablas o en el código de dbt.

Requirements

Buscamos un Data Engineer con especialización en el ecosistema de Google Cloud Platform (GCP). Este rol no solo construirá pipeline de datos, sino que garantiza su operatividad, calidad y despliegue continuo mediante prácticas de ingeniería de software aplicadas a datos.

Para este puesto se requiere un profesional con una mentalidad híbrida entre la ingeniería de datos tradicional y la cultura DevOps:

  • Experiencia Técnica:
  • Orquestación: experto en Apache Airflow , con capacidad para diseñar DAGs complejos, manejar operadores personalizados y gestionar la infraestructura mediante Cloud Composer .
  • Transformación y Modelado: dominio de dbt (data build tool) para la capa de transformación, aplicando pruebas de calidad de datos y control de versiones.
  • Procesamiento Serverless: capacidad para implementar microservicios de datos usando Cloud Run (contenedores) y Cloud Functions (event-driven) para ingestas ligeras o triggers.
  • Almacenamiento: experiencia trabajando con BigQuery , incluyendo optimización de consultas, particionamiento, clustering y gestión de costes.
  • Enfoque DataOps & CI/CD:
  • Azure DevOps: Experiencia configurando Pipelines (YAML) para la automatización del despliegue de código dbt, DAGs de Airflow y recursos de infraestructura (IaC).
  • Observabilidad: Capacidad para crear dashboards de monitoreo en Looker que visualicen el estado de los jobs, latencias de datos y cumplimiento de SLAs.

About the company

We have the world’s best talent that design, run, and manage the most advanced and reliable technology infrastructure each day. Together, we think holistically about the health of these vital technology ecosystems.

We will be a focused, independent company that builds on our foundation of excellence by creating systems in new ways. Bringing in the right partners, investing in our business, and working side-by-side with our customers to unlock potential. We're raising the bar.

Apply for this position