Senior Data Engineer - Especialista en Databricks

Inetum
Municipality of Madrid, Spain
4 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
Spanish, English
Experience level
Senior

Job location

Remote
Municipality of Madrid, Spain

Tech stack

Airflow
Amazon Web Services (AWS)
Azure
Big Data
Cloud Computing
Continuous Integration
ETL
Data Warehousing
Python
Machine Learning
DataOps
Scala
SQL Databases
Data Streaming
Parquet
Google Cloud Platform
Azure
Spark
GIT
Data Lake
Kafka
Databricks

Job description

Buscamos un Data Engineer Senior con experiencia sólida en Databricks para diseñar, implementar y optimizar soluciones de datos escalables en entornos cloud. El candidato ideal tendrá un profundo conocimiento en arquitecturas Big Data, procesamiento distribuido, y pipelines ETL, además de habilidades para colaborar con equipos multidisciplinarios en proyectos de analítica avanzada y machine learning., * Diseñar y desarrollar pipelines de datos eficientes y escalables utilizando Databricks, Spark y tecnologías relacionadas.

  • Implementar procesos de ingestión, transformación y almacenamiento de datos en entornos cloud (Azure, AWS o GCP).
  • Optimizar el rendimiento de clusters Spark y gestionar costos en plataformas Databricks.
  • Garantizar la calidad, gobernanza y seguridad de los datos en todas las etapas del ciclo de vida.
  • Colaborar con equipos de Data Science y BI para habilitar modelos predictivos y dashboards.
  • Automatizar procesos mediante CI/CD y herramientas de orquestación (Airflow, Azure Data Factory, etc.).
  • Documentar arquitecturas y flujos de datos, asegurando buenas prácticas y estándares.

Requirements

  • +5 años de experiencia en ingeniería de datos y entornos Big Data.
  • Experiencia demostrable en Databricks y Apache Spark.
  • Conocimiento avanzado en SQL, Python y Scala.
  • Experiencia en cloud computing (Azure, AWS o GCP) y almacenamiento distribuido (Delta Lake, Parquet).
  • Familiaridad con CI/CD, Git, y herramientas de orquestación.
  • Comprensión de arquitecturas orientadas a datos y principios de DataOps.
  • Inglés profesional (oral y escrito).

Deseable:

  • Certificaciones en Databricks o Azure/AWS/GCP.
  • Experiencia en streaming de datos (Kafka, Event Hub).
  • Conocimiento de modelos de machine learning y su integración en pipelines.

Benefits & conditions

Programa de formación por parte de la empresa para que puedas seguir desarrollándote y promocionar dentro del plan de carrera que existe para ti. Contrato indefinido y estabilidad. Retribución flexible y más beneficios Flexibilidad horaria. Modalidad de teletrabajo híbrida. Te ofrecemos un entorno dinámico, en el que tu plan de carrera y crecimiento será nuestro objetivo. Buen ambiente de trabajo, abiertos e inclusivos. ️ Formarás parte de un gran equipo de profesionales con inquietud y motivación por la tecnología.

Apply for this position