?Azure Databricks Data Engineer
Role details
Job location
Tech stack
Job description
Una compañía muy techie que nos ha llevado a ser el brazo fuerte de IBM en Data, Cloud, ML & IA y donde, para empresas clave de diversos sectores, ayudamos a acelerar y optimizar estrategias en plataformas de datos y en la nube, sacando al máximo las ventajas de su arquitectura y entornos de desarrollo.
Dentro de nuestra línea estratégica de Cloud Native estamos buscando apasionados/as del Cloud Azure (somos Databricks & Gold Microsoft Partner) para participar en proyectos a nivel nacional e internacional donde podrás ponerte a prueba al máximo., ? Desarrollar y optimizar pipelines de datos en Scala, Python o PySpark desarrollando y ejecutando procesos en Spark, o sobre Databricks, garantizando rendimiento, calidad y escalabilidad.
? Diseñar y construir arquitecturas Data Lake y Data Warehouse en entornos Cloud (Azure mayormente o sino en entornos AWS o GCP).
? Transformar datos a gran escala mediante Spark, aplicando buenas prácticas de procesamiento distribuido.
? Optimizar queries y almacenamiento en Databricks, asegurando eficiencia en el consumo de datos y reducción de costos.
? Integrar múltiples fuentes de datos, asegurando su calidad, consistencia y trazabilidad.
? Colaborar con equipos multidisciplinares, impulsando la mejora continua en procesos de ingesta, transformación y explotación de datos.
Requirements
En Bluetab, an IBM Company, llevamos la ingeniería de datos al siguiente nivel. Buscamos un Data Engineer con al menos 4-5 años de experiencia consolidada, que domine Scala, Python o PySpark, desarollando y ejecutando procesos Spark, o sobre Databricks en entornos Cloud. Si te apasiona el mundo del Big Data, disfrutas enfrentándote a retos complejos y te encanta optimizar pipelines de datos a gran escala, esta es tu oportunidad para unirte a un equipo donde la innovación, la escalabilidad y la eficiencia son nuestra hoja de ruta., ️ Sólida experiencia en desarrollo con Scala o Python o PySpark sobre Spark para procesamiento distribuido.
️ Experiencia con Databricks y conocimiento en arquitecturas Data Lakehouse.
️ Conocimiento en SQL avanzado, optimización de queries y modelos de datos escalables.
️ Experiencia en despliegues y automatización con herramientas como Terraform, Airflow o similares.
️ Familiaridad con entornos Cloud.
️ Mentalidad analítica y enfoque en la eficiencia, optimización y escalabilidad de procesos de datos.
️ Actitud colaborativa y pasión por la innovación, trabajando en equipo para resolver desafíos complejos., ️ Experiencia en Apache Iceberg o Apache Flink.
️ Inglés - nivel B2.
Benefits & conditions
- Contrato indefinido y un salario acorde al rol y de mercado competitivo (El salario se relaciona en función de las competencias y conocimientos técnicos detectados en el proceso y rol asignado para el puesto con ese stack tecnológico, procurando respetar el sentido de equidad con la plantilla y siendo susceptible de mejora tras las evaluaciones continuas de desempeño).
- La pregunta estrella. ¿Teletrabajo? Sí, Teletrabajo flexible. A tu entera disposición tendrás también la sede de Madrid y/o los Hubs de Alicante, Barcelona, Bilbao y Málaga según ubicación (y con muy buenas conexiones) como centros de pertenencia.
- Horarios flexibles de entrada/salida, adaptado a tus necesidades personales y jornada intensiva los viernes y los meses de verano, julio y agosto.
- 23 días de vacaciones
- Tarjeta restaurant como beneficio social más allá del salario.
- Seguro médico & póliza dental con una amplia cobertura también como beneficio social más allá del salario.
- Disponibilidad además de plan de retribución flexible: Transporte + Guardería.
- Formación continua gamificada a través del plan rewards, con más de 1800 cursos y certificaciones oficiales.
- Además, tendrás a tu alcance el programa Career Coach para acompañarte en todo lo relativo a tu desarrollo y crecimiento dentro de Bluetab, con un sistema objetivo de evaluación continua. ¡Tú serás el dueño de tu crecimiento!
- Tarjeta Regalo Pass de 50€ en el mes de tu cumpleaños.