DATA ENGINEER JUNIOR
Grupo SIRT
5 days ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Shift work Languages
Spanish Experience level
JuniorJob location
Tech stack
Amazon Web Services (AWS)
Data analysis
Azure
Cloud Computing
Relational Databases
Linux
DevOps
Elasticsearch
Hadoop
Python
Logstash
SQL Databases
Data Streaming
Data Processing
Scripting (Bash/Python/Go/Ruby)
Google Cloud Platform
Spark
GIT
Kibana
Splunk
Software Version Control
Docker
Job description
Participarás en el diseño y mantenimiento de sistemas que permiten la ingesta, procesamiento y visualización de datos en tiempo real. Serás parte de un equipo experto que te acompañará en tu crecimiento profesional y te ayudará a desarrollar tus habilidades técnicas en plataformas de monitorización y análisis de datos., * Apoyar en la implementación y mantenimiento de pipelines de ingesta de datos.
- Colaborar en la administración y optimización de plataformas como Splunk o Elastic Stack.
- Participar en tareas de parseo, normalización y procesamiento de datos desde múltiples fuentes.
- Construir dashboards, visualizaciones y alertas básicas para monitorizar sistemas.
- Trabajar junto a equipos de desarrollo, DevOps y ciberseguridad para asegurar la correcta captura y análisis de datos.
- Documentar procedimientos, configuraciones y flujos de datos con la guía del equipo senior.
Requirements
Modalidad: Remoto, * Plan de formación y desarrollo profesional.
- Seguro de salud.
- Clases de inglés.
- Equipo colaborativo y proyectos innovadores., * 1-3 años de experiencia en roles como Data Engineer, SysAdmin, Analista de Datos o similar.
- Experiencia práctica en al menos una de estas plataformas:
- Splunk: ingesta de datos, creación de consultas SPL y dashboards básicos.
- Elastic Stack (ELK): uso de Elasticsearch, Logstash o Kibana para análisis y visualización.
- Conocimientos básicos de Python para scripting.
- Conocimientos de SQL y bases de datos relacionales.
- Familiaridad con entornos Linux y herramientas de control de versiones (Git).
- Capacidad de trabajo en equipo, curiosidad y motivación por aprender., * Experiencia previa con Hadoop o Apache Spark.
- Conocimientos básicos de algún proveedor Cloud (AWS, GCP o Azure).
- Interés en IA aplicada al análisis de datos.
- Familiaridad con sistemas de orquestación como Airflow.
- nociones de contenedores (Docker).
Benefits & conditions
- Lunes a jueves de 9h a 18h
- Viernes de 9h a 15h