DATA ENGINEER JUNIOR

Grupo SIRT
5 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Shift work
Languages
Spanish
Experience level
Junior

Job location

Tech stack

Amazon Web Services (AWS)
Data analysis
Azure
Cloud Computing
Relational Databases
Linux
DevOps
Elasticsearch
Hadoop
Python
Logstash
SQL Databases
Data Streaming
Data Processing
Scripting (Bash/Python/Go/Ruby)
Google Cloud Platform
Spark
GIT
Kibana
Splunk
Software Version Control
Docker

Job description

Participarás en el diseño y mantenimiento de sistemas que permiten la ingesta, procesamiento y visualización de datos en tiempo real. Serás parte de un equipo experto que te acompañará en tu crecimiento profesional y te ayudará a desarrollar tus habilidades técnicas en plataformas de monitorización y análisis de datos., * Apoyar en la implementación y mantenimiento de pipelines de ingesta de datos.

  • Colaborar en la administración y optimización de plataformas como Splunk o Elastic Stack.
  • Participar en tareas de parseo, normalización y procesamiento de datos desde múltiples fuentes.
  • Construir dashboards, visualizaciones y alertas básicas para monitorizar sistemas.
  • Trabajar junto a equipos de desarrollo, DevOps y ciberseguridad para asegurar la correcta captura y análisis de datos.
  • Documentar procedimientos, configuraciones y flujos de datos con la guía del equipo senior.

Requirements

Modalidad: Remoto, * Plan de formación y desarrollo profesional.

  • Seguro de salud.
  • Clases de inglés.
  • Equipo colaborativo y proyectos innovadores., * 1-3 años de experiencia en roles como Data Engineer, SysAdmin, Analista de Datos o similar.
  • Experiencia práctica en al menos una de estas plataformas:
  • Splunk: ingesta de datos, creación de consultas SPL y dashboards básicos.
  • Elastic Stack (ELK): uso de Elasticsearch, Logstash o Kibana para análisis y visualización.
  • Conocimientos básicos de Python para scripting.
  • Conocimientos de SQL y bases de datos relacionales.
  • Familiaridad con entornos Linux y herramientas de control de versiones (Git).
  • Capacidad de trabajo en equipo, curiosidad y motivación por aprender., * Experiencia previa con Hadoop o Apache Spark.
  • Conocimientos básicos de algún proveedor Cloud (AWS, GCP o Azure).
  • Interés en IA aplicada al análisis de datos.
  • Familiaridad con sistemas de orquestación como Airflow.
  • nociones de contenedores (Docker).

Benefits & conditions

  • Lunes a jueves de 9h a 18h
  • Viernes de 9h a 15h

Apply for this position