Junior Data Engineer - AWS & Big Data Analytics 98% remote ID02394J

mund consulting AG
Berlin, Germany
1 month ago

Role details

Contract type
Permanent contract
Employment type
Part-time (≤ 32 hours)
Working hours
Regular working hours
Languages
English, German
Experience level
Junior

Job location

Berlin, Germany

Tech stack

API
Amazon Web Services (AWS)
Amazon Web Services (AWS)
Big Data
Cluster Analysis
Continuous Integration
ETL
Python
Scrum
Power BI
Scaled Agile Framework
Software Engineering
SQL Databases
Tableau
Spark
Boto3
GIT
Pandas
Data Lake
PySpark
Amazon Web Services (AWS)
Amazon Web Services (AWS)

Job description

Sie ermöglicht die Verarbeitung, Analyse und Visualisierung von technischen und betriebswirtschaftlichen Fahrzeugdaten und bildet die Grundlage für datenbasierte Entscheidungen in der digitalen Instandhaltung. Der Junior Data Engineer unterstützt das Team bei der Entwicklung und Automatisierung von Datenpipelines, der Exploration neuer Datenquellen und der Erstellung von Dashboards., Entwicklung und Automatisierung von ETL-/Datenpipelines im bestehenden Architekturmodell (raw - trusted - refined)

  • Analyse, Aufbereitung und Bewertung technischer und betriebswirtschaftlicher Daten
  • Entwicklung von Visualisierungen und Reports in Power BI, QuickSight oder Tableau
  • Implementierung serverloser AWS-Komponenten (AWS Batch, S3, Athena, Glue, MWAA)
  • Entwicklung mit Python, SQL, Apache Spark, PySpark, Pandas, Boto3 API, SNS, SQS, REST
  • Automatisierung von Datenprozessen und Erstellung von Skripten für wiederkehrende Abläufe

Requirements

Mind. 1 Jahr Erfahrung in der Softwareentwicklung (z. B. GIT, CI/CD, Testing)

  • Projekterfahrung in der Dashboard-Entwicklung (z. B. Power BI, QuickSight oder Tableau)

  • Mind. 1 Jahr Erfahrung in der Datenmodellierung und ETL-Entwicklung mit Python, SQL oder vergleichbaren Tools

  • Erste Erfahrung mit AWS Cloud-Technologien (z. B. AWS Glue, Athena, S3, Batch)

  • Sehr gute Deutschkenntnisse (C1) und gute Englischkenntnisse (C1) Wünschenswert (Nice-to-have):

  • Kenntnisse in Data Science und Anwendung von Prognose-, Klassifikations- oder Clustering-Algorithmen

  • Erfahrung mit agilen und skalierten Arbeitsmethoden (Scrum, SAFe)

  • Praktische Erfahrung im Umgang mit Docker-Containern

  • Projekterfahrung mit Daten aus der Transport- und Logistikbranche sowie Erfahrung im Umgang mit Data Lakes

Apply for this position