Data Engineer

Instaffo GmbH
Dresden, Germany
7 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
English, German
Compensation
€ 65K

Job location

Dresden, Germany

Tech stack

Java
Artificial Intelligence
Big Data
Cloud Computing
Databases
Data Infrastructure
Dataspaces
Data Warehousing
Elasticsearch
Hadoop
Hive
Python
PostgreSQL
Machine Learning
MongoDB
Open Source Technology
Swagger
Openapi
Data Processing
Data Lake
Kubernetes
Kafka
REST
Docker
Microservices

Job description

  • Full-timeEmployment type: Full-time
  • €40,000 - €65,000 (employer salary)
  • Hybrid
  • Be an early applicant, Bitte beachte, dass für diese Stelle eine Arbeitserlaubnis für Deutschland erforderlich ist. Die Sprachanforderungen für diese Stelle sind: Deutsch - Fließend

Als Data Engineer bei eClever bist Du für die Konzeption, (Weiter-)Entwicklung und Optimierung unserer Dateninfrastruktur sowie der dazugehörigen Datenpipelines und Datenhaltungssysteme verantwortlich. Im agilen Projektumfeld arbeitest Du daran, eClever kontinuierlich zu verbessern, neue Data-Applications zu entwickeln und bestehende Prozesse zu automatisieren. Dafür analysierst Du Anforderungen von internen Stakeholdern - etwa Data Scientists oder Fachbereichen - und setzt diese sowohl konzeptionell als auch softwaretechnisch um. Das geschieht nicht im Alleingang, sondern in cross-funktionalen Teams, in denen Du deine Ideen mit modernen Methoden & Technologien in zukunftsfähige Lösungen verwandelst., * Gemeinsam mit Deinem agilen Team baust Du Data Spaces, Data Warehouses, Data Lakes und Applications auf.

  • Du unterstützt unser Team bei Proof of Concepts und bei der technischen Realisierung von Lösungen beim Kunden.
  • Durch Deine Arbeit trägst Du zur Entstehung zukunftsfähiger Datenökosysteme

Requirements

  • Programmiererfahrung in gängigen Sprachen wie Java, Python oder vergleichbare Programmiersprachen
  • (Open Source)-Tool-Erfahrung im Aufbau automatisierter Datenverarbeitungsprozesse, z.B. Apache Kafka, OpenAPI (RESTful API), Swagger, Apache Hadoop, PostgreSQL, elasticsearch, mongoDB, Hive, Kubernetes, Docker
  • (Zertifizierte) Kenntnisse zu Microservices, Cloud, Big Data-Technologien, KI, Machine Learning oder Datenbanktechnologien sind von Vorteil
  • Sehr gute Deutsch (C1)- und gute Englischkenntnisse (B2) in Wort und Schrift

Apply for this position