Data und AI/ML Engineer gesucht in Stuttgart

Ewerk Group
Stuttgart, Germany
2 days ago

Role details

Contract type
Temporary contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
English, German

Job location

Remote
Stuttgart, Germany

Tech stack

Microsoft Windows
Agile Methodologies
Artificial Intelligence
Cloud Computing
Databases
Information Engineering
Data Structures
Machine Learning
Microsoft Office
Data Streaming
Management of Software Versions
Spark
Information Technology
Data Lakehouse
Databricks

Job description

  • Flexibilität ist unser Motto - Office, remote, Homeoffice oder Workation in der EU? Entscheide selbst!
  • Familienfreundlich - Wir bieten flexible Arbeitszeiten für die optimale Work-Life-Balance.
  • Gut versorgt am Arbeitsplatz - Bei uns erhältst du selbstverständlich kostenlos Kaffee, Tee, Limonade, frisches Obst und die Möglichkeit, in unserer modernen Cafeteria zu kochen.
  • Nachhaltige Mobilität - Mit dem JOB-Ticket sowie JobRad inkl. Fahrradgarage unterstützen wir umweltfreundliche Mobilität und bieten dir die Möglichkeit, dich aktiv fortzubewegen.
  • Deine Entwicklung im Fokus - Dafür bieten wir dir maßgeschneiderte Entwicklungsmaßnahmen und regelmäßige Mitarbeitergespräche.
  • Technik, die sich nach dir richtet - Wähle dein bevorzugtes Gerät (MacBook oder Windows-Laptop) und erhalte zusätzlich ein Firmenhandy für moderne, mobile Zusammenarbeit.
  • Teamspirit und Spaß - Freue dich auf Team- und Firmenevents, bei denen du deine Kolleginnen und Kollegen besser kennenlernen und gemeinsam Spaß haben kannst.
  • Deine Gesundheit zählt - Ergonomisches Arbeiten mit höhenverstellbaren Schreibtischen, regelmäßige Gesundheitstage, unser hauseigener Fitnessraum, Karenztage und Besuche der Betriebsärztin sorgen für dein gesundheitliches Wohlbefinden.

Requirements

  • Ein abgeschlossenes Studium in Informatik, Machine Learning, Data Science, Ingenieurwesen oder eine durch Berufserfahrung erworbene, vergleichbare Qualifikation.
  • Begriffe wie Data Lakehouse, Batch und Streaming Pipelines, Automatisierung, Orchestrierung, Validierung oder Datenmodellierung kennst Du nicht nur in der Theorie, sondern aus der praktischen Projektarbeit
  • Du hast einschlägige Erfahrung mit Databricks und Apache Spark sowie Erfahrung im Modellieren komplexer Datenstrukturen und im Umgang mit verschiedenen Datenbanktechnologien
  • Du hast praktische Kenntnisse in der Entwicklung und Integration von KI-Modellen, idealerweise in produktiven Systemen und bringst solides Verständnis mit, wie KI-Anwendungen in privaten Cloud-Umgebungen betrieben werden.
  • Themen wie Explainable AI, Agentensysteme, KI im Data Engineering, Digitale Souveränität sowie Data/AI Governance und Compliance wecken Dein Interesse - idealerweise hast Du hier bereits erste Erfahrungen gesammelt.
  • Du behandelst Data- und AI-Workloads wie Softwareprodukte: Versionierung (Code, Daten, Modelle), reproduzierbare Pipelines, Tests und Monitoring gehören für Dich von Anfang an dazu.
  • Du bist in der Lage Dich auch in einem komplexen technologischen Umfeld zurechtzufinden und bist vertraut mit agilen Methoden
  • Sehr gute Deutsch- und Englischkenntnisse zur reibungslosen Kommunikation

About the company

Mit Deinem technischen Know-how begleitest Du den gesamten Entwicklungsprozess: von der Anforderungserhebung über Architektur und Implementierung bis zum produktiven Betrieb. In interdisziplinären Teams mit Kunden, Kolleg:innen und Partner:innen entwickelst Du fachlich fundierte und nachhaltige Lösungswege. Regelmäßige Weiterbildung und der Ausbau der eigenen Fähigkeiten, auch über deine Kerngebiete hinaus, gehören zu Deinem Arbeitsalltag. In Kundenprojekten vertrittst Du die Werte unseres Unternehmens: Partnerschaftliche, transparente Kommunikation auf Augenhöhe, wartbare und sichere Lösungen statt undurchsichtigem Wegwerfcode. Was dich erwartet: Grundsätzlich sind wir in den unten aufgeführten Bereichen aktiv. Je nach Projekt gibt es unterschiedliche Schwerpunkte. Data Engineering, Data Lakehouse & moderne Datenarchitekturen * Du konzipierst und realisierst skalierbare Data-Lakehouse-Lösungen (z. B. auf Databricks, Open-Source), um gemeinsam mit unseren Kunden das Potenzial ihrer Daten zu erschließen. * Du arbeitest eng mit Business- und IT-Stakeholdern zusammen und übersetzt Anforderungen in Datenmodelle, Pipelines und Architekturen. * Du entwickelst Batch- und Streaming-Pipelines und setzt Orchestrierung, Automatisierung, Validierung und Datenmodellierung praxisnah und qualitätsbewusst um. KI-Lösungen entwickeln & integrieren * Du konzipierst, entwickelst und integrierst maßgeschneiderte KI-Anwendungen, um Prozesse zu automatisieren und effizienter zu gestalten. * Du wählst geeignete Ansätze: von klassischem Machine/Deep Learning über Large Language Models (LLMs) und Retrieval-Augmented Generation (RAG) bis hin zu Agentensystemen. * Du integrierst KI-Modelle in bestehende Daten- und Applikationslandschaften und begleitest den Übergang in den produktiven Betrieb. Sichere KI & Datenmanagement in der (Private) Cloud * Du planst und implementierst Datenplattformen und KI-Workloads in privaten und ggf. hybriden Cloud-Umgebungen. * Du berücksichtigst Datenschutz, Compliance und regulatorische Anforderungen von Anfang an. * Themen wie Data/AI Governance, Sicherheit, Monitoring und stabile Betriebsprozesse fließen selbstverständlich in deine Arbeit ein.

Apply for this position