Cloud Data Architect
Role details
Job location
Tech stack
Job description
DevOps wird durchgehend gelebt: Du entwickelst in einem DevOps Team eigenverantwortlich Cloud- und On-Premise-Datenplattformen und Datenversorgungs-Prozesse.
Übersetzen und Umsetzen von Anforderungen: Basierend auf den fachlichen Anforderungen erstellst du technische Data Engineering Konzepte, setzt diese in Code um und bettest diese integrativ in übergeordnete Architekturen ein. Dein Wissen über Technologieformen mit passender Werkzeugunterstützung (Coding, ETL, Data Prep, Streaming), datenhaltender Systeme (Blob Stores-, SQL-, NoSQL-, Document-, Node-Datenbanken) und modernster Modellierungstechniken setzt du zielgerichtet dazu ein, Kunden bei Proof of Concepts zu unterstützen und Kundenanforderungen in Projekten zu realisieren.
Teamwork als Erfolgsfaktor: Eine projektbezogene Abstimmung und Zusammenarbeit mit Architekten, Fachbereichen und Entscheidern führt zur erfolgreichen Umsetzung von Projekten.
Verantwortung übernehmen: Größere Projekte kannst du als technischer Projektleiter eigenständig durchführen und steuern. Mit deinem weitreichenden Erfahrungsschatz gibst Du die Richtung für Data Engineering-Prozesse vor und leitest unerfahreneren Teammitglieder mit an., * deinen Kunden, um ein professionelles Erwartungsmanagement und deren Zufriedenheit sicherzustellen,
- deinem Projektteam, um den Projekterfolg zu gewährleisten und natürlich
- dem Woodmark Team, um den Wissensaustausch und die gegenseitige Unterstützung zu stärken.
Requirements
Projekterfahrung: Da du bereits mindestens drei Jahre Erfahrung im Data Engineering hast, besitzt du ein exzellentes Datenverständnis und tiefgreifende Kenntnisse in der Transformation von Daten vor allem in der Cloud mit AWS Glue oder Databricks., * ein tiefes Verständnis für unterschiedliche Datenstrukturen (relational, json, xml) und Ableitung geeigneter Verspeicherungsformen in Layer-Modellen (3NF, Data Vault, Star Schema)
- ein weitreichendes Verständnis zu Data Engineering Services und deren integrative Einbindung in andere Services wie Streaming, Machine Learning und Reporting
- weiterführende Kenntnisse in Workflow-Management-Systemen wie Airflow, AWS Data Pipelines, EKS, Lambda, EventBridge oder Step Functions
- Kenntnisse in mehreren unterschiedlichen Datenhaltung-Technologien (SQL-Datenbanken, Data Lakes, Data Lakehouses, Document-Datenbanken, Node-Datenbanken)
- umfassende Kenntnisse in SQL
- Programmierkenntnisse in Python, JAVA oder Scala und Spark-Kenntnissen
Stakeholderorientiertes Denken bringt uns weiter: Du bist darin erfahren mit Stakeholdern auf verschiedenen Ebenen zusammen zu arbeiten.
Support the Making-of-a-Star: Es bereitet dir Freude, andere Woodmarker:innen mit deiner Erfahrung zu unterstützen, denn wir lieben die Vielfalt und du machst den Unterschied.
Fließende Deutsch- und Englischkenntnisse: Mit der deutschen Sprache und der englischen Dokumentation kommst du zurecht und bist dabei, wenn in der Projektarbeit auch mal Englisch gesprochen wird.