Data Engineer

getspecialfasteners
Bielefeld, Germany
29 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
German

Job location

Bielefeld, Germany

Tech stack

Microsoft Windows
API
Airflow
Data analysis
Google BigQuery
Cloud Database
Cluster Analysis
Continuous Integration
Data Architecture
Information Engineering
Data Governance
ETL
Data Warehousing
Payment Systems
Identity and Access Management
Python
PostgreSQL
Performance Tuning
SQL Databases
Data Streaming
Feature Engineering
Large Language Models
Snowflake
Change Data Capture
GIT
Data Lineage
Google Cloud Functions
Star Schema
Terraform

Job description

Datenmodellierung & Architektur

  • Design des transaktionalen Datenmodells in PostgreSQL für Produkte, Preise, RFQs, Kunden & Bestellungen
  • Aufbau des analytischen Modells in BigQuery (Star Schema, Partitioning, Clustering)
  • Entwicklung einer event-driven Data Architecture mit Pub/Sub & Change Data Capture
  • Entscheidungen zu Normalisierung, Denormalisierung & Performance-Optimierung

Pipelines & Data Engineering

  • Aufbau von ETL/ELT-Pipelines zwischen PostgreSQL, BigQuery und Third-Party-Systemen
  • Entwicklung von Event-Processing-Pipelines über Pub/Sub
  • Integration externer Datenquellen (ERP, CRM, Lieferanten-APIs, E-Commerce, Payment)
  • Implementierung von Data Quality Checks, Validation, Monitoring & Error Handling
  • Nutzung von dbt für Transformationen und modularen Datenaufbau

Analytics & ML-Enablement

  • Aufbau des Data Warehouses und Bereitstellung sauberer Daten für Business & Product
  • Strukturierung von Features für Pricing-Models, Forecasting & Recommendation
  • Implementierung von Vector Search (pgvector) und Datenbereitstellung für RAG-Systeme
  • Unterstützung bei Embeddings, Feature Stores, ML-Pipelines & Real-Time-Serving

Data Governance & Operations

  • Implementierung von Data Lineage, ERDs & Dokumentation
  • IAM- und Row-Level-Security-Design
  • Backup- & Recovery-Strategien
  • GDPR-konforme Datenhaltung & Anonymisierung, Du legst mit dem CTO die Grundlage für Automatisierung, Pricing & ML. Alles, was du baust, ist entscheidet für die Skalierbarkeit. Nah am Startup-Ökosystem in Berlin und OWL.

Requirements

  • Erfahrung als Data Engineer in produktiven Systemen
  • Tiefe Kenntnisse in PostgreSQL, Query-Optimierung, Indizes & Constraints
  • Sehr stark in SQL (CTEs, Window Functions, Performance Tuning)
  • Erfahrung mit BigQuery (oder Snowflake / Redshift)
  • Praxis in ETL/ELT, Batch vs. Streaming, Data Quality, Validation
  • Python-Skills für Data Processing & API-Workflows
  • Erfahrung mit event-driven Systemen (Pub/Sub, MQ, CDC)
  • Verständnis für B2B- oder E-Commerce-Datenmodelle
  • Git, CI/CD
  • Hohe Eigenständigkeit & Ownership

Nice to have

  • GCP-Erfahrung: BigQuery, Cloud SQL, Pub/Sub, Cloud Functions
  • dbt
  • Airflow / Cloud Composer
  • pgvector / Pinecone / Weaviate
  • ML Feature Engineering
  • Erfahrungen mit RAG-Systemen & LLM-Integration
  • Terraform / IaC
  • Erfahrung im 0 * 1-Startup-Umfeld

Apply for this position