Data Engineer
getspecialfasteners
Bielefeld, Germany
29 days ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Regular working hours Languages
GermanJob location
Bielefeld, Germany
Tech stack
Microsoft Windows
API
Airflow
Data analysis
Google BigQuery
Cloud Database
Cluster Analysis
Continuous Integration
Data Architecture
Information Engineering
Data Governance
ETL
Data Warehousing
Payment Systems
Identity and Access Management
Python
PostgreSQL
Performance Tuning
SQL Databases
Data Streaming
Feature Engineering
Large Language Models
Snowflake
Change Data Capture
GIT
Data Lineage
Google Cloud Functions
Star Schema
Terraform
Job description
Datenmodellierung & Architektur
- Design des transaktionalen Datenmodells in PostgreSQL für Produkte, Preise, RFQs, Kunden & Bestellungen
- Aufbau des analytischen Modells in BigQuery (Star Schema, Partitioning, Clustering)
- Entwicklung einer event-driven Data Architecture mit Pub/Sub & Change Data Capture
- Entscheidungen zu Normalisierung, Denormalisierung & Performance-Optimierung
Pipelines & Data Engineering
- Aufbau von ETL/ELT-Pipelines zwischen PostgreSQL, BigQuery und Third-Party-Systemen
- Entwicklung von Event-Processing-Pipelines über Pub/Sub
- Integration externer Datenquellen (ERP, CRM, Lieferanten-APIs, E-Commerce, Payment)
- Implementierung von Data Quality Checks, Validation, Monitoring & Error Handling
- Nutzung von dbt für Transformationen und modularen Datenaufbau
Analytics & ML-Enablement
- Aufbau des Data Warehouses und Bereitstellung sauberer Daten für Business & Product
- Strukturierung von Features für Pricing-Models, Forecasting & Recommendation
- Implementierung von Vector Search (pgvector) und Datenbereitstellung für RAG-Systeme
- Unterstützung bei Embeddings, Feature Stores, ML-Pipelines & Real-Time-Serving
Data Governance & Operations
- Implementierung von Data Lineage, ERDs & Dokumentation
- IAM- und Row-Level-Security-Design
- Backup- & Recovery-Strategien
- GDPR-konforme Datenhaltung & Anonymisierung, Du legst mit dem CTO die Grundlage für Automatisierung, Pricing & ML. Alles, was du baust, ist entscheidet für die Skalierbarkeit. Nah am Startup-Ökosystem in Berlin und OWL.
Requirements
- Erfahrung als Data Engineer in produktiven Systemen
- Tiefe Kenntnisse in PostgreSQL, Query-Optimierung, Indizes & Constraints
- Sehr stark in SQL (CTEs, Window Functions, Performance Tuning)
- Erfahrung mit BigQuery (oder Snowflake / Redshift)
- Praxis in ETL/ELT, Batch vs. Streaming, Data Quality, Validation
- Python-Skills für Data Processing & API-Workflows
- Erfahrung mit event-driven Systemen (Pub/Sub, MQ, CDC)
- Verständnis für B2B- oder E-Commerce-Datenmodelle
- Git, CI/CD
- Hohe Eigenständigkeit & Ownership
Nice to have
- GCP-Erfahrung: BigQuery, Cloud SQL, Pub/Sub, Cloud Functions
- dbt
- Airflow / Cloud Composer
- pgvector / Pinecone / Weaviate
- ML Feature Engineering
- Erfahrungen mit RAG-Systemen & LLM-Integration
- Terraform / IaC
- Erfahrung im 0 * 1-Startup-Umfeld