Data Engineer

LinkiT
Amstelveen, Netherlands
2 days ago

Role details

Contract type
Contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
Dutch, English
Experience level
Intermediate

Job location

Amstelveen, Netherlands

Tech stack

Data analysis
Databases
Continuous Delivery
Continuous Integration
Data Structures
Hadoop
HBase
Machine Learning
NoSQL
Scala
Software Engineering
SQL Databases
Data Streaming
Unstructured Data
Parquet
Data Processing
Spark
Data Lake
Kubernetes
Information Technology
Kafka
Spark Streaming
Docker

Job description

Als Data Engineer bouw je data pipelines, industrialiseer je machine learning- en operations research-modellen en vervang je legacy datawarehousing-systemen door state-of-the-art data lake oplossingen. Dit doe je als onderdeel van onze centrale Data, OR en AI-afdeling, waar je werkt voor de Finance-business als onderdeel van een productteam.

Finance zal de door jou ontworpen, schaalbare en toekomstbestendige oplossingen gebruiken, waarbij zowel gestructureerde als ongestructureerde data wordt ingezet. Zodra de oplossing gebouwd is, zorg jij ervoor dat deze operationeel blijft en goed blijft functioneren! Dit alles gebeurt uiteraard in een agile omgeving.

Requirements

We zijn op zoek naar een passievolle en getalenteerde Data Engineer. Bij alles wat je doet, houd je het einddoel in gedachten. Je kunt analyses uitvoeren, het kernprobleem snel ontdekken en de beste oplossing bieden. Daarnaast ben je in staat om deze kwesties op een begrijpelijke en duidelijke manier uit te leggen aan stakeholders op elk niveau van de organisatie.

Je coacht je junior teamleden op technisch vlak, zoekt kansen, zet deze om in acties en overtuigt de beslissers.

  • Bij voorkeur een Bachelor- of Masterdiploma in Computer Science, Software Engineering of een ander relevant vakgebied (minder belangrijk als je relevante werkervaring hebt)
  • Minimaal 4 jaar ervaring met het bouwen van productieklare data processing systemen als Data Engineer
  • Diepgaande kennis van:
  • Het Hadoop-ecosysteem (we migreren naar GCP)
  • Applicaties bouwen met Apache Spark
  • Kolomgebaseerde opslagoplossingen zoals Parquet en Apache HBase, inclusief kennis van datamodellering voor kolomopslag
  • Ervaring met key-value databases zoals HBase, NoSQL databases
  • Ervaring met Event Streaming Platforms zoals Apache Kafka of Spark Streaming
  • Ontwikkeling op een cloudplatform, bij voorkeur GCP
  • Minimaal 3 jaar ervaring met Scala

  • Begrip van algoritmen en datastructuren

  • Ervaring met databases en SQL

  • Kennis van continuous integration/continuous deployment (CI/CD)

  • Affiniteit met Machine Learning en/of Operations Research

  • Ervaring met gedistribueerde databases en computing

  • Kennis van Kubernetes of Docker (pré)

  • De wens om nieuwe technologieën/vaardigheden te leren

  • Een proactieve houding

  • Het vermogen om kennis over te dragen aan junior engineers

  • Interesse in het aviation-domein

  • Goede Engelse communicatievaardigheden

  • Een goede teamspeler

Apply for this position