Cloud Big Data Engineer / DevOps Engineer
Qimia Gmbh
Köln, Germany
2 days ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Regular working hours Languages
German, EnglishJob location
Remote
Köln, Germany
Tech stack
Java
JavaScript
API
Artificial Intelligence
Amazon Web Services (AWS)
Azure
Big Data
Bioinformatics
C++
Cloudera Impala
Configuration Management
Information Systems
Continuous Integration
ETL
Relational Databases
Hadoop
Hive
Python
Machine Learning
Microsoft Office
Apache Oozie
Ansible
Scala
SQL Databases
Data Streaming
Unstructured Data
Data Logging
Google Cloud Platform
Cloud Platform System
Spark
Apache Flume
Information Technology
Data Analytics
Kafka
Terraform
Job description
- Entwicklung innovativer Plattformen und Technologien, insbesondere in den Bereichen Data Analytics, Machine Learning und Artificial Intelligence.
- Entwicklung von Empfehlungsmaschinen, Web- und Text-Data Mining unter Verwendung von Natural Language Understanding-Modellen, Anwendung von Algorithmen und Tools zur Netzwerk- und Graphenanalyse, Deep Neural Network Learning.
- End-to-End-Design und -Implementierung von Data Analytics-Systemen; dazu gehören Datenerfassung, Requirements Engineering und Spezifikation sowie das Design von technischen Lösungen auf der Grundlage von Geschäftsanforderungen.
- Entwicklung von ETL-Pipelines für große komplexe Datensätze und Verarbeitung strukturierter und unstrukturierter Daten mit Spark, Hive, Kafka, Flume, Oozie usw.
- Prototyping und Implementierung von massiv skalierten Data Analytics-Lösungen auf der Grundlage von Big Data-Tools (Hadoop, Spark, HIVE / Impala, SQL, H2O, Python und R).
- Arbeiten mit Cloud-Plattformen (Amazon Web Services, Microsoft Azure oder Google Cloud Platform).
- Entwicklung von Event-Streaming-Lösungen in einer Container-basierten Umgebung.
Requirements
- Hochschulabschluss in Informatik, Informationssystemen oder gleichwertiger Abschluss in Informatik, Statistik, Operations Research, Bioinformatik, Mathematik oder Physik.
- Grundlegendes Verständnis von relationalen und nicht-relationalen Datenbanken.
- Erfahrung im Umgang mit AWS- oder Azure-Technologie und praktische Erfahrung in der Programmierung mit AWS- oder Azure-APIs.
- Verständnis der Automatisierung auf AWS oder Azure unter Verwendung von Deployment-Tools und/oder anderen Continuous-Integration/Configuration-Management-Tools (z. B. Ansible und Terraform).
- Lösungsorientierter Ansatz und Implementierung Ihrer Lösung für unsere Kunden.
- Proaktivität, Teamfähigkeit, starke Kommunikationsfähigkeiten, Belastbarkeit, eine selbständige, analytische und konzeptionelle Arbeitsweise zeichnen Sie aus.
- Erfahrung mit einer oder mehreren Mehrzweck-Programmiersprachen, einschließlich, aber nicht beschränkt auf: Java, C / C ++, Python, Scala oder JavaScript.
- Die Fähigkeit, Kunden oder Kollegen komplexe technische Strukturen und Sachverhalte zu erklären.
- Sehr gute Beherrschung der deutschen und englischen Sprache in Wort und Schrift.
- Mobilität und Flexibilität, um beim Kunden vor Ort zu arbeiten, gehören zu unserem Job. Wir geben unser Bestes, um Reisen und Arbeiten bei Ihnen vor Ort oder vom Home Office aus so zu vereinbaren, dass es für Sie gut passt.
Benefits & conditions
- Ein abwechslungsreiches und zukunftssicheres Arbeitsumfeld mit einem hohen Maß an Verantwortung.
- Die Chance, an einem der anspruchsvollsten und wichtigsten Projekte im Bereich Finanzdienstleistungen und IT-Technologien zu arbeiten.
- Ein Arbeitsumfeld, das auf gutem Teamgeist, Flexibilität und Respekt beruht.
- Ein breites Spektrum an Aufgaben und abwechslungsreichen Tätigkeiten.
- Attraktive und individuelle Ausbildungsmöglichkeiten für unsere Mitarbeiter in den Bereichen Data Science, Data Engineering Software Development und Project Management.
- Schnelle Aufstiegsmöglichkeiten in einem jungen und dynamischen Unternehmen.
- Flache Hierarchien und viel Raum für innovative Ideen sowie kreative Möglichkeiten sind Teil unserer Unternehmenskultur.