Lead Data Engineering Specialist (m/w/d)
Rolle
In dieser Rolle gestaltest Du Data- und AI-Landschaften aktiv mit und machst datengetriebene Wertschöpfung zum festen Bestandteil der Organisation. Du verantwortest die zuverlässige Bereitstellung und Operationalisierung von Daten- und KI-Lösungen, inklusive Automatisierung, Monitoring und Qualitätssicherung. Zudem übernimmst Du eine führende Rolle in technischen Projekten, koordinierst Entwicklerteams und trägst die fachliche Verantwortung für die erzielten Ergebnisse. Durch Dein fachliches Know-how baust Du Data-Engineering-Expertise auf, förderst den Wissenstransfer und prägst nachhaltige Standards im Umgang mit Daten.
Verantwortung
Du konzipierst und implementierst Big-Data-, Analytics- und AI-Plattformen inklusive DevOps-Workflows, IaC, CI/CD, IAM sowie Monitoring und Alerting
In dieser Rolle entwickelst und skalierst Du Daten-Pipelines auf verschiedenen Cloud-Architekturen und stellst dabei Datenqualität sowie passende Datenmodelle sicher
Du operationalisierst statistische und KI-Modelle der Data Scientists, um sie für den produktiven Einsatz bereitzustellen und zu automatisieren
Als Lead Data Engineering Specialist berätst Du Kunden zu geeigneten Technologie-Stacks und bewertest Vor- und Nachteile im Kontext ihrer Use Cases und Unternehmensumgebung
Du übernimmst die fachliche Führung in Engineering-Projekten, steuerst die Kundenkommunikation und verantwortest die Ergebnisse Deines Entwicklerteams
Zuletzt baust Du aktiv Data-Engineering-Expertise im Unternehmen auf, etwa durch interne Schulungen, Initiativen und Deinen Beitrag zur Engineering Community
Qualifikationen
Du hast ein erfolgreich abgeschlossenes Studium der Informatik, Data Engineering, Computer Science oder eines vergleichbaren MINT-Studiengangs bzw. eine ähnliche Qualifikation
Des Weiteren verfügst Du über mindestens 6 Jahre Berufserfahrung als Data Engineer in der Konzeption und Implementierung von Datenplattformen sowie Data-Management-Prozessen
Seit mindestens 5 Jahren arbeitest Du praktisch mit Programmiersprachen wie Python, Scala und SQL sowie mit Entwickler-Tools wie Git
Du hast mindestens 4 Jahre Erfahrung mit Big-Data-Technologien (z.B. Spark, Kafka, verteilte Speichersysteme, OpenTable-Formate, Cluster-Computing) und Cloud-Komponenten in AWS, Azure oder GCP
Praxis mit modernen Data-Analytics-Plattformen (z.B. Databricks, Snowflake, AWS Sagemaker oder Azure Synapse) sowie IaC-Tools wie Terraform oder AWS CDK und gängigen CI/CD-Prozessen bringst Du mit
Benefits