Leitende Datenplattform Entwicklungsperson (m/w/d)
Rolle
In dieser Rolle gestaltest und implementierst du moderne, skalierbare ETL/ELT-Pipelines über unterschiedliche Enterprise- und operative Systeme hinweg und schaffst damit die Basis für belastbare Analysen bis hin zu zukünftigen KI-Initiativen. Du verantwortest Datenqualität, Konsistenz und Zuverlässigkeit durch automatisierte Validierung, Monitoring und klar definierte Standards für Strukturen, Benennungen und Definitionen. Du entwickelst eine einheitliche Datenarchitektur sowie strukturierte, gut dokumentierte Datenlayer und setzt sowohl Batch- als auch Streaming-Datenflüsse für Echtzeit-Entscheidungsunterstützung um. Du erarbeitest Monitoring-Dashboards und KPIs in enger Abstimmung mit fachlichen und technischen Stakeholdern und bringst Data-Governance-, Dokumentations- und Security-Best-Practices konsequent ein. Du arbeitest dabei eng mit Data Science, Software Engineering und Business zusammen und nutzt dafür moderne Tools und Plattformen wie Python, SQL, Spark, Airflow, dbt, Kafka/Flink sowie Cloud- und On-Prem-Architekturen.
Verantwortung
- Du entwirfst und implementierst moderne, skalierbare ETL/ELT-Pipelines ueber verschiedene Enterprise- und operative Systeme hinweg.
- In dieser Rolle sicherst Du Datenqualitaet, Konsistenz und Zuverlaessigkeit durch automatisierte Validierung und Monitoring.
- als Leitende Datenplattform Entwicklungsperson harmonisierst Du Datenstrukturen, Benennungen und Definitionen ueber Plattformen hinweg und schaffst damit eine einheitliche Basis.
- Du baust eine zusammenhaengende Datenarchitektur auf, die aussagekraeftige Analysen und Reporting unterstuetzt und fuer kuenftige KI-Initiativen vorbereitet.
- In dieser Rolle entwickelst Du Monitoring-Dashboards und KPIs gemeinsam mit Fachbereichen und technischen Teams fuer transparente Steuerung.
- Du setzt Streaming- und Batch-Datenfluesse um, bereitest strukturierte, gut dokumentierte Datenlayer vor und arbeitest eng mit Data Scientists, Engineers und Stakeholdern zusammen.
Qualifikationen
- Du hast einen Bachelor oder Master in Informatik, Data Engineering oder einem verwandten technischen Fachgebiet.
- Mehr als 5 Jahre praktische Erfahrung im Data Engineering, idealerweise in komplexen Enterprise oder Industrie-Umfeldern, zeichnen Dich aus.
- Mit Python, SQL sowie Tools wie Spark, Airflow, dbt oder vergleichbaren modernen Data-Engineering-Technologien arbeitest Du sicher.
- Echtzeit-Datenpipelines mit Kafka, Flink oder ähnlichen Technologien sind Dir vertraut, ebenso der Bezug zu AI-Initiativen.
- Cloud-Plattformen wie AWS, Azure oder GCP sowie On-Premise-Architekturen nutzt Du routiniert, je nach Use Case.
- Kommunikationsstärke und Teamfähigkeit bringst Du mit, um in cross-funktionalen, internationalen Teams wirksam zusammenzuarbeiten.
Benefits