GU

Gulp

Senior Data Engineer (f,m,d) ICP rollout

Eckdaten

Frankfurt Am Main
Data Engineering

Arbeitsmodell

Remote first
Nur Deutschland
vor 1 Woche
Stellenbeschreibung

Description

Wir suchen für unseren Kunden aus dem Bereich Schienenverkehr einen erfahrenen Senior Data Engineer (w,m,d) ICP - Rollout am Standort Frankfurt am Main.

Worum geht es?

Das Verfahren Integrated Contract Performance (ICP) bildet den konzeptionellen und technischen Rahmen für eine einheitliche, datenbasierte Steuerung von Verkehrsverträgen in zentralen und regionalen Einheiten. Es werden fachliche und technische Steuerungs- sowie Abrechnungsprozesse in einem durchgängigen digitalen Workflow zusammengeführt. Dabei werden Betriebs-, Leistungs- und Abrechnungsdaten von der Planung bis zur Abrechnung integriert, um ein transparentes Vertragsmanagement über den gesamten Lebenszyklus bereitzustellen.

Ziel dieses Projektes: Ist der Rollout des Verfahrens auf ein spezifisches S-Bahn-Netz.

Projektdetails:

  • Einsatzzeitraum: 11.05.2026 - 31.12.2026
  • Auslastung: 50 PT (komplett remote machbar)

Skills:

Must-Have:

  • Sehr gute Kenntnisse mit Cloud-basierten relationalen Datenbanken
  • Fundierte Erfahrung in Konzeption, Modellierung und Betrieb relationaler Datenbanken (ER-Modellierung, Normalisierung, Performance-Tuning)
  • Tiefgehende Kenntnisse in Oracle - z. B. SQL/PL/SQL, Partitionierung, Indizierungs- und Optimierungsstrategien, Backup/Recovery
  • Oracle APEX - Fundierte Erfahrung in der Entwicklung und dem Betrieb von APEX-Anwendungen (inkl. Authentifizierung/Autorisierung, Performance, Deployment)
  • Python für Daten- und Integrationslösungen - Sehr gute Kenntnisse in Python (3.x) für Daten-Pipelines und Integrationsaufgaben (z. B. Modulstruktur, Tests, Packaging)
  • Technische Dokumentation und Architektur - Erstellung und Pflege technischer Dokumentation gemäß C4-Modell (mind. C1-C3) inkl. ADRs (Architecture Decision Records)
  • Technische Dokumentation und Architektur - Strukturierte Ablage, Reviews und Nachverfolgbarkeit der Artefakte in Confluence

Weitere Anforderungen:

  • Fundierte Erfahrung mit CI/CD Prozessen für Build, Test, Qualitätssicherung und Deployment - Gewichtung: 25%
  • Starburst/Trino - Fundierte Erfahrung mit Starburst/Trino im Kontext Data Lakehouse (z. B. Anbindung an S3, Katalog/Metastore, Query-Optimierung, Sicherheitskonzepte) - Gewichtung: 25%
  • dbt (Data Build Tool) - Sehr gute Kenntnisse in dbt Core oder dbt Cloud (Modelle, Tests, Dokumentation, Snapshots, Environments) - Gewichtung: 25%
  • Domänenkenntnis - Nachweisbare Erfahrung in Bahn-spezifischen Domänen (Fahrplan, Regelzugbildung o. ä.), z. B. durch Projekte, Prototypen oder Prozessexzellenz - Gewichtung: 25%