Data Engineer

Remote
Gleitzeit, Vollzeit
vor 3 Wochen
Berlin
Stellenbeschreibung

Deine Rolle

Als Data Engineer entwickelst und optimierst du Datenpipelines für industrielle Telemetriedaten im großen Maßstab. Du arbeitest mit PySpark und Databricks, verwandelst komplexe Datenprobleme in robuste, skalierbare Lösungen und trägst maßgeblich dazu bei, dass unsere Plattformen auch bei hohen Datenvolumina zuverlässig performen.

Art der Stelle: Vollzeit, Festanstellung

Gehalt: 70.000,00€ - 86.000,00€ pro Jahr

Deine Aufgaben

  • Analyse und Verarbeitung großer Mengen industrieller Telemetriedaten mit PySpark und Databricks
  • Entwicklung und Optimierung skalierbarer Datenpipelines für produktive Umgebungen
  • Sicherstellung von Datenqualität, Performance und Zuverlässigkeit über den gesamten Datenlebenszyklus
  • Eigenverantwortliches Arbeiten in einem modernen, remote-first Umfeld
  • Enge Zusammenarbeit mit einem kleinen, hochspezialisierten Team aus erfahrenen Kolleg*innen

Dein Profil

Voraussetzungen:

  • Fundierte Praxiserfahrung mit PySpark und Databricks in produktiven Umgebungen
  • Erfahrung im Aufbau und Betrieb skalierbarer Datenpipelines für große Datenvolumina
  • Gutes Verständnis für Telemetrie- und Zeitreihendaten sowie deren spezifische Herausforderungen
  • Die Fähigkeit, komplexe Datenprobleme in pragmatische, nachhaltige Lösungen zu überführen
  • Strukturierte, eigenverantwortliche Arbeitsweise

Von Vorteil:

  • Erfahrung mit industriellen Datenquellen und IoT-Datenlandschaften
  • Kenntnisse in Azure (Data Lake, Event Hubs, Databricks auf Azure)
  • Vertrautheit mit Delta Lake, Spark Structured Streaming oder vergleichbaren Technologien
  • Erfahrung mit CI/CD-Prozessen für Datenpipelines

Tech Stack (Auszug)

PySpark · Databricks · Python · Azure · Delta Lake · Azure Data Lake Storage

Was wir bieten

  • Technisch anspruchsvolle Projekte mit industriellen Telemetriedaten und großen Datenvolumina
  • Ein hochspezialisiertes Team mit flachen Hierarchien und kurzen Entscheidungswegen
  • Echter Gestaltungsspielraum in einer wachsenden, modernen Datenplattform
  • Pragmatische Engineering-Kultur mit Fokus auf Qualität und Eigenverantwortung
  • 100 % Remote mit voller Flexibilität
  • Mentoring und Wissensaustausch im Team
  • Vollständige Remite

Leistungen:

  • Betriebliche Weiterbildung
  • Firmenevents
  • Firmenhandy
  • Flexible Arbeitszeiten
  • Homeoffice-Möglichkeit
  • Mentoring-Programm für Mitarbeiter

Wenn du dich bewirbst, beantworte bitte folgende Fragen:

  • Für diesen Job brauchst du gute Deutsch- und Englischkenntnisse, weil du in beiden Sprachen kommunizieren und auch komplizierte Themen klar und deutlich erklären können musst. Erzähl uns bitte, wie gut du Deutsch und Englisch beherrschst und auf welchem Level du dich selbst einschätzt (z.B. Muttersprache/C2, verhandlungssicher/C1, fließend/B2).
  • Was sind deine Lieblings Developer Tools? Was ist dein Favorite-LLM? Und warum?
  • Hast du schon mal mit Spark gearbeitet oder Big-Data Projekte auf die Beine gestellt? Beschreib einfach ein oder mehrere Projekte, an denen du beteiligt warst und was du dort gemacht hast.
  • Was ist das Kreativste/Coolste was du bisher gebaut hast? Schicke uns hier gern links zu deinem Github/Projekte/Blogs/Webseiten/Videos.