DATA / MACHINE LEARNING ENGINEER / OPS (m/w/d)

bei Purple

Hybrid
IT & Softwareentwicklung
Data Science & Analyse
DevOps
Hardware

Beschäftigungsart:

Gleitzeit
Vollzeit
Schichtarbeit

Fähigkeiten:

Python
Sql
AWS
Mongodb
CI / CD
Docker
Kubernetes
Terraform
Apache License
Apache Http Server
OCaml
Kubeflow
Airflow
TensorFlow
GraphQL
Redshift
Apache Airflow
Apache Flink
Apache Beam
Veröffentlicht am:
Bewerbungsfrist:

DATA / MACHINE LEARNING ENGINEER / OPS (m/w/d)

Deine Aufgaben:

  • Entwerfen, Erstellen und Pflege der ML CI/CD-Pipeline und Workflows, die die Datenerfassung, Datenanalyse, Experimente, Modellschulung, Modellbereitstellung und Überwachung in der Produktion automatisieren
  • Aufbau, Test und Pflege der Infrastruktur und Tools zur Erleichterung der konsistenten und automatisierten Entwicklung und Freigabe von KI-Softwarelösungen
  • Automatisierung von Modellschulungs- und Freigabe-Workflows und Aufbau von Diensten rund um ML-Inferenz und Modellbereitstellung für die Laufzeitverarbeitung
  • Datenmodellierung zur Unterstützung des Trainings von Machine-Learning-Modellen
  • Enge Zusammenarbeit mit Dateningenieuren und Produktentwicklern, um das Modelltraining zu skalieren
  • Erstellen von Pipelines zur kontinuierlichen Verbesserung der in der Produktion eingesetzten Modelle, was dabei hilft, neue Datenquellen und Modellfunktionen zu erkunden
  • Implementierung von Maßnahmen zur Verbesserung der Zuverlässigkeit und Leistung der ML-Infrastruktur
  • Aktive Suche nach Möglichkeiten zur Verbesserung der ML-Pipeline-Entwicklung und des Betriebsprozesses
  • Arbeiten in einem agilen, internationalen Umfeld

Dein Profil:

  • B.Sc., M.Sc. oder Ph.D. in Informatik oder einem verwandten Gebiet
  • Mehr als 3 Jahre Erfahrung als Machine Learning Engineer, Data Engineer oder in einer ähnlichen Funktion mit starkem ML-Hintergrund
  • Erfahrung in der Erstellung, Bereitstellung und Wartung von ML-Modellen in der Produktion
  • Erfahrung mit ML-Frameworks, Python-Tools für Data Science und MLOps-Tools wie TensorFlow, Apache Airflow, MLFlow und Kubeflow
  • Solide Kenntnisse in der Programmierung mit Python
  • Erfahrung mit cloudbasierten Datenpipelines, die für Anwendungen des maschinellen Lernens optimiert sind, AWS und/oder GCP ist ein Plus
  • Beherrschung von Docker, Kubernetes und Infrastructure as Code (z. B. Terraform)
  • Ausgezeichnete Kommunikations- und Teamworkfähigkeiten
  • Vertraut mit Workflow-Management-Plattformen wie Airflow
  • Vertraut mit Best Practices in der Data Engineering- und MLOps-Community
  • Du hast Spaß an der Arbeit in einem agilen Team, bringst Dich gern ein, denkst „out of the box" und hast Lust, Dich mit neuen Themen auseinanderzusetzen
  • Gute Deutsch- und / oder Englischkenntnisse runden Dein Profil ab

Was wir bieten:

  • Ein aufgewecktes und motiviertes Team mit flachen Hierarchien
  • Home Office ist für uns eine Selbstverständlichkeit, auch vor Corona
  • Flexible Arbeitszeiten und unkomplizierte Familienvereinbarkeit
  • E-Bike Leasing mit Zuschuss
  • Individuelle Weiterbildungsmaßnahmen
  • Darüber hinaus erwarten Dich in unserem Büro überdurchschnittlich guter Kaffee, leckeres Obst, kühle Softdrinks, ein Kickertisch, ein Spieleautomat, eine Popcornmaschine sowie regelmäßige Team Events
  • Last but not least -- und wir hoffen, das siehst Du auch so: Interesse an einer langfristigen Zusammenarbeit