- Startseite
- Homeoffice Jobs
- AI Developer with Python for Customer Care AI Platform team (f/m/d)
Über das Team:
Unsere Mission ist es, ein modernes Ökosystem für alle Kundensupport-Anforderungen von IONOS zu schaffen. Die von uns entwickelten Tools werden an über 20 Standorten von mehr als 2.000 Benutzern eingesetzt und unterstützen 8 Millionen Kundenverträge in 10 Märkten.
Das Entwicklungsteam hat die volle Verantwortung für den Entwicklungszyklus. Das bedeutet, wir planen, entwickeln, testen und stellen unsere Software ohne externe Abhängigkeiten bereit.
Unser Portfolio konzentriert sich auf ein intern entwickeltes CRM, das nun um KI-Funktionen erweitert wird.
Über das Produkt, das Sie entwickeln werden:
Wir entwickeln eine KI-Plattform der nächsten Generation, die die Art und Weise, wie unser Unternehmen mit Kunden interagiert, neu definieren soll. Dies ist nicht nur ein Chatbot, sondern ein leistungsstarkes, multimodales KI-Ökosystem, das auf modernsten Speech-to-Speech (S2S)-Modellen, fortschrittlichen Large Language Models (LLMs) und intelligenten Orchestrierungs-Frameworks basiert. Unsere Plattform wird verstehen, schlussfolgern und über Text und Sprache antworten – und gleichzeitig nahtlos Aktionen in Echtzeit ausführen, um Kundenbedürfnisse zu erfüllen.
Wir streben eine hybride Architektur aus Open-Source-LLMs, branchenführenden proprietären Modellen und dem Model Context Protocol (MCP) an, um kontextbezogenes Schlussfolgern, Tool-Aufrufe und nahtlose Orchestrierung über Systeme hinweg zu ermöglichen. Das Ziel ist nicht nur, mit dem Kunden zu sprechen, sondern auch auf seine Bedürfnisse einzugehen.
Was dieses Projekt einzigartig macht:
The Voice Frontier: Wir entwickeln latenzarme, emotionale Speech-to-Speech-Pipelines für ein wirklich natürliches Sprachkanal-Erlebnis.
Tiefe Systemintegration: Unsere Plattform verbindet sich über MCPs direkt mit den Kernsystemen des Unternehmens, wodurch die KI auf Echtzeit-Kundenkontext zugreifen und komplexe Arbeitsabläufe ausführen kann.
Sich selbst entwickelnde Logik: Wir entwickeln ein automatisiertes QA- und Auswertungsmodul, das Interaktionen über Kanäle hinweg kontinuierlich analysiert. Durch programmatisches Messen von Qualität, Genauigkeit, Latenz und Lösungsergebnissen können wir den Feedback-Kreislauf schließen und das Systemverhalten in Stunden statt Wochen anpassen.
Hybride Innovation: Sie arbeiten an der Schnittstelle von "Bauen vs. Kaufen" und integrieren das Beste aus der Open-Source-Community mit kundenspezifischer interner Infrastruktur.
Was Sie davon haben:
Sie werden nicht nur Code ausliefern, sondern auch daran mitwirken, dieses Konzept weiterzuentwickeln und zu verändern. Sie treten einem freundlichen, erfahrenen Team bei, in dem Ihre Stimme zählt und Ihr Beitrag reale Ergebnisse gestaltet. Sie arbeiten in einer modernen Umgebung mit Technologien und Praktiken, die uns helfen, zuverlässige Software effizient auszuliefern.
Rollenbeschreibung:
Als AI Engineer in diesem Team bauen Sie die zentralen Intelligenzsysteme hinter unserer multimodalen KI-Plattform. Sie sind dafür verantwortlich, über einfache Chat-Schnittstellen hinauszugehen und leistungsstarke Echtzeitsysteme zu entwickeln, die komplexe Schlussfolgerungen, tiefen Kontextabruf, LLM-Orchestrierung, Retrieval-Augmented Generation (RAG) und nahtlose Sprachinteraktionen bewältigen.
Hauptverantwortlichkeiten:
- Design von Agenten-Workflows: Entwerfen und Implementieren von LLM-basierten Systemen, die über die reine Antwortgenerierung hinausgehen – Ermöglichung strukturierter Tool-Nutzung, Workflow-Orchestrierung und sicherer Interaktion mit internen Diensten über MCP (Model Context Protocol).
- Aufbau und Optimierung von RAG & CAG: Entwicklung leistungsstarker Retrieval-Augmented Generation- und Context-Augmented Generation-Pipelines, um genaue, relevante und latenzarme Antworten sicherzustellen. Kontinuierliche Verbesserung des Kontextmanagements, der Ranking-Strategien und der Grounding-Mechanismen zur Unterstützung komplexer, mehrstufiger Interaktionen.
- Beherrschung des Sprachkanals: Entwicklung und Optimierung von Echtzeit-Speech-to-Speech (S2S)-Pipelines mit Schwerpunkt auf Streaming-Architekturen, Latenzreduzierung (einschließlich Time to First Word - TTFW) und Aufrechterhaltung eines natürlichen Gesprächsflusses.
- Evaluierung, Qualität & Alignment: Aufbau und Pflege eines automatisierten QA-Moduls, einschließlich LLM-as-a-judge-Mustern, zur Messung von Genauigkeit, Sicherheit, Latenz und Lösungsqualität in großem Maßstab. Übersetzung von Evaluierungserkenntnissen in systematische Modell- und Prompt-Verbesserungen.
- Modellstrategie & Hybride Integration: Integration und Betrieb sowohl kommerzieller Foundation Models (z. B. OpenAI, Anthropic, Google) als auch Open-Source-Alternativen (z. B. Qwen, Kimi, DeepSeek, Moonshot, GLM), Auswahl und Optimierung von Modellen basierend auf Leistung, Latenz, Kosten und Anwendungsfallanforderungen.
Wir suchen jemanden mit:
- Starke Python- und/oder Java-Engineering-Kenntnisse: Fortgeschrittene Python-Entwicklungserfahrung, einschließlich asynchroner Programmierung (z. B. FastAPI, asyncio) und dem Aufbau leistungsstarker, produktionsreifer Dienste. Erfahrung mit Streaming-Architekturen ist ein großer Vorteil.
- Erfahrung mit LLM-Anwendungen & Multi-Agenten-Orchestrierung: Praktische Erfahrung im Aufbau von LLM-gestützten Systemen, einschließlich mehrstufiger Workflows, zustandsbehafteter Agenten und Tool-Aufrufe. Vertrautheit mit Orchestrierungs-Frameworks wie LangChain, LlamaIndex oder LangGraph, insbesondere beim Aufbau zustandsbehafteter Agenten für mehrere Runden.
- Fortgeschrittene Retrieval- & Kontextverwaltung: Tiefes Verständnis von Vektordatenbanken (z. B. Weaviate, Qdrant, pgvector, Elasticsearch), semantischer Suche, Embedding-Strategien und Re-Ranking-Techniken. Erfahrung im Entwerfen und Optimieren von RAG-Pipelines.
- Echtzeit- & Latenzempfindliche Systeme: Erfahrung im Entwerfen von Systemen, die unter Latenzbeschränkungen arbeiten, einschließlich Streaming-APIs, ereignisgesteuerter Architekturen und Leistungsoptimierung. Verständnis der Kompromisse zwischen Qualität, Kosten und Antwortzeit.
- Evaluierungsgesteuerte Entwicklung: Erfahrung in der Implementierung von Evaluierungs-Frameworks für LLM-basierte Systeme, einschließlich automatisierter QA-Pipelines und LLM-as-a-judge-Mustern.
- Vertrautheit mit API-Design: Kenntnisse im Design von RESTful APIs, OAuth2.
Was wir bieten:
- Zugang zu lokalen/internationalen Schulungen, Entwicklungs- und Wachstumsmöglichkeiten, einschließlich Zugang zu E-Learning-Plattformen, die sowohl technische als auch Soft-Skills-Bereiche abdecken.
- Moderne Technologien, Produktverantwortung.
- Flexible Arbeitszeiten.
- Hybride Arbeitsmöglichkeit.
- Medizinische Versorgung durch einen von zwei privaten Anbietern.
- 25 Urlaubstage pro Jahr.
- Ausgleichstage für gesetzliche Feiertage, die auf ein Wochenende fallen.
- Essensgutscheine.
- Internes Empfehlungsprogramm.
- Teamevents, Networking-Events zur Förderung einer leidenschaftlichen, kreativen und vielfältigen Kultur.
- Sommerfest und Winterfest.
- Natürlich Kaffee, Softdrinks und frisches Obst im Büro.
Über IONOS
IONOS ist der führende europäische Digitalisierungs-Partner für kleine und mittlere Unternehmen (KMU). IONOS hat mehr als sechs Millionen Kundinnen und Kunden und ist mit einer weltweit verfügbaren Plattform in 18 Märkten in Europa und Nordamerika aktiv. Mit seinen Web Presence & Productivity-Angeboten agiert das Unternehmen als "One-Stop-Shop" für alle Digitalisierungs-Bedürfnisse - von Domains und Webhosting über klassische Website-Builder und Do-It-Yourself-Lösungen, von E-Commerce bis zu Online-Marketing-Tools. Darüber hinaus bietet IONOS Cloud-Lösungen für Firmen, die im Zuge der Weiterentwicklung ihres Geschäfts in die Cloud wechseln möchten.
Wir wertschätzen Vielfalt und begrüßen alle Bewerbungen -- unabhängig von z. B. Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Behinderung, Alter sowie sexueller Orientierung und Identität, körperlichen Merkmalen, Familienstand oder einem anderen sachfremden Kriterium nach geltendem Recht.