Limbach Gruppe
AI

Lead AI Engineer / Architect - Agentic Systems

Limbach Gruppe · Heidelberg, BW, DE · $15k

Actively hiring Posted about 6 hours ago

Role overview

In unserer Laborgruppe werden täglich tausende Laborparameter gemessen, Befunde freigegeben und Anforderungsscheine verarbeitet. Diese Prozesse werden von hochqualifizierten MTAs und Fachärzten manuell durchgeführt.

Unsere neu gegründete, direkt an die Unternehmensleitung angebundene KI-Einheit entwickelt produktive ML-Systeme, die diese Kernprozesse digitalisieren: von der computergestützten Vorbefundung medizinischer Proben über automatisierte Auftragserfassung bis zur standortübergreifenden Skalierung dieser Lösungen auf über 30 Labore.

Der Einsatz erfolgt in einer ISO-15189-zertifizierten Umgebung unter den Anforderungen der DSGVO, IVDR und des EU AI Act. Unser Anspruch ist es, Lösungen vom ersten Piloten bis zum stabilen Betrieb über die gesamte Laborgruppe zu verantworten.

In deiner Rolle verantwortest du die Architektur und treibst folgende Themen gemeinsam mit unserem Team voran:

Mehr als Labor.

Die Limbach Gruppe besteht derzeit aus über 30 Einzellaboratorien. Die ärztlich geführten Einzellaboratorien haben sich durch kompetente medizinische Beratung, hochspezialisierte Diagnostik, eine umfassende Angebotspalette und ein breites Dienstleistungsspektrum als führende Unternehmensgruppe etabliert.

What you'll work on

  • Multi-Agenten-Systeme & Tech-Scouting: Architektonische Transformation und Skalierung unseres internen Agenten-Ökosystems. Du orchestrierst spezialisierte KI-Agenten zur maßgeblichen Beschleunigung sowie Automatisierung interner Workflows und treibst durch proaktives Tech-Scouting im Open-Source-Markt (z. B. Evaluierung von LangGraph-Updates) die kontinuierliche Verbesserung unserer Entwicklungszyklen in agilen Sprints voran
  • Hybride LLM-Infrastruktur: Evaluation, Verknüpfung und produktiver Einsatz von lokalen vLLM-Inferenzclustern und kommerziellen API-Modellen. Du designst effiziente Architekturen für Review- und Planungs-Tasks, Dokumenteninterpretation und interne Wissensabfragen
  • Systemintegration: Entwicklung von MCP-Servern als standardisiertes Interface für unsere Agenten-Ökosysteme. Dies umfasst die deterministische Bereitstellung von Tools, Prompts und Kontextdaten für die sichere Inferenz durch unsere LLMs
  • Klinische KI & Konzernweite ML-Lösungen: Entwicklung produktiver ML-Modelle als zentraler Baustein unserer Wertschöpfung. Neben unserem aktuellen Fokus auf den medizinischen Kernbereich evaluierst und implementierst du perspektivisch auch passgenaue ML-Architekturen für operative und kaufmännische Prozesse im gesamten Unternehmensverbund
  • ML-Pipelines, Monitoring & Retraining: Aufbau und Betrieb robuster Data- und ML-Pipelines. Du stellst sicher, dass unsere produktiv eingesetzten Modelle an den verschiedenen Laborstandorten performant laufen, kontinuierlich auf Data Drift gemonitort und qualitätsgesichert einem Retraining unterzogen werden. Dies schließt auch die asynchrone Evaluierung unserer Modelle mit ein
  • Skalierung im Verbund: Übertragung erprobter, wertschöpfender ML-Architekturen und KI-Systeme von einzelnen Standorten in den gesamten Laborverbund, unter Berücksichtigung technischer, regulatorischer und organisatorischer Anforderungen

What we're looking for

  • Modell-Agnostik & Systemarchitektur: Du bewertest und wählst die optimalen Architekturen für unsere diversen Use-Cases aus. Auf Basis fundierter Trade-off-Analysen (Kosten, Latenz, Qualität) designst du deterministische Routing-Logiken – sei es die Orchestrierung kommerzieller API-LLMs, der Einsatz lokaler Open-Weight-Modelle oder die Nutzung klassischer ML-Methoden für strukturierte Labordaten
  • Erfahrung im "Agentic Engineering": Du hast nicht nur mit LLMs gechattet, sondern komplexe Workflows, State-Machines oder Multi-Agenten-Systeme programmatisch umgesetzt (idealerweise mit LangChain/LangGraph oder in purem Python) und weißt, wie man "Agentic Loops" in der Produktion stabil und berechenbar hält
  • Advanced Tech-Stack & Lokales LLM-Hosting: Hervorragende Python-Kenntnisse und sicherer Umgang mit dem ML-Ökosystem (HuggingFace, PyTorch o.ä.). Du beherrschst zudem strukturiertes Prompt-Engineering sowie die Bereitstellung von Modellen außerhalb von Cloud-APIs (vLLM, TGI) und wendest Konzepte wie KV-Cache, Quantisierung und Tensor Parallelism auf Multi-GPU-Setups sicher an
  • End-to-End MLOps & Automatisierte Evaluierung: Du hast ML-Modelle ausgerollt und anschließend betrieben, inklusive Fehleranalyse, Retraining und Weiterentwicklung nach dem Go-Live. Du nutzt Tracking- und Registrierungs-Frameworks (z. B. MLflow, Weights & Biases) sowie Model-Compiler (z. B. NVIDIA TensorRT) für den Betrieb und implementierst asynchrone Test-Pipelines sowie automatisiertes Benchmarking (z. B. LLM-as-a-Judge) zur Fehleranalyse und Qualitätssicherung
  • Praxis-Fokus: Nachweisbare Produktionserfahrung in Computer Vision, NLP/Dokumentenverarbeitung oder LLM-Integration
  • Kommunikationsstärke: Du besitzt die Fähigkeit, komplexe technische Systemdesign-Entscheidungen gegenüber Fachärztinnen und Fachärzten und dem Management verständlich, nutzenorientiert und auf Augenhöhe zu vertreten
  • Sprachkenntnisse: Fließendes Deutsch (mind. C1) für die interne Kommunikation und sicheres technisches Englisch

Tags & focus areas

Used for matching and alerts on DevFound
Fulltime Remote Ai Ai Engineer