Role overview
Vill du vara med och bygga nästa generations AI-plattform i en komplex och samhällsviktig miljö?
Vi söker nu en erfaren MLOps Engineer som vill ta ett helhetsgrepp om hur AI-tjänster byggs, driftsätts och förvaltas i produktion.
Du kommer att bli en nyckelspelare i ett etablerat DevOps-team där fokus ligger på att skapa stabila, säkra och skalbara förutsättningar för AI-tjänster – från idé till produktion.
Uppdraget innebär att bygga upp strukturer, arbetssätt och tekniska lösningar som möjliggör effektiv drift och vidareutveckling av AI-initiativ, inklusive moderna LLM- och RAG-lösningar.
What you'll work on
- Etablera och förbättra CI/CD-pipelines för AI-tjänster
- Designa och implementera deployments i Kubernetes/OpenShift
- Säkerställa robusta releaseflöden och versionshantering
- Bygga upp observability (loggning, metrics, tracing, dashboards)
- Införa och förvalta säkerhetsprinciper (RBAC, secrets management)
- Ta fram runbooks, incidentrutiner och driftprocesser
- Arbeta med LLM/RAG-livscykler, inklusive modell- och promptversionering
- Säkerställa kvalitet genom utvärdering, regressionstester och uppföljning i drift
- Driva kompetensöverföring till interna team
What we're looking for
- Minst 4–6 års erfarenhet av CI/CD och releasehantering i produktionsmiljö
- Erfarenhet av Kubernetes eller OpenShift
- Stark kompetens inom observability (loggning, metrics, tracing)
- Erfarenhet av säkerhet och åtkomststyrning (RBAC, secrets)
- Vana att arbeta med drift, incidenthantering och runbooks
- Praktisk erfarenhet av MLOps, AI-tjänster eller ML/LLM-lösningar
- Erfarenhet av dokumentation och kunskapsdelning