Role overview
Opis firmy
Od 2008 dostarczamy aplikację ułatwiającą prowadzenie firmy, kontakt z księgowymi, wystawianie faktur, dodawanie kosztów i dokonywanie płatności. Rozwijany przez nas mechanizm sztucznej inteligencji pozwala automatycznie rozpoznawać i księgować nowe dokumenty, co znacząco upraszcza pracę przedsiębiorcom, tak, aby mogli zająć się tym, co dla nich najważniejsze. Jesteśmy liderem na polskim rynku rozwiązań dla księgowości i należymy do norweskiej Grupy Visma.
Opis oferty pracy
What you'll work on
- tworzyć i wdrażać modele uczenia maszynowego i głębokiego uczenia, nastawione na rozwiązywanie realnych problemów biznesowych,
- rozwijać i wdrażać aplikacje AI/LLM w środowiskach chmurowych (AWS lub GCP),
- projektować architektury oparte o LLM, takie jak Retrieval-Augmented Generation (RAG), Agentic RAG, czy Model Context Protocol (MCP),
- integrować modele z aplikacjami produkcyjnymi, w tym przez mechanizmy Function Calling / A2A,
- tworzyć pipeline'y do przetwarzania danych kontekstowych (embedding, chunking, wektoryzacja),
- projektować i implementować procesy indeksowania danych w bazach wektorowych (np. Qdrant, Weaviate, Pinecone),
- tworzyć prompty, testować jakość wyjścia modeli i optymalizować zachowania LLM,
- dzielić się wiedzą i mentorować młodszych członków zespołu,
- wspierać zespół w zakresie najlepszych praktyk związanych z ML, MLOps i inżynierią danych,
- współpracować z zespołem developerskim i biznesowym przy projektach AI w obszarach automatyzacji, analityki i integracji z zewnętrznymi usługami (np. OCR, klasyfikacja, generatywne UI),
- analizować najnowsze trendy w AI i szukać ich zastosowania w praktyce,
- tworzyć i utrzymywać dokumentację techniczną oraz raportować wyniki badań i wdrożeń.
What we're looking for
- bardzo dobrze znasz język Python oraz ekosystem narzędzi AI/ML (np. PyTorch, TensorFlow, scikit-learn),
- masz doświadczenie z frameworkami takimi jak Claude Code, LangChain, LlamaIndex, LangGraph, Pydantic,
- masz praktyczną znajomość środowisk AWS lub GCP i wdrażania aplikacji AI w tych ekosystemach,
- znasz zasady prompt engineeringu, architektur agentowych, kontekstualizacji danych i modeli RAG,
- masz umiejętność pracy z narzędziami do oceny jakości odpowiedzi modeli (np. eval frameworki, testy automatyczne),
- znasz Git, Docker, CI/CD, REST/JSON, architektury mikrousług,
- masz doświadczenie w inżynierii funkcji, przetwarzaniu danych i pracy z dużymi zbiorami danych,
- umiesz optymalizować i skalować modele AI,
- masz umiejętności mentorskie, umiesz i chcesz dzielić się wiedzą,
- umiesz rozwiązywać złożone problemy techniczne i myśleć analitycznie,
- masz doświadczenie w prowadzeniu badań i eksperymentów nad nowymi metodami AI,
- umiesz przekuć potrzeby biznesowe na język i strukturę dostępnych danych,
- tłumaczysz złożone tematy w prosty sposób, dostosowujesz komunikat do specyfiki odbiorcy,
- znasz język polski na poziomie C1 - umiesz przetwarzać dane i dokumentację oraz efektywnie komunikować się w środowisku biznesowym w tym języku,
- odpowiada Ci hybrydowy model pracy - praca jest na co dzień w 100% zdalna, z okazjonalnymi zjazdami zespołu w Krakowie (2 razy w miesiącu).