Architektura model-agnostyczna - dlaczego vendor lock-in przy LLM jest niebezpieczny
Model-agnostyczny oznacza: logika biznesowa jest oddzielona od modelu jezykowego. Gdy model sie zmienia, agenci, Decision Layer i zestawy regul pozostaja bez zmian. Brak vendor lock-in.
Ryzyko: jeden model, jeden dostawca
Wiele firm buduje swoja strategie AI na jednym modelu. “Uzywamy ChatGPT” albo “Stawiamy na Claude”. Prompty sa optymalizowane pod ten model. Integracje budowane pod API tego dostawcy. Workflow dostosowane do specyfiki tego modelu.
Nastepnie wydarza sie jedno z trzech: dostawca podnosi ceny. Dostawca zmienia API. Pojawia sie nowy model, ktory jest wyraznie lepszy lub tanszy. W kazdym przypadku: cala implementacja musi byc dostosowana.
Na rynku LLM to wydarza sie szybko. W ciagu ostatnich 18 miesiecy ceny sie spolowily, pojawili sie nowi dostawcy, modele open-source przescigneły modele zamkniete w benchmarkach. Kto jest zwiazany z jednym dostawca, nie moze wykorzystac tych mozliwosci.
Dla polskich firm, ktore czesto dzialaja w miedzynarodowym srodowisku z roznorodnymi wymaganiami regulacyjnymi, elastycznosc w doborze modeli jest szczegolnie istotna. Wymagania RODO, lokalne przepisy i rynkowe warunki cenowe moga wymagac szybkiej zmiany dostawcy modelu.
Model-agnostyk jako zasada architektoniczna
W architekturze referencyjnej Gosign Model Layer jest wymienną warstwa. Logika biznesowa - zestawy regul, logika decyzyjna, workflow - jest zaimplementowana w Decision Layer i Agent Layer, nie w modelu.
Gdy pojawia sie nowy model, moze byc zintegrowany bez zmian w warstwach powyzej. Agent nie wie, jakiego modelu uzywa. Wysyla zapytanie do Model Layer i otrzymuje odpowiedz. Ktory model dostarcza odpowiedz, jest dla agenta nieistotne.
Routing multi-model
Agent moze korzystac z wielu modeli jednoczesnie. Routing jest oparty na regulach:
Optymalizacja kosztow: Proste zadania (klasyfikacja dokumentow, ekstrakcja danych) obsluguje tani model. Zlezone zadania (wsparcie decyzji, interpretacja regul) obsluguje wydajniejszy model.
Rezydencja danych: Wrazliwe dane trafiaja do modeli self-hosted (Llama, Mistral, DeepSeek). Niekrytyczne dane moga byc kierowane przez API chmurowe.
Failover: Jesli dostawca modelu ulegnie awarii, system moze automatycznie przelaczac sie na alternatywny model.
Reguly routingu sa konfigurowane w Decision Layer i w pelni prosledzalne.
Obslugivane modele
Architektura Gosign obsluguje aktualnie:
- Claude (Anthropic) - API chmurowe
- ChatGPT (OpenAI) - API chmurowe
- Gemini (Google) - API chmurowe
- Llama (Meta) - Self-Hosted lub chmura
- Mistral - Self-Hosted lub chmura
- DeepSeek - Self-Hosted lub chmura
- gpt-oss (OpenAI) - Self-Hosted lub chmura
Nowe modele moga byc integrowane, gdy tylko sa dostepne przez standardowe API.
Wiecej na ten temat: Infrastruktura AI
Szczegoly dotyczace porownania modeli AI i ich profili wydajnosci.
Umow spotkanie - Pokazemy architekture model-agnostyczna w szczegolach.