Modell-Agnostik – Warum Vendor Lock-in bei LLMs gefährlich ist
Modell-agnostisch bedeutet: Die Geschäftslogik ist vom Sprachmodell entkoppelt. Wenn das Modell wechselt, bleiben Agenten, Decision Layer und Regelwerke unverändert. Kein Vendor Lock-in.
Das Risiko: Ein Modell, ein Anbieter
Viele Unternehmen bauen ihre KI-Strategie auf einem einzelnen Modell auf. “Wir nutzen ChatGPT” oder “Wir setzen auf Claude”. Prompts werden für dieses Modell optimiert. Integrationen werden für die API dieses Anbieters gebaut. Workflows sind auf die Eigenheiten dieses Modells abgestimmt.
Dann passiert eines von drei Dingen: Der Anbieter erhöht die Preise. Der Anbieter ändert die API. Ein neues Modell erscheint, das deutlich besser oder günstiger ist. In jedem Fall: Die gesamte Implementierung muss angepasst werden.
Im LLM-Markt passiert das schnell. In den letzten 18 Monaten haben sich Preise halbiert, neue Anbieter sind erschienen, Open-Source-Modelle haben proprietäre Modelle in Benchmarks überholt. Wer sich an einen Anbieter gebunden hat, kann diese Entwicklungen nicht nutzen.
Modell-Agnostik als Architekturprinzip
In der Gosign Referenz-Architektur ist der Model Layer eine austauschbare Schicht. Die Geschäftslogik – Regelwerke, Entscheidungslogik, Workflows – ist im Decision Layer und Agent Layer implementiert, nicht im Modell.
Wenn ein neues Modell verfügbar wird, kann es integriert werden, ohne die darüberliegenden Layer zu ändern. Der Agent weiß nicht welches Modell er nutzt. Er stellt eine Anfrage an den Model Layer und bekommt eine Antwort zurück. Welches Modell die Antwort liefert, ist für den Agenten irrelevant.
Multi-Modell-Routing
Ein Agent kann mehrere Modelle gleichzeitig nutzen. Das Routing ist regelbasiert:
Kostenoptimierung: Einfache Aufgaben (Dokumentenklassifizierung, Datenextraktion) laufen über ein kostengünstiges Modell. Komplexe Aufgaben (Entscheidungsunterstützung, Regelinterpretation) über ein leistungsfähigeres Modell.
Data Residency: Sensible Daten gehen an Self-Hosted-Modelle (Llama, Mistral, DeepSeek). Unkritische Daten können über Cloud-APIs laufen.
Failover: Wenn ein Modell-Anbieter ausfällt, kann automatisch auf ein alternatives Modell gewechselt werden.
Die Routing-Regeln sind im Decision Layer konfiguriert und nachvollziehbar.
Unterstützte Modelle
Die Gosign-Architektur unterstützt aktuell:
- Claude (Anthropic) – Cloud-API
- ChatGPT (OpenAI) – Cloud-API
- Gemini (Google) – Cloud-API
- Llama (Meta) – Self-Hosted oder Cloud
- Mistral – Self-Hosted oder Cloud
- DeepSeek – Self-Hosted oder Cloud
- gpt-oss (OpenAI) – Self-Hosted oder Cloud
Neue Modelle können integriert werden, sobald sie über eine Standard-API erreichbar sind.
Mehr dazu: KI-Infrastruktur
Termin vereinbaren – Wir zeigen Ihnen die modell-agnostische Architektur im Detail.