KI-Infrastruktur statt Tool-Gefühl – Warum ChatGPT kein Enterprise-Stack ist
Der Unterschied zwischen KI-Tools (ChatGPT, CoPilot) und KI-Infrastruktur: Orchestrierung, Governance, Modell-Agnostik, Audit Trail. Warum Unternehmen eine eigene Infrastrukturschicht brauchen.
Tool vs. Infrastruktur
ChatGPT, Microsoft CoPilot, Google Gemini – das sind KI-Tools. Man gibt eine Frage ein, bekommt eine Antwort. Für individuelle Produktivität funktioniert das. Für Enterprise-Prozesse nicht.
Der Unterschied zwischen einem KI-Tool und KI-Infrastruktur ist vergleichbar mit dem Unterschied zwischen einer Excel-Tabelle und einem ERP-System. Die Excel-Tabelle löst ein konkretes Problem für einen einzelnen Benutzer. Das ERP-System ist die Infrastruktur, auf der Geschäftsprozesse des gesamten Unternehmens laufen.
KI-Infrastruktur ist die Architekturschicht zwischen Sprachmodell und Enterprise-System. Sie umfasst: Modell-Hosting, Orchestrierung, Decision Layer, Governance, Integration in bestehende Systeme. Das Sprachmodell ist ein Baustein dieser Infrastruktur – nicht die Infrastruktur selbst.
Was einem KI-Tool fehlt
Wenn ein Unternehmen ChatGPT für die Belegverarbeitung nutzt, fehlt:
Audit Trail: Keine Dokumentation welche Entscheidung auf welcher Grundlage getroffen wurde. Bei einer Prüfung ist nichts nachvollziehbar.
Versionierte Regelwerke: ChatGPT kennt keine mandantenspezifischen Buchungsregeln in Version 4.2. Es hat allgemeines Wissen über Buchführung – aber keine konkreten Regelwerke des Kunden.
Mandantenisolierung: Daten aller Mandanten fließen in dasselbe System. Keine Row-Level Security, keine Workspace-Trennung.
Integration: ChatGPT kann keine Buchung in SAP anlegen, keinen Workflow in n8n triggern, keine Eskalation an einen Sachbearbeiter auslösen.
Human-in-the-Loop: Keine architektonisch erzwungene menschliche Prüfung. Keine Eskalationsregeln. Keine Konfidenz-Schwellenwerte.
Modell-Agnostik: Wer auf ChatGPT baut, ist an OpenAI gebunden. Wenn OpenAI die Preise erhöht, die API ändert oder den Dienst einstellt, steht das Unternehmen ohne Alternative da.
Die sieben Schichten der Enterprise KI-Infrastruktur
Die Gosign Referenz-Architektur beschreibt sieben Schichten:
Presentation Layer: Chat-Interface, Dashboard, Auditor Portal, REST API. Die Schnittstelle zwischen System und Nutzer.
Orchestration Layer: Workflow-Engine (n8n oder Camunda), API-Gateway, Queue-Management. Koordiniert den Datenfluss zwischen allen Komponenten.
Agent Layer: Die spezialisierten Agenten – Document Agents, Workflow Agents, Knowledge Agents. Jeder Agent hat einen definierten Aufgabenbereich.
Decision Layer: Die Governance-Komponente. Rules Engine, Confidence Routing, Human-in-the-Loop, Audit Trail.
Model Layer: Die Sprachmodelle. Austauschbar, modell-agnostisch. Claude, ChatGPT, Gemini, Llama, Mistral, DeepSeek, gpt-oss.
Integration Layer: Die Anbindung an bestehende Systeme. SAP, DATEV, Workday, SuccessFactors, SharePoint.
Infrastructure Layer: Das Deployment. Azure, GCP, Self-Hosted, Hybrid.
Die Governance-Schicht zieht sich als Querschnitt durch alle sieben Layer.
Der Infrastruktur-Vorteil
Mit einer eigenen KI-Infrastruktur gewinnt das Unternehmen:
Kontrolle: Daten bleiben in der eigenen Infrastruktur. Modelle sind austauschbar. Regelwerke gehören dem Kunden.
Skalierbarkeit: Ein Agent für einen Prozess ist ein PoC. Die Infrastruktur ermöglicht, weitere Agenten für weitere Prozesse zu deployen – mit derselben Governance.
Unabhängigkeit: Nach 12-18 Monaten betreibt der Kunde die Infrastruktur eigenständig. Vollständiger Quellcode, alle Prompts, alle Regelwerke gehören dem Kunden. Kein Vendor Lock-in.
Mehr dazu: KI-Infrastruktur
Termin vereinbaren – Wir zeigen Ihnen, wie eine KI-Infrastruktur für Ihr Unternehmen aussieht.