Enterprise-AI-Portal: Vier Open-Source-Interfaces im Vergleich
Warum ein Chat-Interface nicht reicht. LobeChat, OpenWebUI, LibreChat und very-ai im Enterprise-Vergleich mit Anforderungsmatrix.
Das Problem: Modell ohne Interface
Ein KI-Modell ohne kontrolliertes Interface ist wie ein Server ohne Frontend. Die Technologie ist vorhanden, aber niemand kann sie geordnet nutzen. Was dann passiert, ist vorhersagbar: Mitarbeitende nutzen öffentliche KI-Dienste – ChatGPT, Gemini, Claude.ai – mit ihren privaten Accounts. Sie geben Unternehmensdaten in Systeme ein, die außerhalb der Kontrolle der IT-Abteilung liegen. Es gibt keinen Audit-Trail, keine Datenklassifikation, keine Zugriffskontrolle.
Das ist Shadow AI. Und die Frage ist nicht, ob es in Ihrem Unternehmen passiert. Die Frage ist, wie stark.
Die Lösung ist nicht, KI-Nutzung zu verbieten. Die Lösung ist, ein internes System bereitzustellen, das besser funktioniert als die öffentlichen Alternativen – und dabei unter Unternehmenskontrolle läuft. Dafür reicht ein einfaches Chat-Interface nicht aus. Was Sie brauchen, ist ein Enterprise-AI-Portal.
Was ein Enterprise-AI-Portal können muss
Ein Enterprise-AI-Portal ist mehr als ein Chat-Fenster. Es ist die zentrale Plattform, über die alle Mitarbeitenden mit KI interagieren – kontrolliert, protokolliert und integriert in die bestehende Systemlandschaft. Sechs Anforderungen unterscheiden ein Enterprise-Portal von einem Consumer-Chat:
1. Multi-Modell-Routing
Das Portal muss mehrere Modelle gleichzeitig anbinden – proprietäre Cloud-APIs und Self-Hosted-Modelle. Die Routing-Logik entscheidet automatisch, welches Modell für welche Anfrage genutzt wird: nach Aufgabentyp, Datensensibilität und Kostenvorgabe. Mitarbeitende sehen ein einheitliches Interface. Welches Modell im Hintergrund arbeitet, ist für sie transparent, aber nachvollziehbar.
2. Assistenten-Sharing
Fachabteilungen erstellen spezialisierte Assistenten – mit eigenem System-Prompt, eigenen Dokumenten und eigenem Regelwerk. Ein Assistent für die Rechtsabteilung, der Vertragsprüfung vorbereitet. Ein Assistent für HR, der Bewerbungsunterlagen zusammenfasst. Ein Assistent für den Einkauf, der Lieferantenangebote vergleicht. Diese Assistenten werden innerhalb der Abteilung geteilt, versioniert und zentral verwaltet.
Das ist der entscheidende Unterschied zu einem reinen Chat-Interface: Nicht jeder Mitarbeitende muss Prompts von Grund auf schreiben. Stattdessen nutzt er einen Assistenten, der von Fachkollegen konfiguriert und optimiert wurde. Das senkt die Einstiegshürde und erhöht die Ergebnisqualität.
3. Agenten-Integration
Ein Enterprise-Portal muss über Chat hinausgehen. Es muss KI-Agenten integrieren können – spezialisierte Workflows, die Dokumente verarbeiten, Daten extrahieren, Entscheidungen vorbereiten oder externe Systeme ansprechen. Der Agent wird über das Portal angestoßen, sein Fortschritt wird angezeigt, sein Ergebnis wird im Portal dokumentiert.
4. SSO und rollenbasierte Zugriffskontrolle (RBAC)
Mitarbeitende melden sich über das bestehende Identity-Management an – Azure AD, Okta, Google Workspace. Keine separaten Accounts, keine separaten Passwörter. Die Zugriffskontrolle ist rollenbasiert: Wer darf welche Modelle nutzen? Wer darf Assistenten erstellen? Wer darf auf welche Dokumentenquellen zugreifen? Wer hat Zugang zu Agenten-Workflows?
5. Audit-Trail
Jede Interaktion wird protokolliert. Wer hat wann welche Anfrage gestellt? Welches Modell hat geantwortet? Welche Dokumente wurden referenziert? Welche Kosten sind entstanden? Der Audit-Trail ist exportierbar – für interne Revision, für Compliance-Prüfungen, für die EU-AI-Act-Dokumentation.
6. Deployment-Flexibilität
Das Portal muss in verschiedenen Umgebungen deploybar sein: als Cloud-Dienst (Supabase, Vercel), als Container in einem deutschen Rechenzentrum, oder On-Premises. Die Hosting-Entscheidung für das Portal folgt denselben Kriterien wie die Hosting-Entscheidung für die Modelle (siehe Hosting-Strategien).
Open-Source-Interfaces im Vergleich
Der Markt für Open-Source-KI-Interfaces ist gewachsen. Vier Lösungen sind für Enterprise-Einsatz relevant:
| Eigenschaft | very-ai (Gosign) | LobeChat | OpenWebUI | LibreChat |
|---|---|---|---|---|
| Fokus | Enterprise-Hub | Consumer-Chat | Ollama-Integration | ChatGPT-Klon |
| Multi-Modell | Ja (auto-routing) | Ja | Ja (Ollama) | Ja |
| Assistenten-Sharing | Ja | Begrenzt | Nein | Nein |
| Agenten-Integration | Ja | Plugin-basiert | Begrenzt | Nein |
| SSO/RBAC | Ja | Begrenzt | Ja | Ja |
| Audit-Trail | Ja (exportierbar) | Nein | Ja (Logging) | Begrenzt |
very-ai
very-ai ist Gosigns Open-Source Enterprise-AI-Portal. Es wurde speziell für den Enterprise-Einsatz entwickelt und kombiniert alle sechs Anforderungen in einer integrierten Plattform. Die Architektur basiert auf Supabase (Backend) und Next.js (Frontend). Deployment ist als Cloud-Dienst oder Self-Hosted möglich. Das Besondere: very-ai integriert nicht nur Chat, sondern auch Assistenten-Sharing und Agenten-Hub in einem einheitlichen Interface. Mitarbeitende sehen eine einzige Oberfläche, über die sie chatten, Assistenten nutzen und Agenten-Workflows anstoßen können.
LobeChat
LobeChat ist ein optisch ansprechendes Chat-Interface mit Plugin-Architektur. Die Stärke liegt in der Consumer-Nutzung und der Plugin-Vielfalt. Für Enterprise fehlen robustes RBAC, exportierbarer Audit-Trail und native Agenten-Integration. Als schneller Prototyp oder für kleine Teams geeignet, für den unternehmensweiten Rollout zu limitiert.
OpenWebUI
OpenWebUI ist der De-facto-Standard für Ollama-basierte Self-Hosting-Setups. Die Integration mit lokal laufenden Modellen ist hervorragend. SSO und grundlegendes Logging sind vorhanden. Was fehlt: Assistenten-Sharing, Enterprise-Agenten-Integration und eine zentrale Verwaltung für mehrere Hundert Nutzer.
LibreChat
LibreChat ist ein Open-Source-Klon der ChatGPT-Oberfläche mit Multi-Modell-Unterstützung. SSO und grundlegendes RBAC sind implementiert. Für Unternehmen, die eine ChatGPT-ähnliche Erfahrung intern abbilden wollen, ist LibreChat ein solider Ausgangspunkt. Die Grenzen liegen bei Agenten-Integration und Assistenten-Sharing.
Warum „nur ein Chat” nicht reicht
Der Unterschied zwischen einem Chat-Interface und einem Enterprise-AI-Portal wird im Betrieb deutlich. Ein Vergleich:
| Aspekt | Chat-Interface | Enterprise-AI-Portal |
|---|---|---|
| Nutzung | Individuelle Frage-Antwort | Organisationsweites Werkzeug |
| Wissen | Jeder Nutzer startet bei null | Assistenten bündeln Fachwissen |
| Kontrolle | Der Nutzer entscheidet, was er eingibt | Routing und RBAC steuern den Datenfluss |
| Nachvollziehbarkeit | Keine oder begrenzt | Vollständiger Audit-Trail |
| Integration | Standalone | Angebunden an SSO, Agenten, Dokumentensysteme |
| Skalierung | Pro Nutzer | Pro Organisation |
| Shadow-AI-Risiko | Hoch (unzureichendes internes Angebot) | Gering (besseres internes Angebot) |
Die zentrale Erkenntnis: Shadow AI entsteht nicht, weil Mitarbeitende böswillig sind. Sie entsteht, weil das interne Angebot schlechter ist als die öffentliche Alternative. Wenn das interne Portal genauso intuitiv ist wie ChatGPT, aber zusätzlich spezialisierte Assistenten, Zugriff auf Unternehmensdokumente und Agenten-Workflows bietet, gibt es keinen Grund mehr, auf externe Dienste auszuweichen.
Praxis: Ein Mittelständler mit 2.000 Mitarbeitenden
Ein konkretes Beispiel zeigt die Wirkung. Ein produzierender Mittelständler mit 2.000 Mitarbeitenden hatte folgende Ausgangslage:
Vor dem Portal: Eine interne Umfrage ergab, dass 340 Mitarbeitende regelmäßig öffentliche KI-Dienste für Arbeitsaufgaben nutzten. Davon 180 mit kostenlosen Accounts (ohne AVV), 120 mit privaten Pro-Accounts (Unternehmensdaten in privaten Accounts) und 40 mit vom Unternehmen bereitgestellten Accounts (aber ohne Audit-Trail oder Zugriffskontrolle). Die IT-Abteilung hatte keine Übersicht, welche Daten in welche Systeme flossen.
Rollout des Enterprise-AI-Portals: In vier Wochen wurde very-ai ausgerollt – angebunden an Azure AD für SSO, mit drei initialen Assistenten (Rechtsabteilung, HR, Einkauf) und einem gpt-oss-120b-Endpunkt für vertrauliche Daten.
Nach 90 Tagen:
- 15 spezialisierte Assistenten, erstellt von Fachabteilungen
- 1.200 aktive Nutzer pro Monat (von 2.000 Mitarbeitenden)
- Shadow-AI-Nutzung um 85 % gesunken (Folge-Umfrage)
- Vollständiger Audit-Trail: 47.000 protokollierte Interaktionen
- Identifikation von drei Prozessen, für die dedizierte Agenten-Workflows sinnvoll waren
- Gesamtkosten (Portal + Hosting + Cloud-APIs): ca. 4.800 € pro Monat
Der entscheidende Faktor war nicht die Technologie, sondern die Adoption. Das Portal wurde angenommen, weil es besser war als die Alternative – nicht weil es vorgeschrieben wurde.
Die fünf Erfolgsfaktoren beim Rollout
Aus der Praxis lassen sich fünf Faktoren ableiten, die über Erfolg oder Misserfolg eines Enterprise-AI-Portals entscheiden:
1. Erster Eindruck zählt. Wenn das interne Portal langsamer, umständlicher oder weniger leistungsfähig ist als ChatGPT, werden Mitarbeitende es nach dem ersten Versuch nicht wieder nutzen. Die Antwortqualität muss vom ersten Tag an auf dem Niveau der öffentlichen Dienste liegen.
2. Assistenten statt Prompts. Die meisten Mitarbeitenden sind keine Prompt-Engineers. Sie wollen ein Werkzeug nutzen, nicht konfigurieren. Spezialisierte Assistenten, die von Fachkollegen vorbereitet wurden, senken die Einstiegshürde erheblich.
3. Sichtbarer Mehrwert. Das Portal muss etwas bieten, was die öffentlichen Dienste nicht können: Zugriff auf interne Dokumente (via RAG), spezialisierte Assistenten für unternehmensspezifische Aufgaben, Integration in bestehende Workflows.
4. IT-Ownership, nicht IT-Kontrolle. Die IT-Abteilung betreibt das Portal und setzt die Governance-Regeln. Aber die Fachabteilungen erstellen ihre Assistenten selbst. Diese Verteilung – Infrastruktur zentral, Inhalte dezentral – hat sich als erfolgreichstes Modell erwiesen.
5. Messen und kommunizieren. Nutzungszahlen, eingesparte Zeit, reduzierte Shadow-AI-Nutzung – diese Kennzahlen müssen erhoben und an die Geschäftsführung kommuniziert werden. Ohne messbare Ergebnisse fehlt die Grundlage für die nächste Ausbaustufe.
Nächster Schritt: Vom Portal zum Agenten
Das Enterprise-AI-Portal ist die Grundlage. Es gibt Mitarbeitenden Zugang zu KI, kontrolliert und protokolliert. Der nächste Schritt ist die Integration von Agenten – spezialisierten Workflows, die über einfache Frage-Antwort-Interaktionen hinausgehen. Wie Sie Agenten im Enterprise-Kontext einsetzen, welche Architektur dafür nötig ist und wo die Grenzen liegen, behandelt ein weiterer Artikel dieser Serie.
Weiterführend: KI-Infrastruktur | Decision Layer & Shadow AI
📘 Enterprise AI-Infrastruktur Blueprint 2026 – Artikel-Serie
| ← Vorheriger | Übersicht | Nächster → |
|---|---|---|
| KI-Hosting: EU-SaaS, deutsches RZ oder Self-Hosted? | Zur Übersicht | RAG & Document Intelligence: Wie KI Ihre Dokumente versteht |
Alle Artikel dieser Serie: Enterprise AI-Infrastruktur Blueprint 2026
very-ai ist Gosigns Open-Source Enterprise-AI-Portal. Mehr erfahren – oder direkt mit uns sprechen, welche Konfiguration für Ihre Organisation passt.
Termin vereinbaren – Wir zeigen Ihnen very-ai in einer Live-Demo und besprechen Ihren Rollout-Plan.