Zum Inhalt springen
Infrastructure & Technology

Enterprise-AI-Portal: Vier Open-Source-Interfaces im Vergleich

Warum ein Chat-Interface nicht reicht. LobeChat, OpenWebUI, LibreChat und very-ai im Enterprise-Vergleich mit Anforderungsmatrix.

Gosign 9 Min. Lesezeit

Das Problem: Modell ohne Interface

Ein KI-Modell ohne kontrolliertes Interface ist wie ein Server ohne Frontend. Die Technologie ist vorhanden, aber niemand kann sie geordnet nutzen. Was dann passiert, ist vorhersagbar: Mitarbeitende nutzen öffentliche KI-Dienste – ChatGPT, Gemini, Claude.ai – mit ihren privaten Accounts. Sie geben Unternehmensdaten in Systeme ein, die außerhalb der Kontrolle der IT-Abteilung liegen. Es gibt keinen Audit-Trail, keine Datenklassifikation, keine Zugriffskontrolle.

Das ist Shadow AI. Und die Frage ist nicht, ob es in Ihrem Unternehmen passiert. Die Frage ist, wie stark.

Die Lösung ist nicht, KI-Nutzung zu verbieten. Die Lösung ist, ein internes System bereitzustellen, das besser funktioniert als die öffentlichen Alternativen – und dabei unter Unternehmenskontrolle läuft. Dafür reicht ein einfaches Chat-Interface nicht aus. Was Sie brauchen, ist ein Enterprise-AI-Portal.

Was ein Enterprise-AI-Portal können muss

Ein Enterprise-AI-Portal ist mehr als ein Chat-Fenster. Es ist die zentrale Plattform, über die alle Mitarbeitenden mit KI interagieren – kontrolliert, protokolliert und integriert in die bestehende Systemlandschaft. Sechs Anforderungen unterscheiden ein Enterprise-Portal von einem Consumer-Chat:

1. Multi-Modell-Routing

Das Portal muss mehrere Modelle gleichzeitig anbinden – proprietäre Cloud-APIs und Self-Hosted-Modelle. Die Routing-Logik entscheidet automatisch, welches Modell für welche Anfrage genutzt wird: nach Aufgabentyp, Datensensibilität und Kostenvorgabe. Mitarbeitende sehen ein einheitliches Interface. Welches Modell im Hintergrund arbeitet, ist für sie transparent, aber nachvollziehbar.

2. Assistenten-Sharing

Fachabteilungen erstellen spezialisierte Assistenten – mit eigenem System-Prompt, eigenen Dokumenten und eigenem Regelwerk. Ein Assistent für die Rechtsabteilung, der Vertragsprüfung vorbereitet. Ein Assistent für HR, der Bewerbungsunterlagen zusammenfasst. Ein Assistent für den Einkauf, der Lieferantenangebote vergleicht. Diese Assistenten werden innerhalb der Abteilung geteilt, versioniert und zentral verwaltet.

Das ist der entscheidende Unterschied zu einem reinen Chat-Interface: Nicht jeder Mitarbeitende muss Prompts von Grund auf schreiben. Stattdessen nutzt er einen Assistenten, der von Fachkollegen konfiguriert und optimiert wurde. Das senkt die Einstiegshürde und erhöht die Ergebnisqualität.

3. Agenten-Integration

Ein Enterprise-Portal muss über Chat hinausgehen. Es muss KI-Agenten integrieren können – spezialisierte Workflows, die Dokumente verarbeiten, Daten extrahieren, Entscheidungen vorbereiten oder externe Systeme ansprechen. Der Agent wird über das Portal angestoßen, sein Fortschritt wird angezeigt, sein Ergebnis wird im Portal dokumentiert.

4. SSO und rollenbasierte Zugriffskontrolle (RBAC)

Mitarbeitende melden sich über das bestehende Identity-Management an – Azure AD, Okta, Google Workspace. Keine separaten Accounts, keine separaten Passwörter. Die Zugriffskontrolle ist rollenbasiert: Wer darf welche Modelle nutzen? Wer darf Assistenten erstellen? Wer darf auf welche Dokumentenquellen zugreifen? Wer hat Zugang zu Agenten-Workflows?

5. Audit-Trail

Jede Interaktion wird protokolliert. Wer hat wann welche Anfrage gestellt? Welches Modell hat geantwortet? Welche Dokumente wurden referenziert? Welche Kosten sind entstanden? Der Audit-Trail ist exportierbar – für interne Revision, für Compliance-Prüfungen, für die EU-AI-Act-Dokumentation.

6. Deployment-Flexibilität

Das Portal muss in verschiedenen Umgebungen deploybar sein: als Cloud-Dienst (Supabase, Vercel), als Container in einem deutschen Rechenzentrum, oder On-Premises. Die Hosting-Entscheidung für das Portal folgt denselben Kriterien wie die Hosting-Entscheidung für die Modelle (siehe Hosting-Strategien).

Open-Source-Interfaces im Vergleich

Der Markt für Open-Source-KI-Interfaces ist gewachsen. Vier Lösungen sind für Enterprise-Einsatz relevant:

Eigenschaftvery-ai (Gosign)LobeChatOpenWebUILibreChat
FokusEnterprise-HubConsumer-ChatOllama-IntegrationChatGPT-Klon
Multi-ModellJa (auto-routing)JaJa (Ollama)Ja
Assistenten-SharingJaBegrenztNeinNein
Agenten-IntegrationJaPlugin-basiertBegrenztNein
SSO/RBACJaBegrenztJaJa
Audit-TrailJa (exportierbar)NeinJa (Logging)Begrenzt

very-ai

very-ai ist Gosigns Open-Source Enterprise-AI-Portal. Es wurde speziell für den Enterprise-Einsatz entwickelt und kombiniert alle sechs Anforderungen in einer integrierten Plattform. Die Architektur basiert auf Supabase (Backend) und Next.js (Frontend). Deployment ist als Cloud-Dienst oder Self-Hosted möglich. Das Besondere: very-ai integriert nicht nur Chat, sondern auch Assistenten-Sharing und Agenten-Hub in einem einheitlichen Interface. Mitarbeitende sehen eine einzige Oberfläche, über die sie chatten, Assistenten nutzen und Agenten-Workflows anstoßen können.

LobeChat

LobeChat ist ein optisch ansprechendes Chat-Interface mit Plugin-Architektur. Die Stärke liegt in der Consumer-Nutzung und der Plugin-Vielfalt. Für Enterprise fehlen robustes RBAC, exportierbarer Audit-Trail und native Agenten-Integration. Als schneller Prototyp oder für kleine Teams geeignet, für den unternehmensweiten Rollout zu limitiert.

OpenWebUI

OpenWebUI ist der De-facto-Standard für Ollama-basierte Self-Hosting-Setups. Die Integration mit lokal laufenden Modellen ist hervorragend. SSO und grundlegendes Logging sind vorhanden. Was fehlt: Assistenten-Sharing, Enterprise-Agenten-Integration und eine zentrale Verwaltung für mehrere Hundert Nutzer.

LibreChat

LibreChat ist ein Open-Source-Klon der ChatGPT-Oberfläche mit Multi-Modell-Unterstützung. SSO und grundlegendes RBAC sind implementiert. Für Unternehmen, die eine ChatGPT-ähnliche Erfahrung intern abbilden wollen, ist LibreChat ein solider Ausgangspunkt. Die Grenzen liegen bei Agenten-Integration und Assistenten-Sharing.

Warum „nur ein Chat” nicht reicht

Der Unterschied zwischen einem Chat-Interface und einem Enterprise-AI-Portal wird im Betrieb deutlich. Ein Vergleich:

AspektChat-InterfaceEnterprise-AI-Portal
NutzungIndividuelle Frage-AntwortOrganisationsweites Werkzeug
WissenJeder Nutzer startet bei nullAssistenten bündeln Fachwissen
KontrolleDer Nutzer entscheidet, was er eingibtRouting und RBAC steuern den Datenfluss
NachvollziehbarkeitKeine oder begrenztVollständiger Audit-Trail
IntegrationStandaloneAngebunden an SSO, Agenten, Dokumentensysteme
SkalierungPro NutzerPro Organisation
Shadow-AI-RisikoHoch (unzureichendes internes Angebot)Gering (besseres internes Angebot)

Die zentrale Erkenntnis: Shadow AI entsteht nicht, weil Mitarbeitende böswillig sind. Sie entsteht, weil das interne Angebot schlechter ist als die öffentliche Alternative. Wenn das interne Portal genauso intuitiv ist wie ChatGPT, aber zusätzlich spezialisierte Assistenten, Zugriff auf Unternehmensdokumente und Agenten-Workflows bietet, gibt es keinen Grund mehr, auf externe Dienste auszuweichen.

Praxis: Ein Mittelständler mit 2.000 Mitarbeitenden

Ein konkretes Beispiel zeigt die Wirkung. Ein produzierender Mittelständler mit 2.000 Mitarbeitenden hatte folgende Ausgangslage:

Vor dem Portal: Eine interne Umfrage ergab, dass 340 Mitarbeitende regelmäßig öffentliche KI-Dienste für Arbeitsaufgaben nutzten. Davon 180 mit kostenlosen Accounts (ohne AVV), 120 mit privaten Pro-Accounts (Unternehmensdaten in privaten Accounts) und 40 mit vom Unternehmen bereitgestellten Accounts (aber ohne Audit-Trail oder Zugriffskontrolle). Die IT-Abteilung hatte keine Übersicht, welche Daten in welche Systeme flossen.

Rollout des Enterprise-AI-Portals: In vier Wochen wurde very-ai ausgerollt – angebunden an Azure AD für SSO, mit drei initialen Assistenten (Rechtsabteilung, HR, Einkauf) und einem gpt-oss-120b-Endpunkt für vertrauliche Daten.

Nach 90 Tagen:

  • 15 spezialisierte Assistenten, erstellt von Fachabteilungen
  • 1.200 aktive Nutzer pro Monat (von 2.000 Mitarbeitenden)
  • Shadow-AI-Nutzung um 85 % gesunken (Folge-Umfrage)
  • Vollständiger Audit-Trail: 47.000 protokollierte Interaktionen
  • Identifikation von drei Prozessen, für die dedizierte Agenten-Workflows sinnvoll waren
  • Gesamtkosten (Portal + Hosting + Cloud-APIs): ca. 4.800 € pro Monat

Der entscheidende Faktor war nicht die Technologie, sondern die Adoption. Das Portal wurde angenommen, weil es besser war als die Alternative – nicht weil es vorgeschrieben wurde.

Die fünf Erfolgsfaktoren beim Rollout

Aus der Praxis lassen sich fünf Faktoren ableiten, die über Erfolg oder Misserfolg eines Enterprise-AI-Portals entscheiden:

1. Erster Eindruck zählt. Wenn das interne Portal langsamer, umständlicher oder weniger leistungsfähig ist als ChatGPT, werden Mitarbeitende es nach dem ersten Versuch nicht wieder nutzen. Die Antwortqualität muss vom ersten Tag an auf dem Niveau der öffentlichen Dienste liegen.

2. Assistenten statt Prompts. Die meisten Mitarbeitenden sind keine Prompt-Engineers. Sie wollen ein Werkzeug nutzen, nicht konfigurieren. Spezialisierte Assistenten, die von Fachkollegen vorbereitet wurden, senken die Einstiegshürde erheblich.

3. Sichtbarer Mehrwert. Das Portal muss etwas bieten, was die öffentlichen Dienste nicht können: Zugriff auf interne Dokumente (via RAG), spezialisierte Assistenten für unternehmensspezifische Aufgaben, Integration in bestehende Workflows.

4. IT-Ownership, nicht IT-Kontrolle. Die IT-Abteilung betreibt das Portal und setzt die Governance-Regeln. Aber die Fachabteilungen erstellen ihre Assistenten selbst. Diese Verteilung – Infrastruktur zentral, Inhalte dezentral – hat sich als erfolgreichstes Modell erwiesen.

5. Messen und kommunizieren. Nutzungszahlen, eingesparte Zeit, reduzierte Shadow-AI-Nutzung – diese Kennzahlen müssen erhoben und an die Geschäftsführung kommuniziert werden. Ohne messbare Ergebnisse fehlt die Grundlage für die nächste Ausbaustufe.

Nächster Schritt: Vom Portal zum Agenten

Das Enterprise-AI-Portal ist die Grundlage. Es gibt Mitarbeitenden Zugang zu KI, kontrolliert und protokolliert. Der nächste Schritt ist die Integration von Agenten – spezialisierten Workflows, die über einfache Frage-Antwort-Interaktionen hinausgehen. Wie Sie Agenten im Enterprise-Kontext einsetzen, welche Architektur dafür nötig ist und wo die Grenzen liegen, behandelt ein weiterer Artikel dieser Serie.


Weiterführend: KI-Infrastruktur | Decision Layer & Shadow AI


📘 Enterprise AI-Infrastruktur Blueprint 2026 – Artikel-Serie

← VorherigerÜbersichtNächster →
KI-Hosting: EU-SaaS, deutsches RZ oder Self-Hosted?Zur ÜbersichtRAG & Document Intelligence: Wie KI Ihre Dokumente versteht

Alle Artikel dieser Serie: Enterprise AI-Infrastruktur Blueprint 2026


very-ai ist Gosigns Open-Source Enterprise-AI-Portal. Mehr erfahren – oder direkt mit uns sprechen, welche Konfiguration für Ihre Organisation passt.

Termin vereinbaren – Wir zeigen Ihnen very-ai in einer Live-Demo und besprechen Ihren Rollout-Plan.

Enterprise AI Portal LobeChat OpenWebUI LibreChat very-ai Chat Interface Shadow AI Open Source
Artikel teilen

Häufige Fragen

Was ist der Unterschied zwischen einem Chat-Interface und einem Enterprise-AI-Portal?

Ein Chat-Interface ermöglicht Frage-Antwort-Dialoge. Ein Enterprise-AI-Portal bietet zusätzlich: Assistenten-Sharing (Fachabteilungen erstellen spezialisierte Assistenten), Agenten-Integration (Workflows anstoßen, Dokumente verarbeiten), SSO/RBAC, und vollständigen Audit-Trail.

Welche Open-Source-AI-Interfaces gibt es?

Die vier produktionsreifen Open-Source-Interfaces sind LobeChat (Plugin-Ökosystem, Cloud-API-fokussiert), OpenWebUI (Ollama-Integration, lokale Modelle, integrierte RAG-Pipeline), LibreChat (Multi-Provider ChatGPT-Alternative) und very-ai (Assistenten-Sharing, Agenten-Hub).

Wie verhindert ein Enterprise-AI-Portal Shadow AI?

Indem es Mitarbeitern ein besseres, kontrolliertes Tool bietet als öffentliche KI-Dienste. Wenn das interne Portal genauso gut funktioniert wie ChatGPT, aber unter Unternehmenskontrolle läuft, sinkt die Shadow-AI-Nutzung erfahrungsgemäß um über 80%.

Welcher Prozess soll Ihr erster Agent übernehmen?

Sprechen Sie mit uns über einen konkreten Use Case.

Termin vereinbaren