Zum Inhalt springen
Governance & Compliance

Decision Layer & Shadow AI: Kontrolle statt Kontrollverlust

Wie der Decision Layer Analyse von Entscheidung trennt – und warum das Shadow AI löst, Betriebsräte überzeugt und Skalierung ermöglicht.

Gosign 11 Min. Lesezeit

Zwei Probleme. Eine Architektur.

Shadow AI und fehlende Governance sind die beiden größten Hindernisse für den skalierten KI-Einsatz in Unternehmen 2026. Das erste Problem: Mitarbeitende nutzen öffentliche KI-Tools unkontrolliert, weil das Unternehmen keine Alternative bietet. Das zweite Problem: Selbst wenn das Unternehmen KI bereitstellt, fehlt die Architektur, die Analyse von Entscheidung trennt.

Der Decision Layer löst beide Probleme. Er ist die Governance-Schicht, die definiert, wer was entscheiden darf — Mensch, Regelwerk oder KI. Und er ist gleichzeitig die Grundlage dafür, Mitarbeitenden ein kontrolliertes KI-Angebot zu machen, das besser ist als die öffentlichen Alternativen.

Dieser Artikel beschreibt, warum Shadow AI das Risiko der Stunde ist, wie der Decision Layer funktioniert, welche Rolle die Datenklassifizierung spielt und warum ohne diese Architektur weder Betriebsrat noch Wirtschaftsprüfer noch Vorstand einer KI-Skalierung zustimmen werden.

Shadow AI — das unterschätzte Risiko

Shadow AI ist die Shadow IT von 2026. Der Begriff beschreibt die unkontrollierte Nutzung öffentlicher KI-Dienste durch Mitarbeitende — ohne Wissen der IT-Abteilung, ohne Governance, ohne Audit Trail.

Die Realität in den meisten Unternehmen: Mitarbeitende nutzen öffentliche KI-Tools für ihre tägliche Arbeit. Sie lassen E-Mails formulieren, Berichte zusammenfassen, Verträge analysieren, Präsentationen erstellen. Nicht aus Böswilligkeit, sondern weil diese Tools produktiver machen. Und weil das Unternehmen keine gleichwertige Alternative bietet.

Das Problem ist nicht die Nutzung an sich. Das Problem ist, was dabei geschieht:

Datenabfluss. Jede Eingabe in ein öffentliches KI-Tool verlässt das Unternehmensnetzwerk. Vertragsinhalte, Finanzdaten, Personalinformationen, strategische Planungen — alles, was in den Prompt eingegeben wird, liegt außerhalb Ihrer Kontrolle.

Keine Nachvollziehbarkeit. Welcher Mitarbeitende hat welche Daten an welches Tool übergeben? Niemand weiß es. Es gibt keinen Audit Trail, keine Protokollierung, keine Möglichkeit der nachträglichen Prüfung.

Keine Qualitätskontrolle. Die Ergebnisse öffentlicher KI-Tools werden in Geschäftsentscheidungen einbezogen, ohne dass erkennbar ist, auf welcher Grundlage sie entstanden sind. Ein Vertragsentwurf, der teilweise von einer KI stammt — wer prüft die Klauseln?

DSGVO-Risiko. Personenbezogene Daten, die an öffentliche KI-Dienste übermittelt werden, können einen meldepflichtigen Datenschutzvorfall darstellen. Nicht theoretisch, sondern nach aktueller Rechtsauslegung.

Die Lösung ist nicht Verbot. Verbote scheitern in der Praxis — sie werden umgangen, ignoriert oder unterlaufen. Die Lösung ist ein besseres Angebot: ein internes KI-Portal, das funktional mindestens gleichwertig ist, aber mit Governance, Datenschutz und Audit Trail ausgestattet. Wie ein solches Portal aussieht, beschreibt der Artikel Enterprise-AI-Portal: Mehr als nur ein Chat-Interface.

Der Decision Layer — Analyse ist nicht Entscheidung

Der Decision Layer ist das Architekturprinzip, das Analyse von Entscheidung trennt. Ein KI-Modell kann analysieren: Daten zusammenfassen, Muster erkennen, Wahrscheinlichkeiten berechnen, Empfehlungen aussprechen. Aber die Entscheidung, ob und wie auf diese Analyse reagiert wird, ist eine separate Frage — und diese Frage beantwortet der Decision Layer.

Das Prinzip: Jeder Geschäftsprozess wird in Mikro-Entscheidungen zerlegt. Für jede einzelne Mikro-Entscheidung ist vorab definiert, wer entscheidet:

Eingehender Vorgang

   ┌──────────┐
   │ Decision  │
   │  Layer    │
   └──────────┘
   ┌────┼────────────┐
   ▼    ▼            ▼
 REGEL   KI        MENSCH

REGEL: Deterministische Entscheidungen, die immer gleich ausfallen. Fristprüfungen, Tarifanwendungen, Buchungslogik, Schwellenwerte. Das Regelwerk ist versioniert — jede Änderung erzeugt eine neue Version, die alte bleibt nachvollziehbar.

KI: Entscheidungen, bei denen das Modell innerhalb definierter Grenzen autonom handeln darf. Standardklassifizierungen, Routinekommunikation aus geprüften Vorlagen, eindeutige Zuordnungen. Nur bei hoher Konfidenz und niedrigem Risiko.

MENSCH: Ermessensentscheidungen, Ausnahmen, Fälle mit Diskriminierungspotenzial, Entscheidungen oberhalb definierter Wertgrenzen, alle Fälle in denen der Betriebsrat Mitbestimmung verlangt.

Vier Prinzipien machen den Decision Layer wirksam:

Explizite, versionierte Regeln. Jede Entscheidungsregel hat eine ID, eine Version, ein Gültigkeitsdatum und einen Geltungsbereich. Wenn sich eine Betriebsvereinbarung ändert, entsteht eine neue Regelversion. Bei einer Prüfung ist nachvollziehbar, welche Regel zum Entscheidungszeitpunkt galt.

Architektonisch erzwungener Human-in-the-Loop. Bei definierten Entscheidungstypen kann das System nicht ohne menschliche Freigabe fortfahren. Das ist technisch durchgesetzt, nicht organisatorisch vereinbart. Ein Agent kann diese Prüfung nicht umgehen, weil die Architektur es nicht zulässt — nicht weil eine Policy es verbietet.

Audit Trail pro Mikro-Entscheidung. Jede einzelne Mikro-Entscheidung erzeugt einen unveränderlichen Protokolleintrag: Input, angewandte Regel, Konfidenzwert, Routing-Entscheidung, Ergebnis, Zeitstempel. Das ist keine nachträgliche Dokumentation — es ist die technische Aufzeichnung der Entscheidungsfindung.

Betriebsvereinbarungen als Systemconstraints. Anforderungen des Betriebsrats werden nicht als organisatorische Richtlinien umgesetzt, sondern als technische Regeln im Decision Layer. Das System kann die Betriebsvereinbarung nicht umgehen, weil sie Teil der Systemlogik ist. Der Betriebsrat kann jede Entscheidung im Audit Trail nachvollziehen.

Datenklassifizierung als Grundlage

Bevor der Decision Layer wirksam werden kann, muss eine grundlegende Frage beantwortet sein: Welche Daten dürfen von welchem KI-Modell verarbeitet werden? Die Antwort liefert ein vierstufiges Klassifizierungsschema:

StufeBezeichnungBeispieleErlaubte KI-Verarbeitung
1ÖffentlichPressemitteilungen, Website-InhalteAlle Modelle, einschließlich öffentlicher APIs
2InternPräsentationen, Prozessdokumente, interne RichtlinienEU-Cloud oder self-hosted Modelle
3VertraulichHR-Daten, Finanzdaten, Verträge, KundendatenNur self-hosted oder mit PII-Anonymisierung
4Streng vertraulichM&A-Unterlagen, Patente, VorstandskommunikationNur On-Premises, kein Cloud-Modell

Die Klassifizierung bestimmt automatisch das Model-Routing. Wenn ein Mitarbeitender eine Frage zu einem Vertrag stellt (Stufe 3), routet das System die Anfrage automatisch an ein self-hosted Modell oder anonymisiert die Daten vor der Übergabe. Ein öffentliches Modell kommt für Stufe-3-Daten nicht in Frage — und die Architektur stellt sicher, dass das technisch nicht möglich ist, nicht nur organisatorisch untersagt.

Die Datenklassifizierung ist keine einmalige Aufgabe. Sie muss in bestehende Prozesse integriert werden: Jedes neue Dokument, jede neue Datenquelle, jeder neue Prozess erhält eine Klassifizierung. Im Idealfall geschieht das automatisiert — auf Basis von Dokumenttyp, Inhaltserkennung und organisatorischer Zuordnung.

Ohne Datenklassifizierung fehlt die Grundlage für jede weitere Governance-Maßnahme. Sie ist die erste Entscheidung, die getroffen werden muss — noch vor der Modellauswahl, noch vor dem Aufbau der Infrastruktur.

Die fünf Säulen der KI-Governance

Die Datenklassifizierung ist das Fundament. Darauf bauen fünf Säulen auf, die zusammen eine vollständige KI-Governance bilden:

1. Zugriffskontrolle. Wer darf welche KI-Funktionen nutzen? Welche Assistenten, welche Wissensbasen, welche Agenten stehen welchen Rollen zur Verfügung? Die Zugriffskontrolle bildet die bestehende Organisationsstruktur ab: HR sieht HR-Assistenten, Finance sieht Finance-Assistenten. SSO-Integration stellt sicher, dass keine separaten Zugänge verwaltet werden müssen.

2. Audit & Logging. Jede Interaktion mit dem KI-System wird protokolliert. Nicht zur Überwachung von Mitarbeitenden, sondern zur Nachvollziehbarkeit von Geschäftsentscheidungen. Wer hat wann welche Frage gestellt? Welches Modell hat geantwortet? Auf Basis welcher Quellen? Der Audit Trail ist die Grundlage für interne Revision, Wirtschaftsprüfung und Compliance-Nachweise. Die Governance-Referenzarchitektur beschreibt die technische Umsetzung im Detail.

3. Human Oversight. Die Architektur definiert, wo menschliche Prüfung erforderlich ist. Das ist keine generische Anforderung — es ist eine differenzierte Entscheidung pro Mikro-Entscheidung. Routineklassifizierungen brauchen keinen menschlichen Prüfer. Personalentscheidungen mit Diskriminierungspotenzial brauchen immer einen. Die Granularität dieser Differenzierung unterscheidet eine wirkungsvolle Governance von einer bürokratischen.

4. Qualitätssicherung. KI-Ergebnisse müssen überprüft werden — nicht jedes einzelne, aber systematisch. Stichproben, Nutzerfeedback, automatisierte Evaluierung. Halluziniert das Modell? Sind die Quellenverweise korrekt? Stimmen die Regelanwendungen? Qualitätssicherung ist ein laufender Prozess, kein einmaliger Test.

5. Compliance & Reporting. Der EU AI Act verlangt ab August 2026 technische Dokumentation, Risikoklassifizierung und Conformity Assessment für Hochrisiko-KI-Systeme. Die KI-Governance muss diese Anforderungen von Anfang an abbilden — nicht nachträglich ergänzen. Regelmäßige Reports zu Nutzung, Modell-Performance, Entscheidungsqualität und Compliance-Status sind die Grundlage für die Steuerung durch das Management.

Warum der Decision Layer der Schlüssel zur Skalierung ist

Unternehmen, die KI skalieren wollen — von einem Pilotprojekt zu zehn produktiven Agenten, von einer Abteilung auf die gesamte Organisation —, stoßen ohne Decision Layer an eine harte Grenze. Nicht technisch, sondern organisatorisch.

Der Betriebsrat wird nicht zustimmen. In Deutschland haben Betriebsräte Mitbestimmungsrechte bei der Einführung von KI-Systemen, die Arbeitnehmerverhalten überwachen oder Entscheidungen über Arbeitnehmer treffen. Ohne nachvollziehbare Entscheidungslogik, ohne dokumentierten Human-in-the-Loop, ohne Betriebsvereinbarungen als Systemconstraints wird kein Betriebsrat seine Zustimmung geben. Der Decision Layer liefert genau die Transparenz und Steuerbarkeit, die der Betriebsrat verlangt.

Die interne Revision wird nicht freigeben. Wirtschaftsprüfer und interne Revision brauchen Nachvollziehbarkeit. Wenn ein KI-Agent Buchungen erzeugt, Verträge bewertet oder Personalentscheidungen vorbereitet, muss der Entscheidungspfad prüfbar sein. Ohne Audit Trail ist jede Agenten-Entscheidung ein Prüfungsrisiko. Der Decision Layer erzeugt automatisch die Evidence, die Prüfer benötigen.

Der Vorstand wird kein Budget freigeben. Pilotprojekte werden mit Innovationsbudgets finanziert. Skalierung erfordert Investitionsbudgets — und die brauchen einen Business Case mit belastbaren Zahlen. Der Decision Layer liefert die Daten: Durchlaufzeiten, Fehlerquoten, Kosten pro Vorgang, Eskalationsraten. Ohne diese Daten bleibt KI ein Kostenblock ohne nachweisbaren Return.

Die Reihenfolge ist nicht verhandelbar: Erst Governance, dann Skalierung. Nicht umgekehrt.

Cookieless und Privacy by Design

Ein Enterprise-AI-Portal sollte nicht nur die Daten der Nutzeranfragen schützen, sondern auch die Nutzung selbst. Das bedeutet: kein Tracking, keine Analytics-Cookies, keine Verhaltensanalyse.

SSO statt separater Accounts. Mitarbeitende authentifizieren sich über das bestehende Identity-Management des Unternehmens. Keine separaten Passwörter, keine separaten Nutzerprofile bei einem Drittanbieter.

Keine Tracking-Cookies. Das interne AI-Portal verwendet keine Cookies zur Verhaltensanalyse. Nutzungsdaten werden ausschließlich für den Audit Trail erhoben — nicht für Marketing, nicht für Produktoptimierung durch Dritte, nicht für Profiling.

Nutzungsdaten nur für Audit. Welcher Mitarbeitende welche Anfrage gestellt hat, wird protokolliert — aber ausschließlich für Governance-Zwecke: Nachvollziehbarkeit, Compliance, Qualitätssicherung. Der Zugriff auf diese Daten ist auf berechtigte Rollen beschränkt (IT-Sicherheit, Datenschutzbeauftragter, Revision). Die Führungskraft sieht keine individuellen Anfragen ihrer Mitarbeitenden.

Privacy by Design. Die Datenschutzanforderungen sind in die Architektur eingebaut, nicht nachträglich ergänzt. PII-Anonymisierung, Datenklassifizierung, Model-Routing — all diese Mechanismen greifen automatisch, basierend auf der Klassifizierung der Daten, nicht auf der Disziplin der Nutzenden.

Dieser Ansatz überzeugt nicht nur den Datenschutzbeauftragten, sondern auch den Betriebsrat: Das System überwacht keine Mitarbeitenden. Es dokumentiert Geschäftsentscheidungen.


📘 Enterprise AI-Infrastruktur Blueprint 2026 – Artikel-Serie

← VorherigerÜbersichtNächster →
Von Chatbots zu AI-Agenten: MCP, A2A und Multi-Agent-SystemeZur ÜbersichtWas KI wirklich kostet: TCO-Vergleich für Unternehmen

Alle Artikel dieser Serie: Enterprise AI-Infrastruktur Blueprint 2026


Decision Layer ist Gosigns zentrale Governance-Komponente. Modell-agnostisch, betriebsratskompatibel, mit vollständigem Audit Trail. Mehr zur Governance-Architektur.

Termin vereinbaren — 30 Minuten, in denen wir klären, wie ein Decision Layer für Ihre Prozesse aussieht und wie Shadow AI in Ihrem Unternehmen kontrolliert adressiert werden kann.

Decision Layer Shadow AI KI Governance Human-in-the-Loop Audit Trail Datenklassifizierung
Artikel teilen

Häufige Fragen

Was ist Shadow AI?

Shadow AI ist die unkontrollierte Nutzung öffentlicher KI-Tools wie ChatGPT, Claude oder Perplexity durch Mitarbeiter – ohne Wissen der IT, ohne Governance, ohne Audit-Trail. Unternehmensdaten verlassen unkontrolliert das Netzwerk.

Was ist der Decision Layer?

Der Decision Layer ist eine Governance-Schicht, die jeden Geschäftsprozess in Mikro-Entscheidungen zerlegt und für jede definiert: Entscheidet ein Mensch, greift ein Regelwerk, oder darf die KI autonom handeln. Jede Entscheidung wird dokumentiert.

Wie hilft der Decision Layer beim Betriebsrat?

Der Decision Layer macht transparent, was die KI entscheidet und wann ein Mensch eingreift. Betriebsvereinbarungen werden als technische Regeln implementiert, die das System nicht umgehen kann. Der Betriebsrat kann jede Entscheidung nachvollziehen.

Was ist Datenklassifizierung im KI-Kontext?

Ein vierstufiges Schema: Öffentlich (alle Modelle), Intern (EU-Cloud oder self-hosted), Vertraulich (nur self-hosted oder anonymisiert), Streng vertraulich (nur On-Premises). Die Klassifizierung bestimmt automatisch das Model-Routing.

Welcher Prozess soll Ihr erster Agent übernehmen?

Sprechen Sie mit uns über einen konkreten Use Case.

Termin vereinbaren