Betriebsrat & AI Literacy: Die Organisationsfragen
Warum KI-Projekte an Organisation scheitern, nicht an Technologie. Mitbestimmung als Designanforderung und Schulungspflicht seit 2025.
Technik ist selten das Problem
Wenn KI-Projekte in Unternehmen scheitern, liegt das in den seltensten Fällen an der Technologie. Die Modelle funktionieren. Die APIs sind stabil. Die Infrastruktur ist verfügbar. Was scheitert, ist die Organisation: Der Betriebsrat blockiert die Einführung, weil er zu spät informiert wurde. Mitarbeitende nutzen die neuen Werkzeuge nicht, weil sie nicht geschult wurden.
Dieser Artikel behandelt die zwei Organisationsfragen, die jede KI-Einführung begleiten: Wie gewinnen Sie den Betriebsrat als Unterstützer? Und wie erfüllen Sie die gesetzliche AI-Literacy-Pflicht?
Betriebsrat und Mitbestimmung — vom Blocker zum Enabler
Warum der Betriebsrat mitbestimmen muss
In deutschen Unternehmen hat der Betriebsrat bei jeder technischen Einrichtung, die geeignet ist, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen, ein Mitbestimmungsrecht nach § 87 Abs. 1 Nr. 6 BetrVG. KI-Systeme fallen fast immer darunter: Sie verarbeiten Nutzungsdaten, protokollieren Interaktionen, und ihre Entscheidungen betreffen direkt oder indirekt die Arbeitsbedingungen.
Das ist kein Hindernis, sondern ein Gestaltungsrahmen. Der Betriebsrat hat nicht das Recht, KI zu verhindern — er hat das Recht, die Bedingungen ihrer Einführung mitzugestalten. Das ist ein Unterschied, der in der Praxis oft übersehen wird.
Das Problem entsteht nicht durch die Mitbestimmung selbst, sondern durch den Zeitpunkt, zu dem der Betriebsrat einbezogen wird. In den meisten gescheiterten KI-Projekten wird der Betriebsrat erst informiert, wenn die technische Entscheidung bereits gefallen ist. Er erhält eine Präsentation mit fertigen Ergebnissen, hat keine Möglichkeit, die Architektur zu beeinflussen, und reagiert mit dem einzigen Mittel, das ihm bleibt: Ablehnung.
Architektur als Antwort
Die Fragen des Betriebsrats sind berechtigt und vorhersehbar: Welche Daten verarbeitet das KI-System? Wer hat Zugriff? Werden Leistungsdaten erfasst? Wer trifft die finale Entscheidung — die KI oder ein Mensch? Können Entscheidungen nachvollzogen werden?
Ein Decision Layer beantwortet diese Fragen technisch, nicht nur in einer Betriebsvereinbarung auf Papier. Die Architekturschicht definiert:
- Entscheidungsgrenzen: Was darf die KI vorbereiten, was entscheidet ein Regelwerk, was muss ein Mensch freigeben.
- Human-in-the-Loop: Technisch erzwungene menschliche Freigabe bei definierten Entscheidungsklassen. Kein Mensch kann umgangen werden, weil die Architektur es nicht zulässt.
- Audit-Trail: Jede KI-Entscheidung wird protokolliert — welches Modell, welche Eingabe, welche Ausgabe, welche Regel angewendet, ob ein Mensch beteiligt war.
- Zugriffssteuerung (RBAC): Rollenbasierte Zugriffsrechte verhindern, dass Unbefugte auf sensible Daten oder Funktionen zugreifen.
Betriebsvereinbarungen als System-Constraints
Der entscheidende Vorteil einer durchdachten KI-Architektur: Betriebsvereinbarungen werden nicht nur auf Papier festgehalten, sondern als technische Regeln im System implementiert.
Erstens: Firmenvereinbarungen als konfigurierbare Regelwerke. Was in der Betriebsvereinbarung steht — etwa „Leistungsdaten dürfen nicht ohne Einwilligung des Mitarbeitenden ausgewertet werden” — wird als Constraint im Decision Layer implementiert. Das System kann die Vereinbarung nicht umgehen, weil die Regel technisch durchgesetzt wird.
Zweitens: Transparenz durch lückenlosen Audit-Trail. Der Betriebsrat kann jederzeit nachvollziehen, welche Entscheidungen das KI-System getroffen hat, auf welcher Grundlage und ob menschliche Freigaben erteilt wurden. Keine Blackbox, keine Vertrauensfrage.
Drittens: RBAC verhindert unkontrollierten Zugriff. Nur definierte Rollen haben Zugriff auf bestimmte KI-Funktionen. Ein Teamleiter kann den Chatbot nutzen, aber nicht die Leistungsanalyse. Ein HR-Manager kann die Leistungsanalyse einsehen, aber nicht die Rohdaten exportieren. Die Rechte sind granular konfigurierbar.
Viertens: Kein Profiling ohne explizite Genehmigung. Die Architektur stellt technisch sicher, dass personenbezogene Auswertungen nur mit expliziter Genehmigung — konfiguriert im Regelwerk — durchgeführt werden können.
Praxis-Empfehlung: Der Architektur-Workshop
Laden Sie den Betriebsrat zum Architektur-Workshop ein — nicht zum Ergebnis-Meeting. Ein halber Tag, an dem der Betriebsrat versteht, wie der Decision Layer funktioniert, welche Daten verarbeitet werden und wie Betriebsvereinbarungen technisch umgesetzt werden, spart Monate an Verhandlungen.
Die Erfahrung zeigt: Wenn der Betriebsrat die Architektur versteht und sieht, dass seine Anliegen nicht nur gehört, sondern technisch implementiert werden, wird er vom potenziellen Blocker zum aktiven Unterstützer. Der Betriebsrat will nicht KI verhindern. Er will sicherstellen, dass die Rechte der Beschäftigten gewahrt bleiben. Eine transparente Architektur gibt ihm genau diese Sicherheit.
AI Literacy — gesetzliche Pflicht seit Februar 2025
Die rechtliche Grundlage
Artikel 4 des EU AI Act verpflichtet alle Anbieter und Betreiber von KI-Systemen, dafür zu sorgen, dass ihre Mitarbeitenden über ein ausreichendes Maß an KI-Kompetenz verfügen. Die Pflicht gilt seit dem 2. Februar 2025 und betrifft jedes Unternehmen, das KI einsetzt — unabhängig von der Größe und unabhängig von der Risikoklasse des KI-Systems.
Die Formulierung „ausreichendes Maß an KI-Kompetenz” ist bewusst offen gehalten. Sie muss kontextangemessen interpretiert werden: Ein Vorstandsmitglied, das über den Einsatz eines KI-Systems entscheidet, braucht andere Kompetenzen als ein Sachbearbeiter, der einen Chatbot nutzt. Aber beide brauchen Kompetenzen. Und beide Kompetenzen müssen dokumentiert sein.
Sanktionen: Verstöße gegen die AI-Literacy-Pflicht fallen unter die allgemeinen Sanktionsbestimmungen des EU AI Act. Die Höchststrafen betragen bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes. In der Praxis ist davon auszugehen, dass bei reinen Literacy-Verstößen zunächst Verwarnungen und Anordnungen ausgesprochen werden — aber die rechtliche Grundlage für empfindliche Strafen besteht.
Wer muss geschult werden?
Alle Personen, die KI-Systeme in irgendeiner Form nutzen, betreiben oder darüber entscheiden. Das umfasst:
- Vorstand und Geschäftsführung (Entscheidungsverantwortung)
- Abteilungsleiter und Teamleads (Nutzungsverantwortung)
- Fachkräfte und Sachbearbeiter (operative Nutzung)
- IT und Entwicklung (technischer Betrieb)
- Betriebsrat (Mitbestimmungsverantwortung)
Was muss geschult werden?
Die Inhalte müssen kontextangemessen sein. Als Minimum empfehlen sich vier Kompetenzfelder:
- Grundverständnis der KI-Funktionsweise: Wie funktioniert ein Sprachmodell? Was ist der Unterschied zwischen Analyse und Entscheidung? Was kann KI, was kann sie nicht?
- Erkennung von Halluzinationen: Sprachmodelle generieren plausibel klingende, aber faktisch falsche Aussagen. Nutzer müssen in der Lage sein, Ergebnisse kritisch zu prüfen.
- Verantwortungsvoller Umgang: Welche Daten dürfen eingegeben werden? Welche nicht? Was passiert mit den Eingaben? Wo liegen die Grenzen der Nutzung?
- Datenschutz: Welche personenbezogenen Daten dürfen verarbeitet werden? Welche Einwilligungen sind erforderlich? Welche Daten verlassen das Unternehmensnetzwerk?
Wie weisen Sie Compliance nach?
Der EU AI Act verlangt den Nachweis, dass Schulungen stattgefunden haben. Das bedeutet:
- Dokumentation der Schulungsinhalte und -materialien
- Teilnehmerlisten mit Datum und Unterschrift
- Regelmäßige Auffrischung (empfohlen: jährlich, bei wesentlichen Systemänderungen anlassbezogen)
- Differenzierung nach Rollen und Verantwortlichkeiten
Ein pauschales 30-Minuten-Webinar erfüllt die Anforderungen nicht. Die Schulung muss rollenbezogen sein, die spezifischen KI-Systeme des Unternehmens adressieren und interaktive Elemente enthalten, die das Verständnis überprüfbar machen.
Praxis-Empfehlung: Enterprise-AI-Portal als Kompetenzentwicklung
Das Enterprise-AI-Portal ist nicht nur ein Produktivitätswerkzeug — es ist auch das effektivste Instrument für den Kompetenzaufbau. Mitarbeitende, die täglich mit einem kontrollierten KI-System arbeiten, entwickeln die in der AI-Literacy-Pflicht geforderten Kompetenzen durch die Praxis: Sie lernen, Ergebnisse kritisch zu prüfen. Sie verstehen, welche Eingaben gute Ergebnisse liefern und welche nicht. Sie entwickeln ein Gespür für die Grenzen der Technologie.
Das ersetzt keine formale Schulung. Aber es ergänzt sie um den wichtigsten Faktor: tägliche Anwendung. Ein Unternehmen, das seinen Mitarbeitenden ein gutes internes KI-Portal zur Verfügung stellt, investiert gleichzeitig in Compliance (AI-Literacy-Pflicht) und Produktivität.
Fazit: Organisation entscheidet
Die zwei Organisationsfragen — Mitbestimmung und Kompetenz — sind keine Nebenaspekte der KI-Einführung. Sie sind die Hauptaspekte. Die Technologie ist verfügbar, bezahlbar und leistungsfähig. Die Frage ist, ob Ihre Organisation in der Lage ist, sie zu nutzen.
Ein Betriebsrat, der die Architektur versteht, wird zum Unterstützer. Mitarbeitende, die geschult sind, nutzen die Werkzeuge produktiv. Und eine Organisation, die beide Fragen proaktiv beantwortet, gewinnt einen Wettbewerbsvorteil, den kein Modell-Upgrade ersetzen kann.
Weiterführend: Decision Layer | Governance | HR & AI Agents | Decision Layer & Shadow AI
📘 Enterprise AI-Infrastruktur Blueprint 2026 – Artikel-Serie
| ← Vorheriger | Übersicht | Nächster → |
|---|---|---|
| EU AI Act 2026: Was jetzt gilt, was kommt, was Sie tun müssen | Zur Übersicht | Agent-Orchestrierung: n8n, Camunda und Alternativen |
Alle Artikel dieser Serie: Enterprise AI-Infrastruktur Blueprint 2026
Gosign begleitet Unternehmen bei den organisatorischen Fragen der KI-Einführung — von der Betriebsratsverhandlung bis zum AI-Literacy-Programm. Wenn Sie wissen wollen, wie Sie Ihre Organisation vorbereiten, sprechen Sie mit uns.
Termin vereinbaren — 30 Minuten, in denen wir Ihre Organisationsfragen klären.