Compliance12 Min Lesezeit

Warum die meisten deutschen Unternehmen KI gerade illegal nutzen — und wie man es richtig macht

Jeden Tag passiert es millionenfach: Ein Mitarbeiter öffnet seinen Browser, ruft ChatGPT auf und gibt eine E-Mail eines Kunden ein — damit die KI antwortet. Ein anderer fügt einen Vertragsentwurf ein und bittet um eine Zusammenfassung. Eine Dritte lädt ein Transkript eines Verkaufsgesprächs hoch, um daraus Maßnahmen abzuleiten. Alle drei handeln gut gemeint. Alle drei handeln nach aktuellem Rechtsstand mit hoher Wahrscheinlichkeit illegal.

Der blinde Fleck im deutschen Büroalltag

Das ist kein theoretisches Datenschutzproblem aus einem Seminar. Es ist die stille Realität in Tausenden deutschen Unternehmen — vom Mittelständler bis zum DAX-Konzern.

Was genau ist das Problem?

ChatGPT ist kein normales SaaS-Tool

Viele Unternehmen behandeln ChatGPT wie ein Textverarbeitungsprogramm. Dabei ist der Unterschied fundamental: Wenn Mitarbeitende Daten in ChatGPT eingeben, werden diese an die Server von OpenAI — einem US-amerikanischen Unternehmen — übertragen.

Das allein wäre noch handhabbar. Aber es kommen mehrere Probleme gleichzeitig zusammen:

1. Kein Auftragsverarbeitungsvertrag (AVV)

Die DSGVO schreibt in Art. 28 vor: Wer personenbezogene Daten an einen externen Dienstleister übergibt, braucht einen Auftragsverarbeitungsvertrag. Dieser Vertrag legt fest, wie der Anbieter die Daten schützt, was er damit tun darf und was nicht.

Die kostenlose ChatGPT-Version und die meisten Standard-Zugänge bieten keinen solchen AVV. Das bedeutet: Jede Eingabe personenbezogener Daten — Name, E-Mail-Adresse, Kundennummer, Gesundheitsdaten, Gehaltsangaben — ist ohne Rechtsgrundlage.

2. Datentransfer in die USA ohne ausreichende Absicherung

OpenAI ist nicht nach dem EU-US Data Privacy Framework zertifiziert. Das Framework ist die rechtliche Brücke, die Datentransfers in die USA seit 2023 erleichtert. Ohne diese Zertifizierung braucht es EU-Standardvertragsklauseln plus eine aufwändige Transfer Impact Assessment — Dokumente, die in den meisten Unternehmen schlicht nicht existieren.

3. Training mit Firmendaten

Solange das Training nicht explizit deaktiviert ist, kann OpenAI Eingaben zur Modellverbesserung nutzen. Das heißt: Wer ungeschützte Kundendaten eingibt, riskiert, dass diese Daten in zukünftige KI-Modelle einfließen. Was das für Vertraulichkeit und Geschäftsgeheimnisse bedeutet, liegt auf der Hand.

Wie verbreitet ist das wirklich?

Studien und Branchenberichte zeichnen ein deutliches Bild:

Das Muster ist immer gleich: Die Mitarbeitenden nutzen, was funktioniert. Die IT-Abteilung hat keine Kontrolle. Der Datenschutzbeauftragte erfährt es als Letzter.

Die Konsequenzen: Was droht wirklich?

Bußgelder nach DSGVO

Art. 83 DSGVO sieht Bußgelder von bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes vor — je nachdem, welcher Betrag höher ist. Kein theoretischer Wert: Die deutschen Datenschutzbehörden werden aktiver. Allein 2023 und 2024 gab es mehrere Millionenbußgelder gegen deutsche Unternehmen wegen unzureichender Drittstaatentransfers.

Schadensersatzansprüche von Betroffenen

Seit dem EuGH-Urteil vom Juni 2023 (C-300/21) können Betroffene auch ohne nachweisbaren materiellen Schaden Schadensersatz verlangen, wenn sie durch einen DSGVO-Verstoß einen immateriellen Nachteil erlitten haben. Kunden, Mitarbeiter, Geschäftspartner — sie alle könnten klagen.

Reputationsschäden

Ein Datenleck, ein Bericht in der Fachpresse, ein Hinweis eines Mitbewerbers an die Aufsichtsbehörde: Die Enthüllung, dass ein Unternehmen jahrelang unkontrolliert Kundendaten in US-KI-Systeme eingegeben hat, ist ein PR-GAU. Vertrauen lässt sich nicht reparieren wie ein Bugfix.

Wettbewerbsrechtliche Folgen

Wer sich durch Datenschutzverstöße Kostenvorteile verschafft — zum Beispiel durch den Verzicht auf aufwändige Compliance-Maßnahmen —, kann auch wettbewerbsrechtlich abgemahnt werden. Das ist ein weitgehend unterschätztes Risiko.

Warum handeln so wenige?

Die ehrliche Antwort ist unbequem: Weil es bislang folgenlos blieb.

Datenschutzbehörden sind personell unterbesetzt. Beschwerden landen in langen Warteschlangen. Und solange kein Skandal passiert, fühlt sich das Risiko abstrakt an.

Dazu kommt ein psychologisches Phänomen: Der Produktivitätsgewinn durch KI ist sofort spürbar — der Compliance-Verstoß dagegen abstrakt und zukünftig. Menschen und Unternehmen optimieren kurzfristig. Das ist menschlich, aber riskant.

Ein weiterer Faktor: Viele Geschäftsführer wissen schlicht nicht, was ihre Mitarbeitenden täglich tun. KI-Nutzung findet im Browser statt, privat eingeloggt, ohne Spur im System.

Wie es richtig geht: Der pragmatische Weg zur Compliance

Schritt 1 — Bestandsaufnahme: Was wird genutzt?

Bevor man Regeln aufstellt, muss man wissen, was überhaupt im Einsatz ist. Das klingt trivial, ist aber oft der schwierigste Schritt. Eine kurze Mitarbeiterumfrage oder ein Workshop bringt ans Licht, welche KI-Tools tatsächlich genutzt werden.

Schritt 2 — Klare Kategorisierung der Daten

Nicht jede Nutzung ist gleich riskant. Eine grobe Kategorisierung hilft:

Schritt 3 — Den richtigen Anbieter wählen

Es gibt legale Wege, ChatGPT und ähnliche Tools zu nutzen. Der wichtigste Unterschied liegt im Vertrag:

Schritt 4 — Eine interne KI-Policy einführen

Eine KI-Nutzungsrichtlinie muss nicht lang sein. Sie muss klar sein:

Ohne schriftliche Policy haftet die Geschäftsführung im Ernstfall persönlich.

Schritt 5 — Verarbeitungsverzeichnis und ggf. DSFA aktualisieren

Jede neue Verarbeitungstätigkeit — auch KI-gestützte — muss ins Verarbeitungsverzeichnis nach Art. 30 DSGVO. Bei hochrisikanter Verarbeitung ist zusätzlich eine Datenschutz-Folgenabschätzung (DSFA) Pflicht.

KI-Shield: Ein konkretes Beispiel, wie ein Baustein aussehen kann

KI-Shield ist ein solcher Baustein für DSGVO-konformes Arbeiten: Die Plattform ermöglicht es Unternehmen, KI-gestützte Workflows aufzubauen, ohne personenbezogene Daten unkontrolliert an externe Anbieter weiterzugeben. Statt die eigene Unternehmens-KI auf ChatGPT.com zu betreiben, läuft die Verarbeitung in einer datenschutzkonformen Umgebung — mit AVV, dokumentierten Prozessen und Kontrolle über die Datenwege.

Das Prinzip dahinter ist einfach: KI-Funktionalität entkoppeln von Datenweitergabe. Mitarbeitende bekommen leistungsfähige KI-Tools. Das Unternehmen behält die Kontrolle über seine Daten.

Das ist kein Luxus für Konzerne. Gerade mittelständische Unternehmen profitieren davon, weil sie selten die internen Ressourcen haben, Compliance von Grund auf selbst aufzubauen.

Das Wichtigste in Kürze

Fazit

Die Datenschutzbehörden werden aktiver. Die ersten Beschwerden zu KI-Nutzung sind bereits bei deutschen Aufsichtsbehörden eingegangen. Wer jetzt die Weichen stellt, hat gegenüber Kunden und Partnern einen echten Wettbewerbsvorteil.

Die Frage ist nicht, ob KI genutzt werden soll. Die Frage ist, ob sie legal genutzt wird.

KI-Shield als Baustein für DSGVO-konformes Arbeiten

Pseudonymisierung im Browser, AVV abrufbar, Mistral Le Chat inklusive — ab 0 Euro testbar.

Mehr erfahren