Warum die meisten deutschen Unternehmen KI gerade illegal nutzen — und wie man es richtig macht
Jeden Tag passiert es millionenfach: Ein Mitarbeiter öffnet seinen Browser, ruft ChatGPT auf und gibt eine E-Mail eines Kunden ein — damit die KI antwortet. Ein anderer fügt einen Vertragsentwurf ein und bittet um eine Zusammenfassung. Eine Dritte lädt ein Transkript eines Verkaufsgesprächs hoch, um daraus Maßnahmen abzuleiten. Alle drei handeln gut gemeint. Alle drei handeln nach aktuellem Rechtsstand mit hoher Wahrscheinlichkeit illegal.
Der blinde Fleck im deutschen Büroalltag
Das ist kein theoretisches Datenschutzproblem aus einem Seminar. Es ist die stille Realität in Tausenden deutschen Unternehmen — vom Mittelständler bis zum DAX-Konzern.
Was genau ist das Problem?
ChatGPT ist kein normales SaaS-Tool
Viele Unternehmen behandeln ChatGPT wie ein Textverarbeitungsprogramm. Dabei ist der Unterschied fundamental: Wenn Mitarbeitende Daten in ChatGPT eingeben, werden diese an die Server von OpenAI — einem US-amerikanischen Unternehmen — übertragen.
Das allein wäre noch handhabbar. Aber es kommen mehrere Probleme gleichzeitig zusammen:
1. Kein Auftragsverarbeitungsvertrag (AVV)
Die DSGVO schreibt in Art. 28 vor: Wer personenbezogene Daten an einen externen Dienstleister übergibt, braucht einen Auftragsverarbeitungsvertrag. Dieser Vertrag legt fest, wie der Anbieter die Daten schützt, was er damit tun darf und was nicht.
Die kostenlose ChatGPT-Version und die meisten Standard-Zugänge bieten keinen solchen AVV. Das bedeutet: Jede Eingabe personenbezogener Daten — Name, E-Mail-Adresse, Kundennummer, Gesundheitsdaten, Gehaltsangaben — ist ohne Rechtsgrundlage.
2. Datentransfer in die USA ohne ausreichende Absicherung
OpenAI ist nicht nach dem EU-US Data Privacy Framework zertifiziert. Das Framework ist die rechtliche Brücke, die Datentransfers in die USA seit 2023 erleichtert. Ohne diese Zertifizierung braucht es EU-Standardvertragsklauseln plus eine aufwändige Transfer Impact Assessment — Dokumente, die in den meisten Unternehmen schlicht nicht existieren.
3. Training mit Firmendaten
Solange das Training nicht explizit deaktiviert ist, kann OpenAI Eingaben zur Modellverbesserung nutzen. Das heißt: Wer ungeschützte Kundendaten eingibt, riskiert, dass diese Daten in zukünftige KI-Modelle einfließen. Was das für Vertraulichkeit und Geschäftsgeheimnisse bedeutet, liegt auf der Hand.
Wie verbreitet ist das wirklich?
Studien und Branchenberichte zeichnen ein deutliches Bild:
- Laut einer Bitkom-Studie aus 2024 nutzen über 60 Prozent der deutschen Unternehmen bereits KI-Tools im Arbeitsalltag.
- Gleichzeitig hat die überwiegende Mehrheit keine unternehmensweite KI-Policy und keinen AVV mit den genutzten Anbietern.
- In einer internen Analyse des Digitalverbands wurden in mittelständischen Unternehmen täglich hunderte unkontrollierte ChatGPT-Nutzungen festgestellt — häufig ohne Wissen der Geschäftsleitung.
Das Muster ist immer gleich: Die Mitarbeitenden nutzen, was funktioniert. Die IT-Abteilung hat keine Kontrolle. Der Datenschutzbeauftragte erfährt es als Letzter.
Die Konsequenzen: Was droht wirklich?
Bußgelder nach DSGVO
Art. 83 DSGVO sieht Bußgelder von bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes vor — je nachdem, welcher Betrag höher ist. Kein theoretischer Wert: Die deutschen Datenschutzbehörden werden aktiver. Allein 2023 und 2024 gab es mehrere Millionenbußgelder gegen deutsche Unternehmen wegen unzureichender Drittstaatentransfers.
Schadensersatzansprüche von Betroffenen
Seit dem EuGH-Urteil vom Juni 2023 (C-300/21) können Betroffene auch ohne nachweisbaren materiellen Schaden Schadensersatz verlangen, wenn sie durch einen DSGVO-Verstoß einen immateriellen Nachteil erlitten haben. Kunden, Mitarbeiter, Geschäftspartner — sie alle könnten klagen.
Reputationsschäden
Ein Datenleck, ein Bericht in der Fachpresse, ein Hinweis eines Mitbewerbers an die Aufsichtsbehörde: Die Enthüllung, dass ein Unternehmen jahrelang unkontrolliert Kundendaten in US-KI-Systeme eingegeben hat, ist ein PR-GAU. Vertrauen lässt sich nicht reparieren wie ein Bugfix.
Wettbewerbsrechtliche Folgen
Wer sich durch Datenschutzverstöße Kostenvorteile verschafft — zum Beispiel durch den Verzicht auf aufwändige Compliance-Maßnahmen —, kann auch wettbewerbsrechtlich abgemahnt werden. Das ist ein weitgehend unterschätztes Risiko.
Warum handeln so wenige?
Die ehrliche Antwort ist unbequem: Weil es bislang folgenlos blieb.
Datenschutzbehörden sind personell unterbesetzt. Beschwerden landen in langen Warteschlangen. Und solange kein Skandal passiert, fühlt sich das Risiko abstrakt an.
Dazu kommt ein psychologisches Phänomen: Der Produktivitätsgewinn durch KI ist sofort spürbar — der Compliance-Verstoß dagegen abstrakt und zukünftig. Menschen und Unternehmen optimieren kurzfristig. Das ist menschlich, aber riskant.
Ein weiterer Faktor: Viele Geschäftsführer wissen schlicht nicht, was ihre Mitarbeitenden täglich tun. KI-Nutzung findet im Browser statt, privat eingeloggt, ohne Spur im System.
Wie es richtig geht: Der pragmatische Weg zur Compliance
Schritt 1 — Bestandsaufnahme: Was wird genutzt?
Bevor man Regeln aufstellt, muss man wissen, was überhaupt im Einsatz ist. Das klingt trivial, ist aber oft der schwierigste Schritt. Eine kurze Mitarbeiterumfrage oder ein Workshop bringt ans Licht, welche KI-Tools tatsächlich genutzt werden.
Schritt 2 — Klare Kategorisierung der Daten
Nicht jede Nutzung ist gleich riskant. Eine grobe Kategorisierung hilft:
- Keine personenbezogenen Daten (z. B. allgemeine Textentwürfe, Ideenbrainstorming): Kann oft ohne Einschränkung genutzt werden.
- Interne, nicht-personenbezogene Daten (z. B. anonymisierte Prozessbeschreibungen): Mit Vorsicht und AVV möglich.
- Personenbezogene Daten (Kundendaten, Mitarbeiterdaten, etc.): Nur mit AVV, Rechtsgrundlage und ggf. Anonymisierung.
- Besondere Kategorien (Gesundheit, Religion, politische Überzeugungen): Höchste Hürde — oft nur mit expliziter Einwilligung oder spezieller Rechtsgrundlage.
Schritt 3 — Den richtigen Anbieter wählen
Es gibt legale Wege, ChatGPT und ähnliche Tools zu nutzen. Der wichtigste Unterschied liegt im Vertrag:
- ChatGPT Enterprise oder die OpenAI API mit DPA: Trainingsfreiheit, AVV, höhere Datensicherheit — aber weiterhin US-Datentransfer.
- Pseudonymisierungs-Layer wie KI-Shield (Mistral Le Chat inklusive ab 0 Euro): Personenbezogene Daten werden vor der Eingabe an die KI im Browser pseudonymisiert; AVV abrufbar; verarbeitet wird in der EU; DPMA-Gebrauchsmuster vorhanden.
- Europäische KI-Anbieter (Aleph Alpha, Mistral AI mit EU-Hosting, spezialisierte Legal-Tech- und HR-Tech-Lösungen): Verarbeitung in der EU, DSGVO-native Architektur.
- On-Premise / Private Cloud: KI-Modelle laufen auf eigenen Servern oder in einem kontrollierten Cloud-Umfeld. Kein Datentransfer nach außen.
Schritt 4 — Eine interne KI-Policy einführen
Eine KI-Nutzungsrichtlinie muss nicht lang sein. Sie muss klar sein:
- Welche Tools sind genehmigt?
- Welche Daten dürfen eingegeben werden?
- Wer ist verantwortlich?
- Was passiert bei Verstößen?
Ohne schriftliche Policy haftet die Geschäftsführung im Ernstfall persönlich.
Schritt 5 — Verarbeitungsverzeichnis und ggf. DSFA aktualisieren
Jede neue Verarbeitungstätigkeit — auch KI-gestützte — muss ins Verarbeitungsverzeichnis nach Art. 30 DSGVO. Bei hochrisikanter Verarbeitung ist zusätzlich eine Datenschutz-Folgenabschätzung (DSFA) Pflicht.
KI-Shield: Ein konkretes Beispiel, wie ein Baustein aussehen kann
KI-Shield ist ein solcher Baustein für DSGVO-konformes Arbeiten: Die Plattform ermöglicht es Unternehmen, KI-gestützte Workflows aufzubauen, ohne personenbezogene Daten unkontrolliert an externe Anbieter weiterzugeben. Statt die eigene Unternehmens-KI auf ChatGPT.com zu betreiben, läuft die Verarbeitung in einer datenschutzkonformen Umgebung — mit AVV, dokumentierten Prozessen und Kontrolle über die Datenwege.
Das Prinzip dahinter ist einfach: KI-Funktionalität entkoppeln von Datenweitergabe. Mitarbeitende bekommen leistungsfähige KI-Tools. Das Unternehmen behält die Kontrolle über seine Daten.
Das ist kein Luxus für Konzerne. Gerade mittelständische Unternehmen profitieren davon, weil sie selten die internen Ressourcen haben, Compliance von Grund auf selbst aufzubauen.
Das Wichtigste in Kürze
- Die meisten deutschen Unternehmen nutzen KI-Tools ohne AVV, ohne Rechtsgrundlage und ohne Kontrolle über ihre Daten.
- Das ist kein Kavaliersdelikt: DSGVO-Bußgelder, Schadensersatzklagen und Reputationsschäden sind reale Risiken.
- Der Weg zur Compliance ist machbar: Bestandsaufnahme, Datenkategorisierung, richtiger Anbieter, klare Policy.
- Bausteine wie KI-Shield zeigen, dass Produktivität und Datenschutz kein Widerspruch sind — wenn man die richtige Infrastruktur wählt.
Fazit
Die Datenschutzbehörden werden aktiver. Die ersten Beschwerden zu KI-Nutzung sind bereits bei deutschen Aufsichtsbehörden eingegangen. Wer jetzt die Weichen stellt, hat gegenüber Kunden und Partnern einen echten Wettbewerbsvorteil.
Die Frage ist nicht, ob KI genutzt werden soll. Die Frage ist, ob sie legal genutzt wird.
KI-Shield als Baustein für DSGVO-konformes Arbeiten
Pseudonymisierung im Browser, AVV abrufbar, Mistral Le Chat inklusive — ab 0 Euro testbar.
Mehr erfahren