Die Kurzantwort: Ja – aber nicht ohne Schutzmaßnahmen
Immer mehr Anwälte nutzen ChatGPT, um Schriftsätze zu entwerfen, Rechtsprechung zusammenzufassen oder Vertragsklauseln zu prüfen. Das Problem: Wer Mandantendaten in ChatGPT eingibt, riskiert einen Verstoß gegen die anwaltliche Verschwiegenheitspflicht (§ 43a Abs. 2 BRAO) und gegen § 203 Abs. 1 Nr. 3 StGB.
Denn ChatGPT verarbeitet Eingaben auf Servern von OpenAI in den USA. Mandantennamen, Aktenzeichen, Vertragsdetails – all das landet auf Infrastruktur, die dem US Cloud Act unterliegt.
Was genau sagt § 203 StGB?
§ 203 Abs. 1 StGB stellt die Verletzung von Privatgeheimnissen unter Strafe. Rechtsanwälte gehören explizit zum geschützten Personenkreis (Nr. 3). Die Norm schützt jedes Geheimnis, das dem Anwalt im Rahmen des Mandats anvertraut wurde.
Entscheidend: „Offenbaren“ im Sinne des Gesetzes bedeutet, einem Dritten Kenntnis zu verschaffen. Wenn Mandantendaten an OpenAI-Server übermittelt werden, liegt genau das vor – unabhängig davon, ob ein Mitarbeiter bei OpenAI die Daten tatsächlich liest.
Bereits die technische Möglichkeit des Zugriffs durch einen Dritten kann ein Offenbaren darstellen – so die herrschende Meinung in der strafrechtlichen Literatur.
Drei konkrete Risikoszenarien
1. Der Schriftsatz-Entwurf
Sie kopieren einen Schriftsatz-Entwurf mit vollem Mandantennamen, Aktenzeichen und Sachverhalt in ChatGPT und bitten um eine stilistische Überarbeitung. Ergebnis: Name, Aktenzeichen und rechtliche Details Ihres Mandanten liegen auf US-Servern.
2. Die Vertragsprüfung
Ein Kaufvertrag mit IBAN, Grundstücksbezeichnung und Personalausweisnummer wird zur Prüfung eingegeben. Selbst wenn OpenAI die Daten nicht aktiv auswertet – sie sind übermittelt.
3. Die Rechtsprechungsanalyse mit Sachverhalt
„Mein Mandant Dr. Müller wurde am 15.03.2025 wegen Betrugs angeklagt...“ – hier werden strafrechtlich besonders sensible Daten preisgegeben.
Was die Rechtsanwaltskammern sagen
Die BRAK (Bundesrechtsanwaltskammer) hat in ihrem Hinweis Nr. 7/2023 klargestellt: Die Nutzung von KI-Tools ist grundsätzlich zulässig, sofern die Verschwiegenheitspflicht gewahrt bleibt. Konkret bedeutet das:
- Keine Eingabe von mandatsbezogenen Daten ohne technische Schutzmaßnahmen
- Prüfung des Auftragsverarbeitungsvertrags (AVV) mit dem KI-Anbieter
- Dokumentation der eingesetzten Schutzmaßnahmen
- Regelmäßige Schulung der Mitarbeiter
Die Lösung: Pseudonymisierung vor der Übermittlung
Der sicherste Weg: Personenbezogene Daten werden vor der Übermittlung an die KI automatisch durch Platzhalter ersetzt. Der Anwalt arbeitet normal, die KI sieht nur „[PERSON_001]“ statt „Dr. Thomas Müller“. Nach der Antwort werden die Platzhalter automatisch zurückübersetzt.
So funktioniert es in der Praxis:
„Mein Mandant Dr. Thomas Müller, Az. 4 O 123/25, wohnhaft Leopoldstr. 42, München...“
↓ wird automatisch zu ↓
„Mein Mandant [PERSON_001], Az. [AZ_001], wohnhaft [ADRESSE_001]...“
Die KI erhält nur die anonymisierte Version. Die Antwort wird zurückübersetzt – der Anwalt sieht wieder die echten Daten.
Checkliste: KI in der Kanzlei rechtssicher einsetzen
- Niemals Mandantennamen, Aktenzeichen oder Vertragsdetails direkt in ChatGPT eingeben
- Pseudonymisierungs-Tools wie KI-Shield verwenden, die PII automatisch erkennen
- Auftragsverarbeitungsvertrag (AVV) mit dem KI-Anbieter prüfen
- Interne Richtlinie für KI-Nutzung erstellen und dokumentieren
- Mitarbeiter schulen – auch Referendare und wissenschaftliche Mitarbeiter
- Regelmäßig prüfen, ob neue Mitarbeiter die Richtlinie kennen
Fazit
KI kann Kanzleien enorme Produktivitätsvorteile bringen – von der Schriftsatzerstellung über die Rechtsprechungsrecherche bis zur Vertragsanalyse. Die anwaltliche Schweigepflicht ist dabei keine unüberwindbare Hürde, sondern erfordert lediglich die richtigen technischen Schutzmaßnahmen. Wer Mandantendaten vor der KI-Nutzung automatisch pseudonymisiert, kann ChatGPT, Claude und andere Tools bedenkenlos einsetzen.