KI und Schweigepflicht: Wann §203 StGB bei ChatGPT greift
Ärzte, Anwälte, Steuerberater, Apotheker — wer Berufsgeheimnisse an ChatGPT weitergibt, riskiert nicht nur ein Bußgeld, sondern eine Freiheitsstrafe bis zu einem Jahr. §203 StGB kennt bei KI-Tools keine Ausnahme.
Was §203 StGB regelt
§203 StGB schützt Privatgeheimnisse, die Berufsgeheimnisträgern anvertraut wurden. Der Straftatbestand ist denkbar weit gefasst: Wer ein fremdes Geheimnis „offenbart", das ihm als Angehörigem bestimmter Berufsgruppen anvertraut wurde, macht sich strafbar.
Entscheidend: „Offenbaren" bedeutet jede Mitteilung an einen unbefugten Dritten. Und ein KI-Anbieter wie OpenAI ist ein Dritter im Sinne des §203 StGB.
Betroffene Berufsgruppen
- Rechtsanwälte und Notare — Mandantengeheimnisse, Vertragsdetails, Prozessstrategien
- Ärzte und Zahnärzte — Diagnosen, Befunde, Patientendaten, Therapieverläufe
- Steuerberater und Wirtschaftsprüfer — Einkommensverhältnisse, Bilanzen, Steuererklärungen
- Apotheker — Rezeptdaten, Medikationspläne
- Psychotherapeuten — Therapieinhalte, psychische Diagnosen
- Sozialarbeiter und Suchtberater — persönliche Lebensumstände
Warum ChatGPT ein Problem ist
Das Offenbarungs-Problem
Wenn Sie als Anwalt einen Schriftsatz durch ChatGPT formulieren lassen und dabei Mandantendetails eingeben, offenbaren Sie ein Berufsgeheimnis gegenüber OpenAI. Dass ChatGPT den Text „nur verarbeitet", ändert nichts am Tatbestand. Die herrschende Meinung in der Rechtswissenschaft sieht bereits die technische Übermittlung als Offenbarung.
Das §203-Dilemma bei KI
§203 Abs. 3 StGB erlaubt die Weitergabe an „sonstige Mitwirkende", die in die berufliche Tätigkeit eingebunden sind — etwa IT-Dienstleister. Aber: Dafür müssen strenge Voraussetzungen erfüllt sein:
- Schriftliche Verpflichtung auf Geheimhaltung
- Weisungsgebundenheit des Dienstleisters
- Erforderlichkeit der Datenübermittlung
OpenAI erfüllt keine dieser Voraussetzungen. ChatGPT ist kein weisungsgebundener IT-Dienstleister Ihrer Kanzlei oder Praxis.
Drei typische Risikoszenarien
Szenario 1: Die Anwältin und der Scheidungsfall
Rechtsanwältin K. lässt ChatGPT einen Schriftsatz für ein Scheidungsverfahren formulieren. Sie gibt dabei ein: Namen der Ehepartner, Vermögensverhältnisse, Unterhaltsforderungen, Umgangsregelung für die Kinder. Jedes einzelne Detail ist ein geschütztes Mandantengeheimnis.
Strafrechtliches Risiko: Freiheitsstrafe bis 1 Jahr oder Geldstrafe. Berufsrechtlich: Rüge oder Verweis durch die Rechtsanwaltskammer.
Szenario 2: Der Arzt und der Entlassbrief
Dr. M. diktiert ChatGPT einen Entlassbrief mit Diagnosen (F32.1 — Mittelgradige depressive Episode), Medikation (Sertralin 100mg), Therapieverlauf und Prognose. Psychiatrische Diagnosen gehören zu den sensibelsten Daten überhaupt.
Strafrechtliches Risiko: §203 StGB plus berufsrechtliche Konsequenzen bis zum Approbationsentzug. Zusätzlich: Verstoß gegen Art. 9 DSGVO (besondere Kategorien personenbezogener Daten).
Szenario 3: Der Steuerberater und die Jahresbilanz
Steuerberater H. lässt ChatGPT eine Gewinnverteilung für eine GbR berechnen. Er gibt Gesellschafternamen, Einkommensverhältnisse und Sonderbetriebseinnahmen ein. Diese Finanzdaten sind Berufsgeheimnisse nach §203 StGB.
Strafrechtliches Risiko: Wie oben, plus Widerruf der Bestellung als Steuerberater nach §46 StBerG.
Die Lösung: Pseudonymisierung vor der KI
Der Schlüssel zur rechtssicheren KI-Nutzung für Berufsgeheimnisträger ist die Pseudonymisierung: Wenn keine Berufsgeheimnisse den KI-Anbieter erreichen, liegt kein Offenbaren vor.
So funktioniert es mit KI-Shield:
- Eingabe: Sie geben Ihren Text mit allen Details ein — wie gewohnt
- Erkennung: 46 spezialisierte Module erkennen automatisch alle personenbezogenen Daten
- Pseudonymisierung: Namen werden zu [PERSON_1], IBANs zu [IBAN_1], Diagnosen zu [MEDICAL_1]
- KI-Verarbeitung: Nur der pseudonymisierte Text erreicht den KI-Anbieter
- Re-Identifizierung: In der Antwort werden die Pseudonyme automatisch durch die Originaldaten ersetzt
Der entscheidende Punkt: Die Originaldaten verlassen nie Ihre Infrastruktur. Der KI-Anbieter sieht nur Platzhalter. Kein Geheimnis wird offenbart — §203 StGB greift nicht.
Was die Kammern sagen
Die Bundesrechtsanwaltskammer (BRAK) hat in ihrer Stellungnahme 2025 klargestellt: Die Nutzung von KI-Tools ist grundsätzlich zulässig, sofern keine mandatsbezogenen Daten an den KI-Anbieter übermittelt werden. Pseudonymisierung wird als geeignete Schutzmaßnahme anerkannt.
Die Bundesärztekammer vertritt eine ähnliche Position: KI-gestützte Dokumentation ist erlaubt, wenn Patientendaten wirksam anonymisiert oder pseudonymisiert werden, bevor sie das System des Arztes verlassen.
Checkliste für Berufsgeheimnisträger
- Keine Klarnamen, Adressen oder Kontaktdaten in KI-Prompts eingeben
- Keine Aktenzeichen, Versichertennummern oder IDs übermitteln
- Keine Diagnosen, Befunde oder Medikationspläne ungeschützt senden
- Pseudonymisierungs-Proxy vor dem KI-Tool einsetzen
- Mitarbeiter über §203-Risiken schulen und dokumentieren
- KI-Nutzungs-Policy erstellen und im QM-System verankern
- Audit-Trail für Nachvollziehbarkeit aktivieren
Fazit
§203 StGB macht KI-Nutzung für Berufsgeheimnisträger nicht unmöglich — aber sie erfordert technische Schutzmaßnahmen. Wer personenbezogene Daten vor der Übermittlung pseudonymisiert, nutzt KI produktiv und bleibt auf der sicheren Seite. Die Alternative — auf KI zu verzichten — wird angesichts des Effizienzdrucks in Kanzleien, Praxen und Steuerbüros zunehmend unrealistisch.
Schweigepflicht wahren — KI trotzdem nutzen
KI-Shield pseudonymisiert Mandanten- und Patientendaten automatisch. Zero-Knowledge: Der KI-Anbieter sieht nie Klardaten.
Kostenlos testen