Recht & Compliance8 Min Lesezeit

KI und Schweigepflicht: Wann §203 StGB bei ChatGPT greift

Ärzte, Anwälte, Steuerberater, Apotheker — wer Berufsgeheimnisse an ChatGPT weitergibt, riskiert nicht nur ein Bußgeld, sondern eine Freiheitsstrafe bis zu einem Jahr. §203 StGB kennt bei KI-Tools keine Ausnahme.

Was §203 StGB regelt

§203 StGB schützt Privatgeheimnisse, die Berufsgeheimnisträgern anvertraut wurden. Der Straftatbestand ist denkbar weit gefasst: Wer ein fremdes Geheimnis „offenbart", das ihm als Angehörigem bestimmter Berufsgruppen anvertraut wurde, macht sich strafbar.

Entscheidend: „Offenbaren" bedeutet jede Mitteilung an einen unbefugten Dritten. Und ein KI-Anbieter wie OpenAI ist ein Dritter im Sinne des §203 StGB.

Betroffene Berufsgruppen

Warum ChatGPT ein Problem ist

Das Offenbarungs-Problem

Wenn Sie als Anwalt einen Schriftsatz durch ChatGPT formulieren lassen und dabei Mandantendetails eingeben, offenbaren Sie ein Berufsgeheimnis gegenüber OpenAI. Dass ChatGPT den Text „nur verarbeitet", ändert nichts am Tatbestand. Die herrschende Meinung in der Rechtswissenschaft sieht bereits die technische Übermittlung als Offenbarung.

Das §203-Dilemma bei KI

§203 Abs. 3 StGB erlaubt die Weitergabe an „sonstige Mitwirkende", die in die berufliche Tätigkeit eingebunden sind — etwa IT-Dienstleister. Aber: Dafür müssen strenge Voraussetzungen erfüllt sein:

OpenAI erfüllt keine dieser Voraussetzungen. ChatGPT ist kein weisungsgebundener IT-Dienstleister Ihrer Kanzlei oder Praxis.

Drei typische Risikoszenarien

Szenario 1: Die Anwältin und der Scheidungsfall

Rechtsanwältin K. lässt ChatGPT einen Schriftsatz für ein Scheidungsverfahren formulieren. Sie gibt dabei ein: Namen der Ehepartner, Vermögensverhältnisse, Unterhaltsforderungen, Umgangsregelung für die Kinder. Jedes einzelne Detail ist ein geschütztes Mandantengeheimnis.

Strafrechtliches Risiko: Freiheitsstrafe bis 1 Jahr oder Geldstrafe. Berufsrechtlich: Rüge oder Verweis durch die Rechtsanwaltskammer.

Szenario 2: Der Arzt und der Entlassbrief

Dr. M. diktiert ChatGPT einen Entlassbrief mit Diagnosen (F32.1 — Mittelgradige depressive Episode), Medikation (Sertralin 100mg), Therapieverlauf und Prognose. Psychiatrische Diagnosen gehören zu den sensibelsten Daten überhaupt.

Strafrechtliches Risiko: §203 StGB plus berufsrechtliche Konsequenzen bis zum Approbationsentzug. Zusätzlich: Verstoß gegen Art. 9 DSGVO (besondere Kategorien personenbezogener Daten).

Szenario 3: Der Steuerberater und die Jahresbilanz

Steuerberater H. lässt ChatGPT eine Gewinnverteilung für eine GbR berechnen. Er gibt Gesellschafternamen, Einkommensverhältnisse und Sonderbetriebseinnahmen ein. Diese Finanzdaten sind Berufsgeheimnisse nach §203 StGB.

Strafrechtliches Risiko: Wie oben, plus Widerruf der Bestellung als Steuerberater nach §46 StBerG.

Die Lösung: Pseudonymisierung vor der KI

Der Schlüssel zur rechtssicheren KI-Nutzung für Berufsgeheimnisträger ist die Pseudonymisierung: Wenn keine Berufsgeheimnisse den KI-Anbieter erreichen, liegt kein Offenbaren vor.

So funktioniert es mit KI-Shield:

  1. Eingabe: Sie geben Ihren Text mit allen Details ein — wie gewohnt
  2. Erkennung: 46 spezialisierte Module erkennen automatisch alle personenbezogenen Daten
  3. Pseudonymisierung: Namen werden zu [PERSON_1], IBANs zu [IBAN_1], Diagnosen zu [MEDICAL_1]
  4. KI-Verarbeitung: Nur der pseudonymisierte Text erreicht den KI-Anbieter
  5. Re-Identifizierung: In der Antwort werden die Pseudonyme automatisch durch die Originaldaten ersetzt

Der entscheidende Punkt: Die Originaldaten verlassen nie Ihre Infrastruktur. Der KI-Anbieter sieht nur Platzhalter. Kein Geheimnis wird offenbart — §203 StGB greift nicht.

Was die Kammern sagen

Die Bundesrechtsanwaltskammer (BRAK) hat in ihrer Stellungnahme 2025 klargestellt: Die Nutzung von KI-Tools ist grundsätzlich zulässig, sofern keine mandatsbezogenen Daten an den KI-Anbieter übermittelt werden. Pseudonymisierung wird als geeignete Schutzmaßnahme anerkannt.

Die Bundesärztekammer vertritt eine ähnliche Position: KI-gestützte Dokumentation ist erlaubt, wenn Patientendaten wirksam anonymisiert oder pseudonymisiert werden, bevor sie das System des Arztes verlassen.

Checkliste für Berufsgeheimnisträger

Fazit

§203 StGB macht KI-Nutzung für Berufsgeheimnisträger nicht unmöglich — aber sie erfordert technische Schutzmaßnahmen. Wer personenbezogene Daten vor der Übermittlung pseudonymisiert, nutzt KI produktiv und bleibt auf der sicheren Seite. Die Alternative — auf KI zu verzichten — wird angesichts des Effizienzdrucks in Kanzleien, Praxen und Steuerbüros zunehmend unrealistisch.

Schweigepflicht wahren — KI trotzdem nutzen

KI-Shield pseudonymisiert Mandanten- und Patientendaten automatisch. Zero-Knowledge: Der KI-Anbieter sieht nie Klardaten.

Kostenlos testen