Best Practices7 Min Lesezeit

Prompt Engineering ohne Datenleck: 7 goldene Regeln für sichere KI-Prompts

90% aller KI-Datenschutzvorfälle in Unternehmen entstehen durch unsichere Prompts — nicht durch Hacker oder Systemfehler. Die gute Nachricht: Mit 7 einfachen Regeln eliminieren Sie die häufigsten Risiken.

Das Problem: Prompts als Datenkanal

Jeder Prompt, den Sie an ChatGPT, Claude oder Gemini senden, ist eine Datenübertragung. Und die meisten Nutzer behandeln Prompts wie interne Notizen — informell, ungefiltert, mit echten Daten. Das ist, als würden Sie Ihre internen Memos auf eine Postkarte schreiben.

Regel 1: Keine echten Namen — niemals

Die häufigste Fehlerquelle. Statt „Erstelle einen Einspruch für Hans-Peter Gruber, Steuernummer 123/456/78901" schreiben Sie „Erstelle einen Einspruch für [MANDANT], Steuernummer [STEUERNUMMER]".

Warum das wichtig ist: Namen in Kombination mit anderen Datenpunkten (Adresse, Steuernummer, Geburtsdatum) ermöglichen eine eindeutige Identifikation. Selbst wenn OpenAI die Daten nicht aktiv nutzt — sie liegen auf US-Servern und unterliegen dem Cloud Act.

Besser: Nutzen Sie einen Compliance-Proxy wie KI-Shield, der echte Namen automatisch durch Platzhalter ersetzt. So schreiben Sie natürlich und der Schutz passiert im Hintergrund.

Regel 2: Kontext statt Daten liefern

Die KI braucht selten echte Daten — sie braucht Kontext. Statt „Berechne die Steuer für 85.000 EUR Jahresgehalt, Steuerklasse 3, 2 Kinder, Kirchensteuer Bayern" reicht oft: „Berechne die Einkommensteuer für einen verheirateten Arbeitnehmer in Bayern mit mittlerem Einkommen und zwei Kindern. Nutze Beispielzahlen."

Die KI generiert realistische Beispielzahlen — und Sie haben kein echtes Gehalt übermittelt.

Regel 3: Tabellen und Listen besonders prüfen

Copy-Paste aus Excel oder CRM ist der Klassiker: Eine Kundenliste, schnell in ChatGPT eingefügt, enthält hunderte personenbezogene Datensätze. Vor jedem Tabellen-Paste fragen Sie sich: Enthält diese Tabelle eine einzige Spalte mit personenbezogenen Daten?

Wenn ja: Spalte vorher entfernen oder pseudonymisieren. Oder besser: Den gesamten Workflow über einen Compliance-Proxy laufen lassen.

Regel 4: Keine Dokumente ungeprüft hochladen

ChatGPT Plus erlaubt Datei-Uploads. Ein Vertragsentwurf, ein Arztbrief, ein Bewerbungsschreiben — jedes Dokument kann PII enthalten, die nicht auf den ersten Blick sichtbar ist. Metadaten, Kommentare, Änderungsverfolgung — all das wird mit hochgeladen.

Regel: Kein Dokument-Upload ohne vorherige PII-Prüfung. Im Zweifel: nur relevante Absätze als Text kopieren, nicht das gesamte Dokument.

Regel 5: Chat-Verlauf regelmäßig löschen

Alte Chats akkumulieren Daten. Ein Chat vom Januar enthält vielleicht Kundendaten, die Sie längst vergessen haben. OpenAI speichert Chat-Verläufe standardmäßig.

Regel 6: Ergebnisse nicht blind vertrauen

Diese Regel schützt nicht vor Datenlecks, sondern vor Haftung. KI-generierte Rechtsberatung, medizinische Empfehlungen oder Steuertipps können falsch sein. Wenn Sie KI-Ausgaben ungeprüft an Klienten weitergeben, haften Sie — nicht die KI.

Dokumentation: Führen Sie einen Audit-Trail, der zeigt, welche KI-Ausgaben Sie geprüft und freigegeben haben. Das schützt Sie bei Rückfragen von Mandanten, Patienten oder Aufsichtsbehörden.

Regel 7: Sensible Prompts intern halten

Nicht jeder Prompt muss an einen externen KI-Anbieter. Für besonders sensible Aufgaben (Personalentscheidungen, M&A-Dokumente, Patientenakten) sollten Sie erwägen:

Schnelltest: Ist mein Prompt sicher?

Bevor Sie Enter drücken, stellen Sie sich drei Fragen:

  1. Enthält der Prompt einen echten Namen? → Ersetzen durch Platzhalter
  2. Könnte jemand aus dem Prompt auf eine reale Person schließen? → Kontext abstrahieren
  3. Würde ich diesen Prompt auf eine Postkarte schreiben? → Wenn nein, pseudonymisieren

Die pragmatische Lösung

Sieben Regeln im Kopf zu behalten ist Theorie. In der Praxis vergessen Mitarbeiter unter Zeitdruck jede Regel. Deshalb setzen vorausschauende Unternehmen auf technische Lösungen: Ein Compliance-Proxy wie KI-Shield erkennt PII automatisch und pseudonymisiert in Echtzeit — unabhängig davon, wie der Prompt formuliert ist.

Das ist der Unterschied zwischen „Mitarbeiter müssen aufpassen" und „das System passt auf". Ersteres skaliert nicht. Letzteres schon.

Fazit

Sichere Prompts sind der erste Verteidigungsring beim Einsatz von KI-Tools. Die 7 Regeln reduzieren das Risiko erheblich — aber menschliche Fehler passieren. Die nachhaltige Lösung ist automatische PII-Erkennung als technische Schutzschicht, die unabhängig vom Nutzerverhalten greift.

Prompts automatisch absichern

KI-Shield erkennt PII in jedem Prompt — bevor er das Unternehmen verlässt. Keine Regeln merken, kein Risiko.

Kostenlos testen