Prompt Engineering ohne Datenleck: 7 goldene Regeln für sichere KI-Prompts
90% aller KI-Datenschutzvorfälle in Unternehmen entstehen durch unsichere Prompts — nicht durch Hacker oder Systemfehler. Die gute Nachricht: Mit 7 einfachen Regeln eliminieren Sie die häufigsten Risiken.
Das Problem: Prompts als Datenkanal
Jeder Prompt, den Sie an ChatGPT, Claude oder Gemini senden, ist eine Datenübertragung. Und die meisten Nutzer behandeln Prompts wie interne Notizen — informell, ungefiltert, mit echten Daten. Das ist, als würden Sie Ihre internen Memos auf eine Postkarte schreiben.
Regel 1: Keine echten Namen — niemals
Die häufigste Fehlerquelle. Statt „Erstelle einen Einspruch für Hans-Peter Gruber, Steuernummer 123/456/78901" schreiben Sie „Erstelle einen Einspruch für [MANDANT], Steuernummer [STEUERNUMMER]".
Warum das wichtig ist: Namen in Kombination mit anderen Datenpunkten (Adresse, Steuernummer, Geburtsdatum) ermöglichen eine eindeutige Identifikation. Selbst wenn OpenAI die Daten nicht aktiv nutzt — sie liegen auf US-Servern und unterliegen dem Cloud Act.
Besser: Nutzen Sie einen Compliance-Proxy wie KI-Shield, der echte Namen automatisch durch Platzhalter ersetzt. So schreiben Sie natürlich und der Schutz passiert im Hintergrund.
Regel 2: Kontext statt Daten liefern
Die KI braucht selten echte Daten — sie braucht Kontext. Statt „Berechne die Steuer für 85.000 EUR Jahresgehalt, Steuerklasse 3, 2 Kinder, Kirchensteuer Bayern" reicht oft: „Berechne die Einkommensteuer für einen verheirateten Arbeitnehmer in Bayern mit mittlerem Einkommen und zwei Kindern. Nutze Beispielzahlen."
Die KI generiert realistische Beispielzahlen — und Sie haben kein echtes Gehalt übermittelt.
Regel 3: Tabellen und Listen besonders prüfen
Copy-Paste aus Excel oder CRM ist der Klassiker: Eine Kundenliste, schnell in ChatGPT eingefügt, enthält hunderte personenbezogene Datensätze. Vor jedem Tabellen-Paste fragen Sie sich: Enthält diese Tabelle eine einzige Spalte mit personenbezogenen Daten?
Wenn ja: Spalte vorher entfernen oder pseudonymisieren. Oder besser: Den gesamten Workflow über einen Compliance-Proxy laufen lassen.
Regel 4: Keine Dokumente ungeprüft hochladen
ChatGPT Plus erlaubt Datei-Uploads. Ein Vertragsentwurf, ein Arztbrief, ein Bewerbungsschreiben — jedes Dokument kann PII enthalten, die nicht auf den ersten Blick sichtbar ist. Metadaten, Kommentare, Änderungsverfolgung — all das wird mit hochgeladen.
Regel: Kein Dokument-Upload ohne vorherige PII-Prüfung. Im Zweifel: nur relevante Absätze als Text kopieren, nicht das gesamte Dokument.
Regel 5: Chat-Verlauf regelmäßig löschen
Alte Chats akkumulieren Daten. Ein Chat vom Januar enthält vielleicht Kundendaten, die Sie längst vergessen haben. OpenAI speichert Chat-Verläufe standardmäßig.
- ChatGPT: Settings → Data Controls → Chat History & Training deaktivieren
- Claude: Conversations werden nach Inaktivität automatisch gelöscht
- Regel: Löschen Sie Chats nach Abschluss der Aufgabe. Behandeln Sie Chat-Verläufe wie temporäre Arbeitsdateien.
Regel 6: Ergebnisse nicht blind vertrauen
Diese Regel schützt nicht vor Datenlecks, sondern vor Haftung. KI-generierte Rechtsberatung, medizinische Empfehlungen oder Steuertipps können falsch sein. Wenn Sie KI-Ausgaben ungeprüft an Klienten weitergeben, haften Sie — nicht die KI.
Dokumentation: Führen Sie einen Audit-Trail, der zeigt, welche KI-Ausgaben Sie geprüft und freigegeben haben. Das schützt Sie bei Rückfragen von Mandanten, Patienten oder Aufsichtsbehörden.
Regel 7: Sensible Prompts intern halten
Nicht jeder Prompt muss an einen externen KI-Anbieter. Für besonders sensible Aufgaben (Personalentscheidungen, M&A-Dokumente, Patientenakten) sollten Sie erwägen:
- Self-Hosted LLM: Lokales Modell, keine externe Datenübertragung
- Compliance-Proxy: Automatische Pseudonymisierung, dann externes Modell
- Manuelle Bearbeitung: Manche Aufgaben sind zu sensibel für jede KI
Schnelltest: Ist mein Prompt sicher?
Bevor Sie Enter drücken, stellen Sie sich drei Fragen:
- Enthält der Prompt einen echten Namen? → Ersetzen durch Platzhalter
- Könnte jemand aus dem Prompt auf eine reale Person schließen? → Kontext abstrahieren
- Würde ich diesen Prompt auf eine Postkarte schreiben? → Wenn nein, pseudonymisieren
Die pragmatische Lösung
Sieben Regeln im Kopf zu behalten ist Theorie. In der Praxis vergessen Mitarbeiter unter Zeitdruck jede Regel. Deshalb setzen vorausschauende Unternehmen auf technische Lösungen: Ein Compliance-Proxy wie KI-Shield erkennt PII automatisch und pseudonymisiert in Echtzeit — unabhängig davon, wie der Prompt formuliert ist.
Das ist der Unterschied zwischen „Mitarbeiter müssen aufpassen" und „das System passt auf". Ersteres skaliert nicht. Letzteres schon.
Fazit
Sichere Prompts sind der erste Verteidigungsring beim Einsatz von KI-Tools. Die 7 Regeln reduzieren das Risiko erheblich — aber menschliche Fehler passieren. Die nachhaltige Lösung ist automatische PII-Erkennung als technische Schutzschicht, die unabhängig vom Nutzerverhalten greift.
Prompts automatisch absichern
KI-Shield erkennt PII in jedem Prompt — bevor er das Unternehmen verlässt. Keine Regeln merken, kein Risiko.
Kostenlos testen