Transparenz, Täuschung und die Grenze des Vertrauens bei Bots.
Die Stimme klingt sympathisch. Die Antworten kommen prompt. Die Formulierungen sind menschlich.
Aber: Am anderen Ende ist kein Mensch – sondern ein KI-Agent.
Und spätestens hier stellt sich eine wichtige rechtliche und ethische Frage:
Muss der Bot sagen, dass er ein Bot ist?
Transparenzpflicht im digitalen Raum
Laut Artikel 5 der DSGVO gilt für jede Datenverarbeitung ein zentrales Prinzip:
➡️ Transparenz.
Das heißt: Nutzer müssen verstehen können,
- wer mit ihnen kommuniziert
- warum bestimmte Daten verarbeitet werden
- und ob sie mit einer natürlichen Person oder einer Maschine sprechen
Gerade bei KI-Agenten, die nahezu menschlich reagieren – per Text, Chat oder Stimme – ist das nicht immer sofort erkennbar.
Was sagt die Rechtslage?
In Deutschland gibt es (noch) keine spezielle gesetzliche Pflicht, einen Bot als solchen zu kennzeichnen.
ABER:
Es gibt sehr wohl rechtliche Risiken, wenn der Eindruck entsteht, ein Nutzer interagiere mit einem Menschen – und trifft dadurch z. B. eine Entscheidung oder gibt Daten preis, die er einem Bot nicht anvertraut hätte.
▶️ Das kann im schlimmsten Fall als Irreführung oder Täuschung gewertet werden.
Etwa, wenn der Bot:
- den Eindruck eines echten Mitarbeiters erweckt,
- Entscheidungen oder Ratschläge vorgibt, die wie menschliche Expertise wirken,
- ohne Hinweis sensible Daten abfragt.
Verbraucherschutz & Ethik:
Die Verbraucherzentrale und mehrere EU-Initiativen fordern klar:
„Bots müssen sich als solche zu erkennen geben.“
Nicht nur aus rechtlichen Gründen – sondern auch, um das Vertrauen in KI-basierte Systeme zu stärken.
Das bedeutet:
Ein einfacher Satz wie
🗨️ „Ich bin ein digitaler Assistent – wie kann ich helfen?“
genügt oft schon, um rechtlich auf der sicheren Seite zu sein.
Beispiel: Voice Agent
Ein Voice Agent, der Anrufe entgegennimmt, sollte sich zu Beginn des Gesprächs klar identifizieren, z. B.:
„Hallo, Sie sprechen mit dem digitalen Sprachassistenten der KI-Werkstatt Coburg. Wie kann ich Ihnen helfen?“
Das wirkt professionell, transparent – und erfüllt die Anforderungen an eine saubere Kommunikation.
Was ist erlaubt, was ist riskant?
| Verhalten des Bots | Bewertung |
|---|---|
| Klare Vorstellung als KI oder Assistent | ✅ unproblematisch |
| Menschlich klingende Stimme | ✅ erlaubt |
| Menschlicher Name (z. B. „Lisa“) | ⚠️ erklärungsbedürftig |
| Kein Hinweis auf KI-Natur | ❌ potentiell irreführend |
| Entscheidungen mit rechtlichen Folgen | ❌ kritisch (z. B. Verträge) |
Fazit: Transparenz schafft Vertrauen
Ein Bot darf menschlich klingen.
Er darf charmant formulieren.
Aber er muss sich als das zu erkennen geben, was er ist: ein technisches System – nicht mehr, nicht weniger.
Wer auf diese Transparenz achtet, schützt nicht nur die Nutzer, sondern auch sich selbst vor rechtlichen Problemen.
Keine Rechtsberatung: Dieser Beitrag dient der allgemeinen Information und ersetzt keine individuelle rechtliche Beratung. Für konkrete Fragen wenden Sie sich bitte an eine qualifizierte Rechtsberatung.