Muss mein KI-Agent sagen, dass er kein Mensch ist?

Transparenz, Täuschung und die Grenze des Vertrauens bei Bots.

Die Stimme klingt sympathisch. Die Antworten kommen prompt. Die Formulierungen sind menschlich.
Aber: Am anderen Ende ist kein Mensch – sondern ein KI-Agent.
Und spätestens hier stellt sich eine wichtige rechtliche und ethische Frage:
Muss der Bot sagen, dass er ein Bot ist?

Transparenzpflicht im digitalen Raum

Laut Artikel 5 der DSGVO gilt für jede Datenverarbeitung ein zentrales Prinzip:
➡️ Transparenz.

Das heißt: Nutzer müssen verstehen können,

  • wer mit ihnen kommuniziert
  • warum bestimmte Daten verarbeitet werden
  • und ob sie mit einer natürlichen Person oder einer Maschine sprechen

Gerade bei KI-Agenten, die nahezu menschlich reagieren – per Text, Chat oder Stimme – ist das nicht immer sofort erkennbar.

Was sagt die Rechtslage?

In Deutschland gibt es (noch) keine spezielle gesetzliche Pflicht, einen Bot als solchen zu kennzeichnen.
ABER:
Es gibt sehr wohl rechtliche Risiken, wenn der Eindruck entsteht, ein Nutzer interagiere mit einem Menschen – und trifft dadurch z. B. eine Entscheidung oder gibt Daten preis, die er einem Bot nicht anvertraut hätte.

▶️ Das kann im schlimmsten Fall als Irreführung oder Täuschung gewertet werden.

Etwa, wenn der Bot:

  • den Eindruck eines echten Mitarbeiters erweckt,
  • Entscheidungen oder Ratschläge vorgibt, die wie menschliche Expertise wirken,
  • ohne Hinweis sensible Daten abfragt.

Verbraucherschutz & Ethik:

Die Verbraucherzentrale und mehrere EU-Initiativen fordern klar:

„Bots müssen sich als solche zu erkennen geben.“

Nicht nur aus rechtlichen Gründen – sondern auch, um das Vertrauen in KI-basierte Systeme zu stärken.

Das bedeutet:
Ein einfacher Satz wie
🗨️ „Ich bin ein digitaler Assistent – wie kann ich helfen?“
genügt oft schon, um rechtlich auf der sicheren Seite zu sein.

Beispiel: Voice Agent

Ein Voice Agent, der Anrufe entgegennimmt, sollte sich zu Beginn des Gesprächs klar identifizieren, z. B.:

„Hallo, Sie sprechen mit dem digitalen Sprachassistenten der KI-Werkstatt Coburg. Wie kann ich Ihnen helfen?“

Das wirkt professionell, transparent – und erfüllt die Anforderungen an eine saubere Kommunikation.

Was ist erlaubt, was ist riskant?

Verhalten des BotsBewertung
Klare Vorstellung als KI oder Assistent✅ unproblematisch
Menschlich klingende Stimme✅ erlaubt
Menschlicher Name (z. B. „Lisa“)⚠️ erklärungsbedürftig
Kein Hinweis auf KI-Natur❌ potentiell irreführend
Entscheidungen mit rechtlichen Folgen❌ kritisch (z. B. Verträge)

Fazit: Transparenz schafft Vertrauen

Ein Bot darf menschlich klingen.
Er darf charmant formulieren.
Aber er muss sich als das zu erkennen geben, was er ist: ein technisches System – nicht mehr, nicht weniger.

Wer auf diese Transparenz achtet, schützt nicht nur die Nutzer, sondern auch sich selbst vor rechtlichen Problemen.

Keine Rechtsberatung: Dieser Beitrag dient der allgemeinen Information und ersetzt keine individuelle rechtliche Beratung. Für konkrete Fragen wenden Sie sich bitte an eine qualifizierte Rechtsberatung.

Inhalt