Haftet mein Unternehmen für Fehler des Bots?

Wer trägt die Verantwortung, wenn KI-Agenten danebenliegen?

Ein Kunde ruft an, ein KI-Agent nimmt das Gespräch entgegen, gibt Auskunft – und liegt falsch.
Vielleicht wurde ein Termin nicht korrekt erfasst, eine Auskunft zu Produkten war veraltet oder ein Antrag wurde „falsch verstanden“.

Das Problem:
Der Kunde hat nicht mit einem Menschen gesprochen – aber erwartet, dass die Informationen stimmen.
Also stellt sich die Frage:
Wer haftet, wenn der KI-Agent einen Fehler macht?

Vorweg: Ein Bot kann nicht haften – aber du schon.

KI-Agenten sind technisch gesehen Werkzeuge.
Und Werkzeuge tragen keine Verantwortung – sondern ihre Betreiber.

Juristisch gesprochen: Ein KI-Agent ist kein Vertragspartner, kein verantwortliches System und kein rechtsfähiger Akteur.

Das bedeutet:
Wenn ein Kunde durch einen Bot falsch informiert wird oder einen Schaden erleidet, haftet nicht die KI, sondern das Unternehmen, das sie einsetzt.

Typische Fehlerquellen bei KI-Agenten

  1. Falsche oder veraltete Auskünfte
  2. Technisches Fehlverhalten (z. B. Absturz, Weiterleitung fehlgeschlagen)
  3. Missverständnisse in der Sprachverarbeitung
  4. Automatisierte Prozesse, die ohne Prüfung ausgelöst werden
  5. Unbeabsichtigte Datenschutzverstöße

Jeder dieser Fälle kann rechtlich problematisch sein – vor allem dann, wenn der Kunde berechtigte Erwartungen hatte.

Was sagt das Gesetz?

Auch wenn KI-Systeme „selbstständig“ agieren:
Für ihre Folgen gilt das ganz normale Zivilrecht – insbesondere:

§ 280 BGB – Schadensersatz wegen Pflichtverletzung

Wenn ein Vertragspartner (z. B. dein Unternehmen) eine Pflicht verletzt und dadurch ein Schaden entsteht, kann der Geschädigte Ersatz fordern.

§ 823 BGB – Schadensersatz bei unerlaubter Handlung

Auch ohne Vertrag: Wer einem anderen schuldhaft einen Schaden zufügt, kann haftbar sein – z. B. bei fehlerhaften Informationen durch KI.

Pflichten des Unternehmens als Betreiber

1. Sorgfalt bei Auswahl & Einsatz

  • Kein unausgereifter „Quick Bot“ im Livebetrieb
  • Inhalte & Antworten müssen kontrollierbar sein

2. Training & Überwachung

  • Der Bot muss regelmäßig verbessert werden
  • Falschaussagen oder Fehlverhalten müssen nachvollziehbar protokolliert werden

3. Haftungsklauseln und Risikoanalyse

  • Interne Prozesse sollten rechtlich durchdacht sein
  • Bei kritischen Bereichen: „Mensch in the Loop“ integrieren

Praxisbeispiel:

Ein Versicherungsunternehmen setzt einen Chatbot ein.
Ein Kunde fragt: „Bin ich auch im Ausland versichert?“
Der Bot antwortet falsch – und der Kunde zahlt bei einem Vorfall in Spanien seine Arztkosten selbst.

➡️ Die Haftung trifft nicht den Hersteller der Bot-Software, sondern den Versicherer, der den Bot als Kommunikationsschnittstelle verwendet.

Was du tun kannst: Handlungsempfehlungen

✅ Klare Ansagen im Bot-Dialog:

„Ich bin ein KI-Agent. Verbindliche Informationen erhalten Sie von unseren Fachberatern.“

✅ Einschränkungen kommunizieren:

„Meine Antworten basieren auf aktuellen Daten – ich bin noch in der Lernphase.“

✅ Bei Unsicherheiten: an Menschen weiterleiten.
Bots dürfen keine verbindlichen Zusagen machen, wenn sie nicht geprüft werden.

Fazit: Verantwortung liegt beim Menschen – noch.

Die Technik wird immer besser. Aber solange es keine spezifische Haftungsregelung für KI gibt, gelten die bekannten Grundsätze:

Der Betreiber haftet für das, was sein Bot tut – oder nicht tut.

Wer sich auf KI verlässt, muss sie kontrollieren – und sinnvoll in den Gesamtprozess einbetten.

Keine Rechtsberatung: Dieser Beitrag dient der allgemeinen Information und ersetzt keine individuelle juristische Beratung. Für rechtlich verbindliche Auskünfte wenden Sie sich bitte an eine qualifizierte Fachperson.

Inhalt