Wer trägt die Verantwortung, wenn KI-Agenten danebenliegen?
Ein Kunde ruft an, ein KI-Agent nimmt das Gespräch entgegen, gibt Auskunft – und liegt falsch.
Vielleicht wurde ein Termin nicht korrekt erfasst, eine Auskunft zu Produkten war veraltet oder ein Antrag wurde „falsch verstanden“.
Das Problem:
Der Kunde hat nicht mit einem Menschen gesprochen – aber erwartet, dass die Informationen stimmen.
Also stellt sich die Frage:
Wer haftet, wenn der KI-Agent einen Fehler macht?
Vorweg: Ein Bot kann nicht haften – aber du schon.
KI-Agenten sind technisch gesehen Werkzeuge.
Und Werkzeuge tragen keine Verantwortung – sondern ihre Betreiber.
Juristisch gesprochen: Ein KI-Agent ist kein Vertragspartner, kein verantwortliches System und kein rechtsfähiger Akteur.
Das bedeutet:
Wenn ein Kunde durch einen Bot falsch informiert wird oder einen Schaden erleidet, haftet nicht die KI, sondern das Unternehmen, das sie einsetzt.
Typische Fehlerquellen bei KI-Agenten
- ❌ Falsche oder veraltete Auskünfte
- ❌ Technisches Fehlverhalten (z. B. Absturz, Weiterleitung fehlgeschlagen)
- ❌ Missverständnisse in der Sprachverarbeitung
- ❌ Automatisierte Prozesse, die ohne Prüfung ausgelöst werden
- ❌ Unbeabsichtigte Datenschutzverstöße
Jeder dieser Fälle kann rechtlich problematisch sein – vor allem dann, wenn der Kunde berechtigte Erwartungen hatte.
Was sagt das Gesetz?
Auch wenn KI-Systeme „selbstständig“ agieren:
Für ihre Folgen gilt das ganz normale Zivilrecht – insbesondere:
§ 280 BGB – Schadensersatz wegen Pflichtverletzung
Wenn ein Vertragspartner (z. B. dein Unternehmen) eine Pflicht verletzt und dadurch ein Schaden entsteht, kann der Geschädigte Ersatz fordern.
§ 823 BGB – Schadensersatz bei unerlaubter Handlung
Auch ohne Vertrag: Wer einem anderen schuldhaft einen Schaden zufügt, kann haftbar sein – z. B. bei fehlerhaften Informationen durch KI.
Pflichten des Unternehmens als Betreiber
1. Sorgfalt bei Auswahl & Einsatz
- Kein unausgereifter „Quick Bot“ im Livebetrieb
- Inhalte & Antworten müssen kontrollierbar sein
2. Training & Überwachung
- Der Bot muss regelmäßig verbessert werden
- Falschaussagen oder Fehlverhalten müssen nachvollziehbar protokolliert werden
3. Haftungsklauseln und Risikoanalyse
- Interne Prozesse sollten rechtlich durchdacht sein
- Bei kritischen Bereichen: „Mensch in the Loop“ integrieren
Praxisbeispiel:
Ein Versicherungsunternehmen setzt einen Chatbot ein.
Ein Kunde fragt: „Bin ich auch im Ausland versichert?“
Der Bot antwortet falsch – und der Kunde zahlt bei einem Vorfall in Spanien seine Arztkosten selbst.
➡️ Die Haftung trifft nicht den Hersteller der Bot-Software, sondern den Versicherer, der den Bot als Kommunikationsschnittstelle verwendet.
Was du tun kannst: Handlungsempfehlungen
✅ Klare Ansagen im Bot-Dialog:
„Ich bin ein KI-Agent. Verbindliche Informationen erhalten Sie von unseren Fachberatern.“
✅ Einschränkungen kommunizieren:
„Meine Antworten basieren auf aktuellen Daten – ich bin noch in der Lernphase.“
✅ Bei Unsicherheiten: an Menschen weiterleiten.
Bots dürfen keine verbindlichen Zusagen machen, wenn sie nicht geprüft werden.
Fazit: Verantwortung liegt beim Menschen – noch.
Die Technik wird immer besser. Aber solange es keine spezifische Haftungsregelung für KI gibt, gelten die bekannten Grundsätze:
Der Betreiber haftet für das, was sein Bot tut – oder nicht tut.
Wer sich auf KI verlässt, muss sie kontrollieren – und sinnvoll in den Gesamtprozess einbetten.
Keine Rechtsberatung: Dieser Beitrag dient der allgemeinen Information und ersetzt keine individuelle juristische Beratung. Für rechtlich verbindliche Auskünfte wenden Sie sich bitte an eine qualifizierte Fachperson.