
Während der Mensch mit Erfahrung, Emotion und Intuition urteilt, nutzt die Künstliche Intelligenz (KI) enorme Datenmengen und blitzschnelle Rechenleistung. Der Einsatz von KI in Unternehmen nimmt rasant zu und bietet große Vorteile: Prozesse werden effizienter, Entscheidungen datenbasiert optimiert, und kreative Lösungen entstehen schneller. KI ist längst mehr als ein technisches Hilfsmittel. Doch was passiert, wenn die KI Fehler macht? Wer haftet, wenn Entscheidungen auf fehlerhaften Algorithmen beruhen? Und wie kann man sich als Unternehmen rechtlich absichern?
KI trifft Entscheidungen – doch wer trägt die Verantwortung?
Ein wesentliches Missverständnis liegt in der Annahme, dass eine KI „eigenständig“ handelt. Juristisch gesehen ist sie ein Werkzeug – nicht mehr und nicht weniger. Sie kann keine Rechtspersönlichkeit besitzen und ist daher auch nicht haftungsfähig. Die Verantwortung für Entscheidungen, die unter Einsatz von KI-Systemen getroffen werden, muss demnach anders verortet werden.
Verantwortlichkeit des Unternehmens – Sorgfaltspflicht bei KI-Einsatz
Als Betreiber der KI trägt das Unternehmen eine zentrale Verantwortung. Dazu gehören auch die Auswahl, Einführung und Überwachung von KI-Systemen. Fehlerhafte oder intransparente Algorithmen können daher zur persönlichen Haftung führen. Wenn die KI einen Fehler macht, der beispielsweise eine vertraglich geschuldete Leistung betrifft, haftet das Unternehmen, das die KI einsetzt.
Der Einsatz von KI ist demnach keinesfalls ein „Freibrief“. Unternehmen müssen sich aktiv mit der Technologie befassen, Risiken erkennen und geeignete Vorkehrungen treffen. Dazu zählen auch Schulungen der Mitarbeiter, Audits und technische Backups
Produzentenhaftung – Fehlerhafte KI-Software
Kommt es zu Schäden durch fehlerhafte KI-Software, kann auch der Hersteller oder Anbieter der Software haftbar gemacht werden. Die Haftung richtet sich hier nach:
- Vertraglicher Haftung (inkl. Gewährleistung und Produkthaftung) sowie
- dem Produkthaftungsgesetz (ProdHaftG), sofern es sich um ein fehlerhaftes Produkt im Sinne des Gesetzes handelt.
Künftig spielt auch der neue AI-Act der EU eine wesentliche Rolle im Umgang von Unternehmen mit KI-Systemen. Der AI-Act der EU ist am 01. August 2024 in Kraft getreten, um die potenziellen Risiken, die mit dem Einsatz von Künstlicher Intelligenz verbunden sind, zu minimieren. Dabei ist der AI-Act eine sektorübergreifende Verordnung, die sicherstellt, dass KI, die mit EU Bürgerinnen und Bürgern agiert, deren Sicherheit, Gesundheit und Grundrechte wahrt und im Einklang mit europäischen Werten eingesetzt wird. Der AI-Act legt besondere Anforderungen für unterschiedliche Arten von KI fest, abhängig von ihrem Risikopotenzial. Es gilt: je höher das Risiko, desto strenger die Anforderungen. Unternehmen müssen ihre KI-Systeme nach den klassifizierten Risiken einordnen, um entsprechende Maßnahmen zu ergreifen. Insbesondere gelten strenge Anforderungen für Hochrisiko-KI-Systeme. Unternehmen, die solche Systeme nutzen und/oder entwickeln, müssen unter anderem:
- Risikobewertungen durchführen,
- Transparenzanforderungen einhalten und
- die Systeme regelmäßig überprüfen.
Verstöße gegen diese Regelungen können zukünftig zu erheblichen Bußgeldern führen.
Interne Haftung: Wenn Mitarbeiter auf KI vertrauen
Auch Mitarbeitende, die Entscheidungen auf Basis von KI-Daten treffen, unterliegen dem allgemeinen arbeitsrechtlichen Haftungsregime. Sie können haften, sofern sie grob fahrlässig oder vorsätzlich handeln.
Vertraut ein Mitarbeiter blind auf KI-Ergebnisse, ohne deren Plausibilität zu prüfen, kann dies je nach Fall als grob fahrlässig gewertet werden – mit haftungsrechtlichen Folgen.
Absicherung durch Compliance und KI-Governance
Der beste Weg, Haftung zu vermeiden, ist ein vorausschauender Umgang mit KI-Systemen.
Dazu gehören:
- Dokumentation der Entscheidungsgrundlagen von KI-Systemen,
- Regelmäßige Risikoprüfungen und Funktionskontrolle: Identifikation der Risiken, Maßnahmen zur Risikominimierung, insbesondere menschliche Kontrollen der KI-Systeme,
- Schulungen der Mitarbeitenden im Umgang mit KI-gestützten Prozessen: Mitarbeitende sollen kontinuierlich lernen und sich weiterentwickeln um die Risiken des KI-Einsatzes zu minimieren,
- Transparenzpflichten gegenüber Kunden und Geschäftspartnern.
Um sicher zu stellen, dass der Einsatz von Künstlicher Intelligenz rechtskonform, ethisch vertretbar und kontrollierbar erfolgt – insbesondere im Hinblick auf neue Vorschriften wie den EU-AI Act, Datenschutzgesetze (DSGVO) und interne Unternehmensrichtlinien, empfiehlt sich die Implementierung eines KI-Compliance-Management-Systems, das sich mit den zahlreichen speziellen Risiken und Pflichten rund um den Einsatz von KI auseinandersetzt.
Fazit: Haftung bleibt menschlich
Künstliche Intelligenz mag Entscheidungen treffen – die Verantwortung dafür bleibt beim Menschen. Unternehmen, die KI einsetzen, müssen klare Regeln, Kontrollmechanismen und rechtliche Absicherungen schaffen. Nur so lässt sich die Balance zwischen technischer Innovation und rechtlicher Sicherheit wahren.
Terminvereinbarung
Terminvereinbarungen mit der Kanzlei sind unproblematisch auch per WhatsApp möglich. Bitte beachten Sie jedoch, dass über WhatsApp ausschließlich die Terminvereinbarung erfolgt.
KONTAKTFORMULAR
Zur Vereinbarung eines Termins mit der Kanzlei Hobohm Natalello Giloth können Sie im Übrigen auch das Kontaktformular verwenden. So kommen Sie schnell und einfach zu Ihrem Termin in der Kanzlei
Selbstverständlich können Sie Termine mit Ihrem Anwalt auch per E-Mail vereinbaren. Bei einer Kontaktaufnahme per E-Mail bietet es sich an, wenn Sie den Sachverhalt bereits grob skizzieren.