

- Startseite
- Versicherungen
-
AfW-Vorstand warnt: Ohne KI-Kompetenz droht Haftung

Mit Inkrafttreten der ersten Stufe des EU AI Acts, der den Einsatz Künstlicher Intelligenz (KI) regelt, müssen Unternehmen unter anderem die KI-Kompetenz ihrer Mitarbeiter sicherstellen. In der Verpflichtung der EU-Verordnung sieht der AfW-Vorstand Frank Rottenbacher mehr als nur eine administrative Vorschrift. In einem Facebook-Post warnt er vor den praktischen Folgen, wenn man als Arbeitgeber dieser Pflicht nicht nachkommt.
Betreiber ist, wer KI nutzt
Konkret verlangt der AI Act klare Compliance-Regeln, sichere Systeme und seit dem 2. Februar 2025 auch die Sicherstellung der KI-Kompetenz. Betreiber ist dabei jeder, der KI nutzt. Wer also beispielsweise Chat GPT, Claude oder Gemini zur Texterstellung oder Datenanalyse im beruflichen Kontext einsetzt, fällt unter die Verordnung.
Daher müssten alle Finanz- und Versicherungsvermittler, die Chat GPT für die Erstellung von Beratungsprotokollen oder andere generative KI-Tools für Marketingtexte nutzen, entsprechende Schulungen nachweisen können, erklärt Rottenbacher., der selbst Vorstand einer Weiterbildungsakademie für Finanzen in Berlin ist.
KI zur Preisgestaltung und Risikobewertung besonders kritisch
Die EU-KI-Verordnung verfolgt einen risikobasierten Ansatz. Je höher das Risiko der KI-Anwendung ist, desto strenger sind die Anforderungen. „Chatbots auf der Website? Begrenztes Risiko. KI zur Kreditvergabe? Hochrisiko“, schreibt Rottenbacher.
In der Versicherungsbranche liegt ein besonderes Augenmerk im Rahmen des EU AI Acts auf Bereichen, in denen sensible personenbezogene Daten verarbeitet werden, erklärt PwC-Experte Gunter Lescher. So gehören bestimmte KI-Systeme bei Lebens- und Krankenversicherungen zum besonders stark regulierten Hochrisikobereich.
Für Vermittler könnte dies besonders relevant werden, wenn sie KI-gestützte Systeme für Risikoanalysen oder automatisierte Schadensbewertungen einsetzen. Es sei zu erwarten, dass KI-Systeme, die zur Preisgestaltung und Risikobewertung eingesetzt werden, den streng regulierten Hochrisiko-KI-Systemen zugeordnet werden, erklärt Lescher. Für diese gelten laut Hartmut Giesen, der bei der Sutor Bank die Geschäftsentwicklung im Fintech-Bereich verantwortet, umfangreiche Anforderungen, darunter Risikomanagement, Daten- und Dokumentationspflichten sowie die Nachvollziehbarkeit durch Menschen.
Die neuen KI-Kompetenzanforderungen gehen über eine einfache Schulung hinaus. KI-Kompetenz wird im EU AI Act definiert als „die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen […] ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden“.
Kein Bußgeld, aber Haftung
Obwohl die KI-Verordnung keine direkten Bußgelder für fehlende Kompetenzschulungen vorsieht, warnt Rottenbacher vor anderen rechtlichen Konsequenzen. In Zukunft könnte es nämlich als Verstoß gegen die allgemeine Sorgfaltspflicht des Arbeitgebers gewertet werden, wenn durch KI-Systeme ein Schaden entsteht. Daher wäre das Unternehmen für den Schaden haftbar.
Vermittlern empfiehlt Rottenbacher, bereits jetzt eine systematische Bestandsaufnahme der eingesetzten KI-Tools vorzunehmen und entsprechende Schulungsmaßnahmen zu dokumentieren. Dabei vergleicht er den Prozess mit der IDD-Weiterbildung: „Qualifikation muss nachvollziehbar, dokumentiert und in Prozesse eingebettet sein“.
Weitere Regelungen kommen
Die aktuellen Regelungen sind indes nur der Anfang. Die Verpflichtungen in Bezug auf KI-Modelle mit allgemeinem Verwendungszweck geltend ab dem 2. August 2025. Dagegen werden Regelungen über die in Anhang I der KI-Verordnung aufgeführten Hochrisikosysteme erst nach drei Jahren, also ab dem 2. August 2027 fällig.