DAS INVESTMENT Versicherungen: Laut des aktuellen „Allianz Risk Barometer“ schätzen Unternehmen weltweit KI als das zweitgrößte Risiko für ihr Geschäft ein, das nur von Cyberrisiken übertroffen wird. Im Versicherungsgeschäft trifft das wohl in mehrfacher Hinsicht zu: Zum einen können Kriminelle KI nutzen, um Leistungen zu erschleichen, zum anderen birgt auch die KI-Nutzung durch Mitarbeiter erhebliche Gefahren. Welche dieser Gefahren schätzen Sie als besonders hoch ein?
Andreas Sutter: Die rasante Entwicklung im Bereich KI wirbelt das Risikomanagement der Versicherer gehörig durcheinander. Auf der einen Seite steigert KI die Effizienz von Angriffen – ähnlich wie in anderen Bereichen macht sie Prozesse schneller und wirkungsvoller.
Das hat zwei Konsequenzen: Erstens werden viele Risiken wahrscheinlicher. Zweitens verlieren etablierte Schutzmaßnahmen ihre Wirkung. Diese Risiken und Gefahren gab es also schon vor der KI-Zeit, sie sind nur erheblich bedrohlicher geworden.
Welche Gefahren meinen Sie?
Sutter: Die Gefahr durch Deep-Fake beispielsweise gibt es bereits länger. In der Vergangenheit waren solche Betrugsversuche für Angreifer allerdings mit hohem Zeit-, Kosten- und Knowhow-Einsatz verbunden. Das hat sich dank KI nun grundlegend geändert. Deep-Fake-Bilder und -Dokumente können mit geringem Aufwand erzeugt werden. Damit wird aus einem bisher unwahrscheinlichen heute ein relevantes Risiko in den Kernprozessen von Schaden und Leistung.
Gleiches gilt für Phishing oder Social Engineering. Auf der anderen Seite entstehen durch die Nutzung von KI-Systemen neue, bisher noch unbekannte Risiken in den Bereichen Compliance, Datenschutz und Informationssicherheit. Gerade im Bereich Datenschutz und KI sind viele Fragen noch ungeklärt.
Diese Gemengelage trifft auf eine überwiegend noch geringe Awareness und größtenteils schwaches KI-Knowhow. Hinzu kommt das in der Branche oft noch sehr verbreitete Abteilungsdenken. KI-Risiken müssen ganzheitlich und übergreifend bewertet und gemanagt werden. Geschieht das nicht, entstehen schnell neue Gefahren durch eine „Schatten-KI“, von der die verantwortlichen Stellen im Datenschutz und in der Informationssicherheit oft keine Kenntnis haben.
Und nicht zuletzt ist die Branche generell anfällig für die Fear-of-missing-out, die Angst etwas zu verpassen. Mein persönlicher Eindruck ist, dass an manchen Stellen, insbesondere in Marketing und Vertrieb, KI-Themen zu schnell oder zu unkontrolliert vorangetrieben werden, weil man Sorge hat den Anschluss zu verlieren.




Phishing und Social Engineering als häufigste KI-Angriffe
Was ist die häufigste Betrugsmasche, die mithilfe von KI erstellt wird?
Sutter: Mittels KI lassen sich mit geringem Aufwand, Bilder, Videos oder Dokumente erzeugen, die nichts mit der Wirklichkeit gemeinsam haben. Das gilt für Antrags-, Ausweis- oder Schadendokumente. Nicht immer lässt sich mit Sicherheit belegen, dass diese Dokumente mit KI erstellt wurden, und es gibt keine sichere Statistik. Meine Vermutung ist aber, dass die Betrugszahlen im Bereich Antrag und Schaden/Leistung steigen.
Die häufigsten KI-gesteuerten Angriffe sind aber mit Sicherheit im Bereich Phishing und Social Engineering zu verzeichnen. Dort kann man inzwischen sehr ausgefeilte und schwierig zu erkennende Angriffe beobachten. Umso erstaunlicher, dass sich Teile der Branche, gerade im Vertrieb, so vehement gegen phishing-resistente MFA wehren.
Was bedeutet phishing-resistente MFA?
Sutter: Phishing‑resistente Multi‑Faktor‑Authentifizierung meint Verfahren, bei denen Angreifer selbst mit perfekten Phishing‑Seiten, Deepfakes oder KI‑gestützten Social‑Engineering‑Tricks keine gültigen Anmeldedaten abfischen können, weil sich der Login technisch an den echten Dienst bindet und keine wiederverwendbaren Geheimnisse preisgibt.
Studien zeigen, dass in vielen Unternehmen Mitarbeiter private KI-Tools wie ChatGPT nutzen – die sogenannte „Schatten-KI“. Welche Risiken sehen Sie konkret für die Geldwäscheprävention, wenn sensible Kundendaten oder Verdachtsfälle in solche Systeme eingegeben werden?
Sutter: Im Bereich der Geldwäscheprävention und der Verhinderung der Terrorismusfinanzierung nach dem Geldwäschegesetz geht es oft um hochgradig sensible Daten. Teilweise können sogar Leben gefährdet sein, wenn diese Informationen in falsche Hände geraten. Man denke beispielsweise nur an eine Verdachtsmeldung im Bereich der organisierten Kriminalität.
Wenn diese Daten den Wirkungskreis des Versicherers oder des Vermittlers verlassen, weil sie unkontrolliert in einem privaten KI-System landen, dann liegt ein schwerwiegender Sicherheitsvorfall vor, der in den meisten Fällen nach „DORA“ auch der Bafin gegenüber meldepflichtig wäre.
Wie können Versicherer sich davor schützen?
Sutter: Neben den klassischen Governance-Maßnahmen wie Richtlinien und Anweisungen empfiehlt sich zum einen ein Browser-Black-Listing, das verhindert, dass Beschäftigte über die IT-Systeme des Versicherers auf nicht freigegebene KI-Systeme zugreifen können. Zudem sollte eine geschützte und kontrollierte KI-Umgebung in Form eines Large Language Models vom Unternehmen bereitgestellt werden, damit gar nicht erst die Versuchung entsteht, fremde Modelle zu nützen. Das erhöht nebenbei die KI-Kompetenz im Unternehmen.




Kriminelle Angreifer scheren sich nicht um Regulatorik
Eine vollständige Anwendung der „AI Act“-Verordnung ist erst für den August 2026 vorgesehen. Welche Rolle spielt die noch nicht abgeschlossene Regulierung des KI-Einsatzes beim Betrug mittels KI?
Sutter: In der Praxis spielt der „AI-Act“ kaum eine Rolle bei diesem Thema. Auf der einen Seite wirkt die KI effizienzsteigernd auf die Betrugsaktivitäten. Diese gab es also auch vorher und sie waren auch in der Vergangenheit ausreichend gesetzlich geregelt. Doch ein wesentlicher Vorteil aller kriminellen Angreifer besteht darin, dass sie sich um Regulatorik nicht scheren.
Mit „DORA“, der KI-Verordnung und verschärften Geldwäscherichtlinien entstehen neue Compliance-Anforderungen. Wie bereiten sich Versicherer auf die Herausforderungen vor, KI-gestützte Entscheidungen transparent, nachvollziehbar und überprüfbar zu gestalten?
Sutter: Konkrete Projekte dazu sind vertraulich. Explainable AI, also Verfahren, die Entscheidungen von KI‑Modellen nachvollziehbar und erklärbar machen, sind in jedem Fall ein guter und möglicher Ansatz. Das allein seligmachende Modell ist das aber auch nicht.
Für die Geldwäsche- und Betrugsbekämpfung benötigen die Versicherer zeitnah KI-Systeme zum Monitoring und zur Mustererkennung, die auch hinreichend transparent für die Betreiber sind. Fest steht jedenfalls, dass kleine und mittelgroße Versicherer mit der Flut der Regulatorik leicht bis schwer personell und finanziell überfordert zu sein scheinen. Das gilt nicht nur für den Bereich KI.

