LinkedIn DAS INVESTMENT
Suche
in AnalysenLesedauer: 4 Minuten

Verschlungene Denkwege Warum KI nachvollziehbar bleiben muss

Seite 2 / 2

Zwischen Algorithmus und Daten muss dabei klar unterschieden werden, fordert auch Vajkonny. Während der Algorithmus objektiv sei, seien die Daten stets subjektiv. Fehler entstünden in der Regel bei der unzureichenden Fütterung mit Daten. KI erfordere daher Sachverstand bei der Datenaufbereitung. Wirklich gute KI-Systeme benötigen ein permanentes Training. Deswegen sprechen wir auch von lernenden Algorithmen, ergänzt Biedermann.

Bafin fordert Nachvollziehbarkeit

Der Impact der KI-Anwendung ist nicht immer der, den das Individuum wünscht. Der Anspruch beim Einsatz von KI im Finanzsektor ist der, dass der Kunde eine personalisierte Dienstleistung in Echtzeit wünscht. Eine Herausforderung liegt dabei im Deep Learning: Umfangreiche neuronale Netzwerke stellten für den Außenstehenden eine Black Box dar. Diese könnte auch die Tür für Manipulationen, zum Beispiel durch eine selektive Auswahl von Trainingsdaten öffnen. Der Trend geht daher mehr in Richtung „Explainable KI“, die für Nutzer nachvollziehbar sein muss.

Das ist letzten Endes auch wichtig für Aufsichtsbehörden wie die Bafin. Zu den Gefahren beim Einsatz von KI im Finanzwesen gehöre auch die Überwachung der Datenqualität, dies sei vor allem eine regulatorische Herausforderung. Wichtig sei ferner, Informationsasymmetrien und einseitige Abhängigkeiten von Daten zu vermeiden, etwa an Schnittstellen, an denen ein KI-System das andere mit Daten füttert. Interessant wäre vor diesem Hintergrund auch die Frage, ob Menschen anders reagieren, wenn sie erführen, dass bestimmte Entscheidungen, etwa zur Kreditbonität KI-basiert getroffen worden sind. Hier könne man auch sehen, dass KI die menschliche Emotionalität komplett ausblende, während der menschliche Anlageberater emotionalisiert agiert. Dieser menschliche Bias könnte durch KI erfolgreich ausgeschalten werden, schlägt Kummert vor. Doch jahrzehntelang gehörte dieser Bias zum Erfolgsmodell der menschlichen Anlageberatung, so Biedermann. Die Frage, die hier gestellt werden muss ist: Wollen Banken beraten oder verkaufen? Auch diese Lösung könnte in einer erklärbaren KI-Anwendung liegen.

Über die Autorin:
Die Politikwissenschaftlerin Almut Weber koordiniert an der IHK Darmstadt die Arbeit der überregionalen Standortinitiative PERFORM – Metropolregion Frankfurt-Rhein-Main, unter anderem auch bei den Bestrebungen zur Entwicklung zur „Digitalen Modellregion“.

Wie hat Ihnen der Artikel gefallen?

Danke für Ihre Bewertung
Leser bewerteten diesen Artikel durchschnittlich mit 0 Sternen
Tipps der Redaktion