Suche Event Calendar Icon EVENTKALENDER Newsletter Icon Newsletter Icon Newsletter Abonnieren

Verschlungene Denkwege Warum KI nachvollziehbar bleiben muss

Von in AnalysenLesedauer: 4 Minuten
Londoner City bei Nacht: Bei Künstlicher Intelligenz sollen die Entscheidungs- und Lernwege in der Finanzwirtschaft nicht im Dunkeln bleiben.
Londoner City bei Nacht: Bei Künstlicher Intelligenz sollen die Entscheidungs- und Lernwege in der Finanzwirtschaft nicht im Dunkeln bleiben. | Foto: Skitterphoto / Pixabay.com

Die Taskforce „Künstliche Intelligenz“ des Ethikverbands der Deutschen Wirtschaft (EVW) diskutierte den Einsatz von Künstlicher Intelligenz in der Finanzwirtschaft. Moralphilosoph Prof. Dr. Klaus-Jürgen Grün diskutierte dabei gemeinsam mit Dr. Irina Kummert, Präsidentin des EVW, Dr. Jochen Biedermann, Gründer und CEO von Blockchain (Asia), Dr. Lothar Weniger von der University of Maryland, Kommunikationsberater Dr. Matthias Wühle, dem Arzt Dr. Wolfgang Thoma und Harald Vajkonny, Direktor des Frankfurt Free Software and Culture Institutes e.V (FFSCI) unter der Moderation von Paul van de Wiel unter anderem das Blackbox-Problem, also die Frage, wie nachvollziehbar KI-Entscheidungen in der Finanzwirtschaft sein müssen.

Können Denkprozesse maschinell abgebildet werden?

Der Begriff „Künstliche Intelligenz“ selbst stammt aus dem Jahr 1956 von John McGarthy und Herbert Simon und sollte ursprünglich die Analyse von Denkprozessen umschreiben. Die Autoren stellten sich damals die Frage, ob Denkprozesse auch maschinell abgebildet werden könnten. Damit verbunden sind Fragen wie: Wie laufen diese Denkprozesse ab? Können diese simuliert werden? Der Versuch, diese zu entschlüsseln, kann mit Stand heute als gescheitert betrachtet werden, stellt Grün fest. Was jedoch dadurch erreicht wurde, ist, dass wir durch die KI-Forschung den menschlichen Denkprozess verstehen gelernt haben. Die Auffassung, dass KI Intelligenz simulieren solle, sei ein unzulässiger und gescheiterter Legitimationsversuch zugleich, ergänzt Vajkonny. Hier verkomme der Begriff zu einem reinen Marketingschlagwort.

Kein Denken ohne Bewusstsein

Für Thoma stellt sich dabei die Frage: Ist KI lediglich der Ausdruck einer quantitativ hochgeschraubten Digitalisierung? Oder geht der Anspruch noch weiter darüber hinaus? Was macht unser Denken zum Denken? Was macht unsere Entscheidungen zu Entscheidungen? René Descartes hat das Denken zur Seinsvoraussetzung erhoben, ein Grundsatz, der sich bis heute als „Cogito ergo sum“ erhalten hat. Cogito heißt „Ich denke“, abgeleitet vom Nomen Cogitatio. Doch was verbirgt sich hinter diesem lateinischen Begriff?

Bild

1.200% Rendite in 20 Jahren?

Die besten ETFs und Fonds, aktuelle News und exklusive Personalien erhalten Sie in unserem täglichen Newsletter – gratis direkt in Ihr Postfach. Jetzt abonnieren!

Go

Ein Blick in ein standardmäßiges Latein-Wörterbuch liefert Wühle zufolge unter anderem folgende Übersetzungsvorschläge: „Gedanke, Vorstellung, Erwägung, Überlegung, Denkvermögen, Einbildungskraft, Vorhaben, Absicht und Entschluss“. Dies sei nur ein kleiner Hinweis darauf, wie komplex allein die Vorstellung dessen ist, was unter Denken subsumiert werden kann. Die Frage sei dabei auch, wieviel Bewusstsein nötig ist, um von KI sprechen zu können. Hilary Putnam hat in seinem Gehirn-im-Tank-Gedankenexperiment nachgewiesen, dass Denken ohne Bewusstsein auch theoretisch nicht vorstellbar ist.

Die Entzauberung des KI-Anspruchs

Die Frage der Objektivität folgt unmittelbar daraus. Kann man mithilfe von KI Aussagen objektivieren, sodass diese einen universellen und intersubjektiven Wahrheitsgehalt haben? Und könnte KI sogar eine objektive Richtigkeit von Aussagen produzieren, die alle Subjekte akzeptieren würden? Kummert zufolge stellt sich dabei die Frage, ob Objektivität überhaupt digital hergestellt werden kann. Und wenn ja – wäre das überhaupt erstrebenswert? Solange der Input vom Menschen aus kommt, könne von Objektivität eigentlich keine Rede sein. Solange diese Frage nicht anders beantworten kann, muss man klar von einer Entzauberung des KI-Anspruchs sprechen.

Daten-Input als Fehlerquelle

Die Moderne müsse sich zur Subjektivität bekennen, fordert Thoma. Das Subjektive muss mit ins Kalkül gezogen werden. Auch die Intuition spielt hierbei eine große Rolle. Die Frage ist außerdem: Aus welcher Sphäre holen wir unser objektives Wissen? Ein Computerprogramm könne beispielsweise gar nicht subjektiv sein, so Weniger; denn das wäre in sich unlogisch. Der Algorithmus geht einfach Rechenschritte durch. Er verfügt über keinerlei subjektive Einstellung. Der Algorithmus selbst sei aber auch nicht objektiv, sondern bildet die Subjektivität seines Erschaffers ab. Er ist in dieser Hinsicht „biased“.

PDF nur für Sie. Weitergabe? Fragen Sie uns.
Newsletter Titelbild
Ja, ich möchte den/die oben ausgewählten Newsletter mit Informationen über die Kapitalmärkte und die Finanzbranche, insbesondere die Fonds-, Versicherungs-und Immobilienindustrie abonnieren. Hinweise zu der von der Einwilligung mitumfassten Erfolgsmessung, dem Einsatz der Versanddienstleister June Online Marketing und Mailingwork, der Protokollierung der Anmeldung, der neben der E-Mail-Adresse weiter erhobenen Daten, der Weitergabe der Daten innerhalb der Verlagsgruppe und zu Ihren Widerrufsrechten finden Sie in der Datenschutzerklärung. Diese Einwilligung können Sie jederzeit für die Zukunft widerrufen.
+
Anmelden
Tipps der Redaktion