LinkedIn DAS INVESTMENT
Suche
in AnalysenLesedauer: 4 Minuten

Verschlungene Denkwege Warum KI nachvollziehbar bleiben muss

Londoner City bei Nacht: Bei Künstlicher Intelligenz sollen die Entscheidungs- und Lernwege in der Finanzwirtschaft nicht im Dunkeln bleiben.
Londoner City bei Nacht: Bei Künstlicher Intelligenz sollen die Entscheidungs- und Lernwege in der Finanzwirtschaft nicht im Dunkeln bleiben. | Foto: Skitterphoto / Pixabay.com

Die Taskforce „Künstliche Intelligenz“ des Ethikverbands der Deutschen Wirtschaft (EVW) diskutierte den Einsatz von Künstlicher Intelligenz in der Finanzwirtschaft. Moralphilosoph Prof. Dr. Klaus-Jürgen Grün diskutierte dabei gemeinsam mit Dr. Irina Kummert, Präsidentin des EVW, Dr. Jochen Biedermann, Gründer und CEO von Blockchain (Asia), Dr. Lothar Weniger von der University of Maryland, Kommunikationsberater Dr. Matthias Wühle, dem Arzt Dr. Wolfgang Thoma und Harald Vajkonny, Direktor des Frankfurt Free Software and Culture Institutes e.V (FFSCI) unter der Moderation von Paul van de Wiel unter anderem das Blackbox-Problem, also die Frage, wie nachvollziehbar KI-Entscheidungen in der Finanzwirtschaft sein müssen.

Können Denkprozesse maschinell abgebildet werden?

Der Begriff „Künstliche Intelligenz“ selbst stammt aus dem Jahr 1956 von John McGarthy und Herbert Simon und sollte ursprünglich die Analyse von Denkprozessen umschreiben. Die Autoren stellten sich damals die Frage, ob Denkprozesse auch maschinell abgebildet werden könnten. Damit verbunden sind Fragen wie: Wie laufen diese Denkprozesse ab? Können diese simuliert werden? Der Versuch, diese zu entschlüsseln, kann mit Stand heute als gescheitert betrachtet werden, stellt Grün fest. Was jedoch dadurch erreicht wurde, ist, dass wir durch die KI-Forschung den menschlichen Denkprozess verstehen gelernt haben. Die Auffassung, dass KI Intelligenz simulieren solle, sei ein unzulässiger und gescheiterter Legitimationsversuch zugleich, ergänzt Vajkonny. Hier verkomme der Begriff zu einem reinen Marketingschlagwort.

Kein Denken ohne Bewusstsein

Für Thoma stellt sich dabei die Frage: Ist KI lediglich der Ausdruck einer quantitativ hochgeschraubten Digitalisierung? Oder geht der Anspruch noch weiter darüber hinaus? Was macht unser Denken zum Denken? Was macht unsere Entscheidungen zu Entscheidungen? René Descartes hat das Denken zur Seinsvoraussetzung erhoben, ein Grundsatz, der sich bis heute als „Cogito ergo sum“ erhalten hat. Cogito heißt „Ich denke“, abgeleitet vom Nomen Cogitatio. Doch was verbirgt sich hinter diesem lateinischen Begriff?

1.200% Rendite in 20 Jahren?

Die besten ETFs und Fonds, aktuelle News und exklusive Personalien erhalten Sie in unserem Newsletter „DAS INVESTMENT Daily“. Kostenlos und direkt in Ihr Postfach.

Ein Blick in ein standardmäßiges Latein-Wörterbuch liefert Wühle zufolge unter anderem folgende Übersetzungsvorschläge: „Gedanke, Vorstellung, Erwägung, Überlegung, Denkvermögen, Einbildungskraft, Vorhaben, Absicht und Entschluss“. Dies sei nur ein kleiner Hinweis darauf, wie komplex allein die Vorstellung dessen ist, was unter Denken subsumiert werden kann. Die Frage sei dabei auch, wieviel Bewusstsein nötig ist, um von KI sprechen zu können. Hilary Putnam hat in seinem Gehirn-im-Tank-Gedankenexperiment nachgewiesen, dass Denken ohne Bewusstsein auch theoretisch nicht vorstellbar ist.

Die Entzauberung des KI-Anspruchs

Die Frage der Objektivität folgt unmittelbar daraus. Kann man mithilfe von KI Aussagen objektivieren, sodass diese einen universellen und intersubjektiven Wahrheitsgehalt haben? Und könnte KI sogar eine objektive Richtigkeit von Aussagen produzieren, die alle Subjekte akzeptieren würden? Kummert zufolge stellt sich dabei die Frage, ob Objektivität überhaupt digital hergestellt werden kann. Und wenn ja – wäre das überhaupt erstrebenswert? Solange der Input vom Menschen aus kommt, könne von Objektivität eigentlich keine Rede sein. Solange diese Frage nicht anders beantworten kann, muss man klar von einer Entzauberung des KI-Anspruchs sprechen.

Daten-Input als Fehlerquelle

Die Moderne müsse sich zur Subjektivität bekennen, fordert Thoma. Das Subjektive muss mit ins Kalkül gezogen werden. Auch die Intuition spielt hierbei eine große Rolle. Die Frage ist außerdem: Aus welcher Sphäre holen wir unser objektives Wissen? Ein Computerprogramm könne beispielsweise gar nicht subjektiv sein, so Weniger; denn das wäre in sich unlogisch. Der Algorithmus geht einfach Rechenschritte durch. Er verfügt über keinerlei subjektive Einstellung. Der Algorithmus selbst sei aber auch nicht objektiv, sondern bildet die Subjektivität seines Erschaffers ab. Er ist in dieser Hinsicht „biased“.

Tipps der Redaktion