LinkedIn DAS INVESTMENT
Suche
in WährungenLesedauer: 6 Minuten

Currency-Overlay-Strategien Wie Währungsmanager künstliche Intelligenz nutzen können

Seite 2 / 3

Funktionsweise eines künstlichen neuronalen Netzes

Neuronale Netze verarbeiten Daten über eine Reihe von hintereinander geschalteten und untereinander vernetzten Schichten.

Jede Schicht besteht aus einer Anzahl von Knoten. In einem typischen „feedforward"-Netz ist jeder Knoten einer Schicht mit jedem Knoten der nachfolgenden Schicht verbunden. Der Name „feedforward" beschreibt den Fluss der Information von den Eingabeknoten über die inneren Schichten bis in die Ausgabeschicht.

In jedem Knoten findet eine Aggregation der Informationen aller Vorgängerknoten statt. Dabei ist jeder Knotenverbindung ein Gewichtsparameter zugeordnet.

Die Aggregation besteht aus einer mit diesen Parametern gewichteten Summe der Vorgängerausgaben und anschließender Anwendung einer nichtlinearen Aktivierungsfunktion.

Der Ausgabewert dieser Funktion dient seinerseits wiederum als Eingabewert für die Aggregation in der nächsten Schicht. Obwohl jeder einzelne Aggregationsschritt recht einfach ist, ist ein solches Netzwerk durch die Hintereinanderschaltung vieler solcher Elemente in der Lage, hochkomplexe Funktionen abzubilden.

Der Lernalgorithmus

Die Struktur des Netzwerks, sowie die Anzahl der Schichten und die Art der Aktivierungsfunktionen sind a-priori gesetzt. Die Gewichtsparameter hingegen werden mit Hilfe des sogenannten Backpropagation-Algorithmus ermittelt. Dabei wird das Netzwerk mit Trainingsdaten gefüttert und die entsprechenden Ausgaben werden mit den korrekten Antworten verglichen.

Im Backpropagation-Schritt wird der Einfluss der Gewichte auf den gemachten Fehler analysiert. Die Information fließt nun also rückwärts durch das Netzwerk von der Ausgabeschicht bis hin zu den einzelnen Gewichten. Dadurch kann der Lernalgorithmus nun Schritt für Schritt die Gewichte so verändern, dass der Fehler kleiner wird, bis eine optimale Konfiguration gefunden ist.

Balance zwischen Unter- und Überanpassung

Neuronale Netze haben eine große Anzahl freier Parameter. Dies birgt grundsätzlich die Gefahr, dass sich der Algorithmus den Trainingsdaten zu sehr anpasst, und so für die Anwendung auf neuen Daten unbrauchbar wird.

Diesem Problem der Überanpassung kann zum einen durch eine hinreichend große Menge an Daten begegnet werden. Zum anderen existieren verschiedene Methoden, die der Überanpassung wirkungsvoll entgegenwirken. Ein Beispiel für eine solche „Regularisierung" ist die Erweiterung der Kostenfunktion um einen gewichtsabhängigen Strafterm. Diese Maßnahme hält das Netz davon ab sich zu sehr auf einzelne Knoten und Verbindungen zu verlassen. Dadurch ist es möglich, eine Balance zwischen einer Unter- und Überanpassung herzustellen.

Um diesen Prozess der Ausbalancierung zu steuern, werden die Daten für das Training und die Validierung separat vorgehalten. Die Gewichtsparameter werden ausschließlich aus den Trainingsdaten hergeleitet und das Netzwerk danach auf den Validierungsdaten getestet. Eine vergleichbare Performance des Netzwerks auf beiden Datenmengen ist eine Voraussetzung für die erfolgreiche Anwendung auf neue Daten im Live-Betrieb.

Tipps der Redaktion