Daten: Zum Trainieren von Modellen muss Zugriff auf Datenressourcen gewährleistet sein

Daten sind der nächste wesentliche Faktor für die Modellskalierung. Einige Marktteilnehmer haben Zweifel an der Verfügbarkeit frischer Daten für das Training von GenAI-Modellen in der Zukunft geäußert. Wir sind anderer Meinung und glauben, dass es sowohl im Bereich der von Menschen als auch der von Maschinen generierten Daten noch viele Informationen zu erschließen gibt. Große Basismodelle wie die von OpenAI werden auf kuratierten, von Menschen erstellten Texten aus dem Internet, wissenschaftlichen Abhandlungen, Büchern und mehr trainiert. Es gibt jedoch auch riesige Mengen an von Menschen erstellten Daten, die in den Datenbanken von Unternehmen gespeichert sind. Diese vertraulichen Daten sind zwar für die Entwickler von Basismodellen nicht zugänglich, Unternehmen könnten ihre internen Daten in Kombination mit den grundlegenden Modellen jedoch verwenden, um unternehmensspezifische Modelle und Erkenntnisse zu gewinnen.

Es gibt zudem Daten über menschliche Daten, auch bekannt als Metadaten. Denken Sie daran, was passiert, wenn ein Mensch sich mit einem neuen Thema aus einem Buch befasst. Der Lernprozess kann wie folgt ablaufen: Der Mensch liest das Buch, denkt über den Inhalt nach, liest Teile des Buches erneut, arbeitet an einer Problemstellung zu dem spezifischen Thema und spricht mit jemandem über das Buch. Diese Schritte erzeugen Daten über die vom Menschen erzeugten Daten im Buch und verbessern den Lernprozess. Modelle können diese Prozesse wiederholen, um neue Trainingsdaten zu erzeugen, ihr Verständnis zu vertiefen und ihre Fähigkeiten zu verbessern. Darüber hinaus werden diese Modelle immer multimodaler, d. h. sie können nicht nur Text, sondern auch Audio, Bilder und sogar digitale Arbeitsabläufe auf PCs und mobilen Geräten nutzen, um Modelle der Welt zu erstellen und schließlich KI-Agenten zu generieren. Wir sind optimistisch, dass es eine Fülle von Daten gibt, um sowohl von Menschen erzeugte als auch synthetische Modelle zu trainieren.

 

Algorithmische Verbesserungen: Wege zur Nachahmung des menschlichen Lernens besser verstehen

Algorithmische Verbesserungen haben möglicherweise das größte Potenzial für die Weiterentwicklung der KI. Man bedenke, dass diese Modelle mit digitalen Neuronen aufgebaut sind, die versuchen, die Fähigkeiten organischer Neuronen zu imitieren. Das hochleistungsfähige und effiziente menschliche Gehirn, das etwa 86 Milliarden organische Neuronen enthält, läuft mit einem durchschnittlichen Stromverbrauch von 20 Watt – das entspricht dem einer kleinen Glühbirne und ist weit weniger als die Energie, die benötigt wird, um einen 1.000-Zeichen-Prompt ausführen zu lassen.

Warum ist das menschliche Gehirn so viel effizienter als diese Modelle? Die Wissenschaft versteht zwar noch nicht ganz, wie es die Evolution geschafft hat, so effizient zu werden, wir glauben aber, dass sich die digitale Version dieses Prozesses im Laufe der Zeit ändern kann, wenn mehr Forscher in den Bereich der KI einsteigen, große Mengen an Kapital zur Verfügung stehen und weiter experimentiert wird.

Verbesserung des Modellpotenzials

Heute nutzen die Menschen GenAI-Modelle hauptsächlich über eine stark moderierte Chat-Schnittstelle. Nachtrainingsverfahren – wie das Verstärkungslernen mit menschlichem Feedback (RLHF) – werden eingesetzt, um zu verhindern, dass die Modelle fehlerhafte Textausgaben produzieren. Mit zunehmendem Verständnis der Modelle durch die Forscher sollten die Entwickler jedoch in der Lage sein, die Modelle präziser auszurichten, sodass ein größerer Teil der Leistung eines Modells richtig genutzt werden kann. Da die meisten aktuellen Modelle als Chatbots eingesetzt werden, steht ihre Optimierung für agentisches Verhalten noch aus. Wir sind zuversichtlich, dass die neu entstehenden Modelle die Grundlage für leistungsstarke Agenten-Fähigkeiten bilden werden, was zu einer deutlich höheren Nutzung, höheren finanziellen Erträgen und einer größeren Nachfrage nach den knappen Skalierungsfaktoren führen wird.

Fazit

Alles deutet darauf hin, dass wir, wenn die Entwicklung von KI-Modellen dank Rechenleistung, Daten und algorithmischen Verfeinerungen weiter fortschreitet, erst am Anfang eines erheblichen Innovationsschubs stehen. Wir erwarten dramatische Effizienzgewinne und eine starke Beschleunigung des globalen Wachstums. Es ist unwahrscheinlich, dass ein Wandel dieses Ausmaßes ohne Volatilität und Unsicherheiten vonstatten geht. Die Zeit wird zeigen, ob die aktuellen Bewertungen gerechtfertigt sind und welche Unternehmen im Technologiebereich und darüber hinaus zu den Gewinnern gehören werden. Auch wenn einige Anleger versucht sein mögen, die jüngste Rally in der Technologiebranche zu verkaufen, sind wir der Überzeugung, dass sie damit Chancen verpassen, die wir von einem künftigen transformativen Wachstum erwarten.

 

Dies ist eine Marketingmitteilung. Bitte lesen Sie vor jeder abschließenden Anlageentscheidung den Verkaufsprospekt des OGAW und das Basisinformationsblatt (BiB).

Alle Anlagen sind mit Risiken verbunden, ein Verlust des Anlagekapitals ist möglich. Der Wert von Anlagen kann fallen oder steigen, und Anleger erhalten möglicherweise nicht den vollen Anlagebetrag zurück. Anleihenkurse entwickeln sich im Allgemeinen gegenläufig zu den Zinsen. Wenn sich also die Anleihenkurse in einem Investmentportfolio den steigenden Zinsen anpassen, kann der Wert des Portfolios sinken. Veränderungen der Bonitätsbewertung einer Anleihe oder der Bonitätsbewertung oder Finanzkraft des Emittenten, Versicherers oder Garantiegebers der Anleihe können sich auf deren Wert auswirken.