Suche Event Calendar Icon EVENTKALENDER Newsletter Icon Newsletter Icon Newsletter Abonnieren

Themen-Experte Die Spezialisten für globale Geldanlage

ANZEIGE
ANZEIGE

GenAI erst am Anfang Argumente für langfristiges KI-Wachstum

Von in Die Spezialisten für globale GeldanlageLesedauer: 8 Minuten
KI führt das Gesundheitswesen in eine digitale Transformation
KI führt das Gesundheitswesen in eine digitale Transformation: Die meisten Investoren unterschätzen nach Meinung von Franklin Equity Group den Wert, den GenAI in den nächsten zehn Jahren liefern wird. | Foto: Imago Images / Westend61

Trotz einiger Volatilität in den vergangenen Wochen haben Technologiewerte im bisherigen Jahresverlauf bis zum 31. Juli starke Renditen erzielt und dem MSCI All Country World Index zufolge alle anderen Sektoren übertroffen – oft mit großem Abstand. Trotz des phänomenalen Wachstums der KI-Infrastrukturunternehmen in diesem Zeitraum sind wir davon überzeugt, dass viele Anleger die Tragweite optimierter KI-Modelle, die ins Haus stehen, noch nicht vollständig erfassen. Sie dürften sich noch keine Vorstellung davon machen, wie diese Verbesserungen, sobald sie eingesetzt werden, in den kommenden Jahren Innovationen ermöglichen, das Wachstum beschleunigen und die Effizienz der Weltwirtschaft steigern.

Parallel zu dieser Beschleunigung werden wir zweifellos ein erhebliches Wachstum der globalen Infrastruktur erleben, die zur Unterstützung der weiteren Skalierung und Nutzung von KI-Modellen erforderlich ist.

KI-Technologien entwickeln sich in rasantem Tempo

Die weltweit fortschrittlichsten generativen KI-Modelle sind in der Lage, immer anspruchsvollere Aufgaben auszuführen. In den letzten zehn Jahren sind die KI-Fähigkeitskurven stark gestiegen, da die Forscher immer mehr Rechenleistung, Daten und algorithmische Verbesserungen in die Modelle eingebracht haben. Wir gehen davon aus, dass sich diese Fortschritte in absehbarer Zukunft in rasantem Tempo fortsetzen, weil zusätzliche Verbesserungen auf neue Modelle angewendet werden.

 

Hier vier Dinge, die Anleger über die Skalierung von KI-Modellen wissen sollten:

Datenverarbeitung: Der Bedarf an KI-Rechenleistung wird in den nächsten Jahren wahrscheinlich um das 100-fache steigen

Die Rechenleistung ist der Hauptfaktor, der die Skalierung und die Modellfähigkeit beim Training ermöglicht, und wir beobachten, dass die Prognosen für das rechnergestützte Training äußerst beeindruckend sind. Wir schätzen, dass OpenAI sein GPT-4-Modell (das im März 2023 veröffentlicht wurde) auf etwa 10.000 NVIDIA-H100-äquivalenten Grafikprozessoren (GPUs) mit Kosten von etwa 500 Millionen US-Dollar trainiert hat. Wir schätzen außerdem, dass die Spitzenmodelle von OpenAI und seinen Konkurrenten im laufenden Jahr auf etwa 100.000 NVIDIA-H100-äquivalenten GPUs trainiert werden, mit Kosten von rund 1 Milliarde US-Dollar. Perspektivisch gibt es Bestrebungen, die Spitzenmodelle für 2026 auf etwa einer Million H100-äquivalenten GPUs zu erstellen. Die Ausbildung dieser Modelle für 2026 könnte viele Milliarden US-Dollar kosten und eine elektrische Leistung erfordern, die der Energieerzeugung des gigantischen Hoover-Staudamms in den USA entspricht. Zum Vergleich: Der Hoover-Staudamm produziert in einem 24-Stunden-Zyklus etwa 11 Millionen Kilowattstunden Strom, genug, um fast 370.000 US-Haushalte zu versorgen. Aber vieles deutet darauf hin, dass eine 100-fache Skalierung der Grafikprozessoren erforderlich ist, um vom derzeitigen GPT-4-Modell – das so leistungsfähig wie ein guter Praktikant ist – zu einem Modell zu gelangen, das den Fähigkeiten eines hochqualifizierten Wissensarbeiters nahekommt.

Natürlich sind GenAI-Modelle nur dann wertvoll, wenn sie auch genutzt werden. Wir gehen davon aus, dass in den nächsten Jahren die meisten Wissensarbeiter GenAI nutzen und die meisten Unternehmen sogenannte digitale Agenten einsetzen werden (darunter wird die Fähigkeit von KI-Systemen verstanden, autonome Entscheidungen zu treffen und Maßnahmen zu ergreifen, um bestimmte Ziele mit minimalem menschlichen Eingriff zu erreichen). Denken Sie beispielsweise an das Potenzial eines der weltweit größten Software- und Cloud-Computing-Unternehmen, integrierte digitale Agenten in seine Produktivitätssuite einzubinden, die bereits über integrierte Cloud- und KI-Service-Optionen verfügt. Heute nutzen etwa 500 Millionen Wissensarbeiter diese Plattform, von denen die meisten noch nicht für GenAI-Dienste bezahlen. Wenn Wissensarbeiter im Durchschnitt 50.000 US-Dollar pro Jahr verdienen und GenAI-Services sie um 5 Prozent produktiver machen (was wir für eine sehr konservative Schätzung halten), könnten diese Modelle einen Überschuss von 1,25 Billionen US-Dollar erwirtschaften – oder 2.500 US-Dollar pro Wissensarbeiter pro Jahr. Bei voller Akzeptanz und unter der Annahme, dass jeder Nutzer jährlich 360 US-Dollar zahlt, wäre dieses Unternehmen in der Lage, sich 15 Prozent (180 Milliarden US-Dollar) des erwirtschafteten Überschusses zu sichern – eine hervorragende Rendite für Modelle, deren Entwicklung und Betrieb einige Milliarden US-Dollar kostet. Für die Kunden wäre es ein leistungsfähiges Instrument zur Produktivitätssteigerung und Kosteneinsparung.

Wir sind davon überzeugt, dass die Akzeptanz digitaler Agenten in Unternehmen in dem Maße zunehmen wird, wie sich die Modelle verbessern und die praktischen Vorteile deutlicher und überzeugender werden.

Energie: Für das KI-Wachstum muss genügend Strom verfügbar sein

In den USA wird es eine Herausforderung sein, bis 2026 genügend Strom für die Schaffung eines Clusters mit einer Million H100-GPU-Äquivalenten zu sichern. Wir glauben, dass der Bedarf durch die Nutzung der bestehenden Kernkraftinfrastruktur des Landes und der reichlich vorhandenen Erdgasressourcen Amerikas gedeckt werden könnte. Sofern das Wachstum der KI-Modelle über das Jahr 2026 hinaus anhält, könnte es allerdings schwieriger werden, ausreichend Energie zu erzeugen. Angesichts der Anreize, die mit dem Renditeprofil dieser Modelle verbunden sind, sind wir jedoch zuversichtlich, dass es Lösungen geben wird, die letztlich der Industrie, der Energieinfrastruktur und den nicht regulierten Versorgungsunternehmen zugutekommen.

Daten: Zum Trainieren von Modellen muss Zugriff auf Datenressourcen gewährleistet sein

Daten sind der nächste wesentliche Faktor für die Modellskalierung. Einige Marktteilnehmer haben Zweifel an der Verfügbarkeit frischer Daten für das Training von GenAI-Modellen in der Zukunft geäußert. Wir sind anderer Meinung und glauben, dass es sowohl im Bereich der von Menschen als auch der von Maschinen generierten Daten noch viele Informationen zu erschließen gibt. Große Basismodelle wie die von OpenAI werden auf kuratierten, von Menschen erstellten Texten aus dem Internet, wissenschaftlichen Abhandlungen, Büchern und mehr trainiert. Es gibt jedoch auch riesige Mengen an von Menschen erstellten Daten, die in den Datenbanken von Unternehmen gespeichert sind. Diese vertraulichen Daten sind zwar für die Entwickler von Basismodellen nicht zugänglich, Unternehmen könnten ihre internen Daten in Kombination mit den grundlegenden Modellen jedoch verwenden, um unternehmensspezifische Modelle und Erkenntnisse zu gewinnen.

Es gibt zudem Daten über menschliche Daten, auch bekannt als Metadaten. Denken Sie daran, was passiert, wenn ein Mensch sich mit einem neuen Thema aus einem Buch befasst. Der Lernprozess kann wie folgt ablaufen: Der Mensch liest das Buch, denkt über den Inhalt nach, liest Teile des Buches erneut, arbeitet an einer Problemstellung zu dem spezifischen Thema und spricht mit jemandem über das Buch. Diese Schritte erzeugen Daten über die vom Menschen erzeugten Daten im Buch und verbessern den Lernprozess. Modelle können diese Prozesse wiederholen, um neue Trainingsdaten zu erzeugen, ihr Verständnis zu vertiefen und ihre Fähigkeiten zu verbessern. Darüber hinaus werden diese Modelle immer multimodaler, d. h. sie können nicht nur Text, sondern auch Audio, Bilder und sogar digitale Arbeitsabläufe auf PCs und mobilen Geräten nutzen, um Modelle der Welt zu erstellen und schließlich KI-Agenten zu generieren. Wir sind optimistisch, dass es eine Fülle von Daten gibt, um sowohl von Menschen erzeugte als auch synthetische Modelle zu trainieren.

 

Algorithmische Verbesserungen: Wege zur Nachahmung des menschlichen Lernens besser verstehen

Algorithmische Verbesserungen haben möglicherweise das größte Potenzial für die Weiterentwicklung der KI. Man bedenke, dass diese Modelle mit digitalen Neuronen aufgebaut sind, die versuchen, die Fähigkeiten organischer Neuronen zu imitieren. Das hochleistungsfähige und effiziente menschliche Gehirn, das etwa 86 Milliarden organische Neuronen enthält, läuft mit einem durchschnittlichen Stromverbrauch von 20 Watt – das entspricht dem einer kleinen Glühbirne und ist weit weniger als die Energie, die benötigt wird, um einen 1.000-Zeichen-Prompt ausführen zu lassen.

Warum ist das menschliche Gehirn so viel effizienter als diese Modelle? Die Wissenschaft versteht zwar noch nicht ganz, wie es die Evolution geschafft hat, so effizient zu werden, wir glauben aber, dass sich die digitale Version dieses Prozesses im Laufe der Zeit ändern kann, wenn mehr Forscher in den Bereich der KI einsteigen, große Mengen an Kapital zur Verfügung stehen und weiter experimentiert wird.

Verbesserung des Modellpotenzials

Heute nutzen die Menschen GenAI-Modelle hauptsächlich über eine stark moderierte Chat-Schnittstelle. Nachtrainingsverfahren – wie das Verstärkungslernen mit menschlichem Feedback (RLHF) – werden eingesetzt, um zu verhindern, dass die Modelle fehlerhafte Textausgaben produzieren. Mit zunehmendem Verständnis der Modelle durch die Forscher sollten die Entwickler jedoch in der Lage sein, die Modelle präziser auszurichten, sodass ein größerer Teil der Leistung eines Modells richtig genutzt werden kann. Da die meisten aktuellen Modelle als Chatbots eingesetzt werden, steht ihre Optimierung für agentisches Verhalten noch aus. Wir sind zuversichtlich, dass die neu entstehenden Modelle die Grundlage für leistungsstarke Agenten-Fähigkeiten bilden werden, was zu einer deutlich höheren Nutzung, höheren finanziellen Erträgen und einer größeren Nachfrage nach den knappen Skalierungsfaktoren führen wird.

Fazit

Alles deutet darauf hin, dass wir, wenn die Entwicklung von KI-Modellen dank Rechenleistung, Daten und algorithmischen Verfeinerungen weiter fortschreitet, erst am Anfang eines erheblichen Innovationsschubs stehen. Wir erwarten dramatische Effizienzgewinne und eine starke Beschleunigung des globalen Wachstums. Es ist unwahrscheinlich, dass ein Wandel dieses Ausmaßes ohne Volatilität und Unsicherheiten vonstatten geht. Die Zeit wird zeigen, ob die aktuellen Bewertungen gerechtfertigt sind und welche Unternehmen im Technologiebereich und darüber hinaus zu den Gewinnern gehören werden. Auch wenn einige Anleger versucht sein mögen, die jüngste Rally in der Technologiebranche zu verkaufen, sind wir der Überzeugung, dass sie damit Chancen verpassen, die wir von einem künftigen transformativen Wachstum erwarten.

 

Dies ist eine Marketingmitteilung. Bitte lesen Sie vor jeder abschließenden Anlageentscheidung den Verkaufsprospekt des OGAW und das Basisinformationsblatt (BiB).

Alle Anlagen sind mit Risiken verbunden, ein Verlust des Anlagekapitals ist möglich. Der Wert von Anlagen kann fallen oder steigen, und Anleger erhalten möglicherweise nicht den vollen Anlagebetrag zurück. Anleihenkurse entwickeln sich im Allgemeinen gegenläufig zu den Zinsen. Wenn sich also die Anleihenkurse in einem Investmentportfolio den steigenden Zinsen anpassen, kann der Wert des Portfolios sinken. Veränderungen der Bonitätsbewertung einer Anleihe oder der Bonitätsbewertung oder Finanzkraft des Emittenten, Versicherers oder Garantiegebers der Anleihe können sich auf deren Wert auswirken.

 

Wie hat Ihnen der Artikel gefallen?

Danke für Ihre Bewertung
Leser bewerteten diesen Artikel durchschnittlich mit 0 Sternen
PDF nur für Sie. Weitergabe? Fragen Sie uns.
Hinweis: Diese News ist eine Mitteilung des Unternehmens und wurde redaktionell nur leicht bearbeitet.