GenAI erst am Anfang Argumente für langfristiges KI-Wachstum
Trotz einiger Volatilität in den vergangenen Wochen haben Technologiewerte im bisherigen Jahresverlauf bis zum 31. Juli starke Renditen erzielt und dem MSCI All Country World Index zufolge alle anderen Sektoren übertroffen – oft mit großem Abstand. Trotz des phänomenalen Wachstums der KI-Infrastrukturunternehmen in diesem Zeitraum sind wir davon überzeugt, dass viele Anleger die Tragweite optimierter KI-Modelle, die ins Haus stehen, noch nicht vollständig erfassen. Sie dürften sich noch keine Vorstellung davon machen, wie diese Verbesserungen, sobald sie eingesetzt werden, in den kommenden Jahren Innovationen ermöglichen, das Wachstum beschleunigen und die Effizienz der Weltwirtschaft steigern.
Parallel zu dieser Beschleunigung werden wir zweifellos ein erhebliches Wachstum der globalen Infrastruktur erleben, die zur Unterstützung der weiteren Skalierung und Nutzung von KI-Modellen erforderlich ist.
KI-Technologien entwickeln sich in rasantem Tempo
Die weltweit fortschrittlichsten generativen KI-Modelle sind in der Lage, immer anspruchsvollere Aufgaben auszuführen. In den letzten zehn Jahren sind die KI-Fähigkeitskurven stark gestiegen, da die Forscher immer mehr Rechenleistung, Daten und algorithmische Verbesserungen in die Modelle eingebracht haben. Wir gehen davon aus, dass sich diese Fortschritte in absehbarer Zukunft in rasantem Tempo fortsetzen, weil zusätzliche Verbesserungen auf neue Modelle angewendet werden.
Hier vier Dinge, die Anleger über die Skalierung von KI-Modellen wissen sollten:
Datenverarbeitung: Der Bedarf an KI-Rechenleistung wird in den nächsten Jahren wahrscheinlich um das 100-fache steigen
Die Rechenleistung ist der Hauptfaktor, der die Skalierung und die Modellfähigkeit beim Training ermöglicht, und wir beobachten, dass die Prognosen für das rechnergestützte Training äußerst beeindruckend sind. Wir schätzen, dass OpenAI sein GPT-4-Modell (das im März 2023 veröffentlicht wurde) auf etwa 10.000 NVIDIA-H100-äquivalenten Grafikprozessoren (GPUs) mit Kosten von etwa 500 Millionen US-Dollar trainiert hat. Wir schätzen außerdem, dass die Spitzenmodelle von OpenAI und seinen Konkurrenten im laufenden Jahr auf etwa 100.000 NVIDIA-H100-äquivalenten GPUs trainiert werden, mit Kosten von rund 1 Milliarde US-Dollar. Perspektivisch gibt es Bestrebungen, die Spitzenmodelle für 2026 auf etwa einer Million H100-äquivalenten GPUs zu erstellen. Die Ausbildung dieser Modelle für 2026 könnte viele Milliarden US-Dollar kosten und eine elektrische Leistung erfordern, die der Energieerzeugung des gigantischen Hoover-Staudamms in den USA entspricht. Zum Vergleich: Der Hoover-Staudamm produziert in einem 24-Stunden-Zyklus etwa 11 Millionen Kilowattstunden Strom, genug, um fast 370.000 US-Haushalte zu versorgen. Aber vieles deutet darauf hin, dass eine 100-fache Skalierung der Grafikprozessoren erforderlich ist, um vom derzeitigen GPT-4-Modell – das so leistungsfähig wie ein guter Praktikant ist – zu einem Modell zu gelangen, das den Fähigkeiten eines hochqualifizierten Wissensarbeiters nahekommt.
Natürlich sind GenAI-Modelle nur dann wertvoll, wenn sie auch genutzt werden. Wir gehen davon aus, dass in den nächsten Jahren die meisten Wissensarbeiter GenAI nutzen und die meisten Unternehmen sogenannte digitale Agenten einsetzen werden (darunter wird die Fähigkeit von KI-Systemen verstanden, autonome Entscheidungen zu treffen und Maßnahmen zu ergreifen, um bestimmte Ziele mit minimalem menschlichen Eingriff zu erreichen). Denken Sie beispielsweise an das Potenzial eines der weltweit größten Software- und Cloud-Computing-Unternehmen, integrierte digitale Agenten in seine Produktivitätssuite einzubinden, die bereits über integrierte Cloud- und KI-Service-Optionen verfügt. Heute nutzen etwa 500 Millionen Wissensarbeiter diese Plattform, von denen die meisten noch nicht für GenAI-Dienste bezahlen. Wenn Wissensarbeiter im Durchschnitt 50.000 US-Dollar pro Jahr verdienen und GenAI-Services sie um 5 Prozent produktiver machen (was wir für eine sehr konservative Schätzung halten), könnten diese Modelle einen Überschuss von 1,25 Billionen US-Dollar erwirtschaften – oder 2.500 US-Dollar pro Wissensarbeiter pro Jahr. Bei voller Akzeptanz und unter der Annahme, dass jeder Nutzer jährlich 360 US-Dollar zahlt, wäre dieses Unternehmen in der Lage, sich 15 Prozent (180 Milliarden US-Dollar) des erwirtschafteten Überschusses zu sichern – eine hervorragende Rendite für Modelle, deren Entwicklung und Betrieb einige Milliarden US-Dollar kostet. Für die Kunden wäre es ein leistungsfähiges Instrument zur Produktivitätssteigerung und Kosteneinsparung.
Wir sind davon überzeugt, dass die Akzeptanz digitaler Agenten in Unternehmen in dem Maße zunehmen wird, wie sich die Modelle verbessern und die praktischen Vorteile deutlicher und überzeugender werden.
Energie: Für das KI-Wachstum muss genügend Strom verfügbar sein
In den USA wird es eine Herausforderung sein, bis 2026 genügend Strom für die Schaffung eines Clusters mit einer Million H100-GPU-Äquivalenten zu sichern. Wir glauben, dass der Bedarf durch die Nutzung der bestehenden Kernkraftinfrastruktur des Landes und der reichlich vorhandenen Erdgasressourcen Amerikas gedeckt werden könnte. Sofern das Wachstum der KI-Modelle über das Jahr 2026 hinaus anhält, könnte es allerdings schwieriger werden, ausreichend Energie zu erzeugen. Angesichts der Anreize, die mit dem Renditeprofil dieser Modelle verbunden sind, sind wir jedoch zuversichtlich, dass es Lösungen geben wird, die letztlich der Industrie, der Energieinfrastruktur und den nicht regulierten Versorgungsunternehmen zugutekommen.