in MegatrendsLesedauer: 9 Minuten
ANZEIGE

Investitionen in sichere Rechenzentren Rechenzentren: KI ist das neue Maß der Dinge

Blöcke von Mikrochips
Blöcke von Mikrochips: In den kommenden 15 Jahren könnten bis zu 80 Prozent des Energieverbrauchs in Rechenzentren auf Anwendungen der künstlichen Intelligenz entfallen. | Foto: Imago Images / Westend61
Rachele Beata

Die rasante Verbreitung von KI-Anwendungen befeuert den Bedarf an Rechenleistung und Speicherkapazität. Für Unternehmen, Privatpersonen und Behörden ist es von größter Bedeutung, dass all diese Daten sicher verarbeitet und gespeichert werden. Daraus resultiert eine wachsende Nachfrage nach hochentwickelten Rechenzentren, was unserer Meinung nach attraktive Anlagechancen eröffnet – sowohl für Investitionen in die Rechenzentren selbst als auch in die zugrunde liegende Infrastruktur.

Rechenzentren sind unerlässlich, um diesem steigenden Bedarf gerecht zu werden, weil sie die für die Bewältigung der massiven KI-Workload erforderliche Infrastruktur bereitstellen. In den letzten zehn Jahren haben die Entwickler die Kapazität neuer Co-Location-Rechenzentren – in denen die Server und Netzwerke einer Vielzahl von Unternehmen in einer gemeinsamen Einrichtung untergebracht sind – sowie von Hyperscale-Rechenzentren – speziell für die massiven Anforderungen großer Technologieunternehmen und Cloudservice-Anbieter an Leistung und Ressourcen gebaute Einrichtungen – immer weiter erhöht.

Der Bedarf an Kapazität wird mit der Verbreitung der generativen KI (GenKI) nur noch weiter steigen. Das hat einen neuen Investitionszyklus bei den Hyperscale-Unternehmen in Gang gesetzt und erfordert in den kommenden Jahren erhebliche Investitionen in die Rechenzentrumsinfrastruktur. Damit Informationen weiterhin sicher gespeichert werden können, muss die Infrastruktur der Rechenzentren weiterentwickelt werden, um den zusätzlichen Energiebedarf der KI zu bewältigen und sicherzustellen, dass Daten nicht durch Überhitzung, Stromausfälle oder Brände verloren gehen.

 

KI-Training oder -Inferenz?

Es gibt zwei große KI-Modelle, die jeweils unterschiedliche Anforderungen an die Rechenzentren stellen:

  • KI-Training: Aufbau eines Modells zur Erkennung von Mustern und für Prognosen auf der Grundlage von Eingabedaten. Das ist in einer relativ isolierten Umgebung effizient möglich, da dieses Modell weniger latenzempfindlich ist. KI-Training kann in einem Rechenzentrum in einem ländlichen Gebiet durchgeführt werden, wo die Grundstückskosten niedriger sind.
  • KI-Inferenz: Generierung von Prognosen oder Outputs auf der Grundlage des aus den Eingabedaten gewonnenen Wissens (wie bei ChatGPT). Dieses Modell erfordert enorme Leistung und minimale Latenzzeiten, um die Interaktion zwischen Endnutzern und Anwendungen in Echtzeit zu ermöglichen. Um diesen hohen Anforderungen gerecht zu werden, ist ein Rechenzentrum in einer städtischen Umgebung am besten für KI-Inferencing geeignet.

Obwohl in den Medien hauptsächlich von KI-Training berichtet wird, sehen wir Potenzial für Co-Location-Anbieter im Bereich des KI-Inferencing. Der Zielmarkt dafür könnte Wells Fargo zufolge etwa 10 bis 15 Mal größer sein als der für KI-Training. Inferenz-Rechenzentren benötigen die Hälfte der Leistungsdichte im Vergleich zu KI-Training und müssen vermutlich an 20 bis 30 Standorten auf der ganzen Welt repliziert werden.

Leistungsbedarf: Der Engpass für Rechenzentren

Beim Bau von Rechenzentren gibt es zwei große Herausforderungen: Verfügbarkeit von Grundstücken und Energieknappheit. Infolgedessen übersteigt die Nachfrage bei weitem das verfügbare Angebot – ein Trend, der sich unserer Einschätzung nach vorerst fortsetzen wird.

Die Verfügbarkeit von Energie ist besonders problematisch, da die Versorgungsunternehmen in der Regel für einen linearen Anstieg der Nachfrage ausgelegt sind, wohingegen der Bedarf der KI-Rechenzentren treppenförmig steigt und daher eine besondere Herausforderung darstellt (siehe Grafik 1). Im Jahr 2023 lag der Energieverbrauch des globalen Rechenzentrumsmarktes bei 60 GW. Dieser Verbrauch dürfte sich bis 2027 auf 122 GW verdoppeln, was nach Schätzungen von Morgan Stanley Research einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von rund 20 Prozent entspricht.

Grafik 1: Energiefresser

 Quelle: Oppenheimer & Co Inc, Daten beziehen sich auf den Zeitraum 01.01.2021–31.12.2023.
Prognosen für Folgejahre auf der Grundlage historischer Daten

Die Verbreitung von KI-gestützten Anwendungen ist einer der Hauptgründe für den Anstieg des Energiebedarfs von Rechenzentren. Die Energiedichte von KI-Servern ist deutlich höher als die von herkömmlichen CPU-Servern (Central Processing Units). Sie basieren auf GPU-Servern (Graphic Processing Units), die fünfmal mehr Strom benötigen als herkömmliche CPU-Server und zudem fünfmal mehr Wärme erzeugen.

Schätzungen der DigitalBridge Group zufolge werden in den nächsten 15 Jahren 80 Prozent der Energie in Rechenzentren auf KI entfallen, sodass der Zugang zu Energie den Unterschied machen wird.

Rechenzentren haben derzeit eine durchschnittliche Leistungsdichte von etwa 10 kW pro Rack. Da für KI-Anwendungen aufgrund des Einsatzes von GPUs eine höhere Leistungsdichte erforderlich ist, müssen sich Hyperscale-Rechenzentren darauf einstellen, dass der Durchschnitt in den kommenden Jahren auf 40 bis 50 kW pro Rack ansteigen wird, kalkuliert JLL Data Centres.

Mit der zunehmenden Verbreitung der KI müssen die Betreiber von Rechenzentren ihre elektrische Infrastruktur aufrüsten (das heißt Upgrade des Energiemanagements vom lokalen Stromnetz auf den Chip), aber das kann Jahre dauern. Eine Möglichkeit, den Prozess zu beschleunigen, besteht darin, Rechenzentren in Gebieten zu errichten, in denen die erforderliche Infrastruktur bereits vorhanden ist, auch wenn dies bedeutet, dass bestehende Strukturen nachgerüstet oder ersetzt werden müssen.