Über Marcus Köhler
Über Marcus Köhler
Report 1/26 15 min read
​​​
​
​
​
​
​
​​
Die nächsten großen Veränderungen bei KI-Workloads und Hyperscaler-Strategien
​
Ausführliche Textfassung mit den 6 zentralen Hauptpunkten
1. Verschiebung von Training zu Inferenz als dominierendem KI-Workload
In der frühen Phase der KI-Entwicklung lag der Schwerpunkt klar auf dem Training großer Modelle. Diese Trainingsprozesse sind extrem rechenintensiv, benötigen sehr hohe Leistungsdichten und große, zusammenhängende GPU-Cluster. Gleichzeitig sind sie relativ unempfindlich gegenüber Latenz, da Trainingsläufe oft über Stunden oder Tage erfolgen und nicht in Echtzeit auf Nutzer reagieren müssen.
Mit der zunehmenden Marktreife von KI-Anwendungen verschiebt sich der Fokus jedoch deutlich hin zur Inferenz – also zur produktiven Nutzung trainierter Modelle in Anwendungen wie Suchanfragen, personalisierten Empfehlungen, Chatbots, Industrie-Automatisierung oder Finanzanalysen. Inferenz ist in der Regel weniger rechenintensiv pro Anfrage, dafür aber hochgradig latenzsensitiv und volumengetrieben. Millionen oder Milliarden von Anfragen müssen in sehr kurzer Zeit beantwortet werden.
McKinsey (*1) geht davon aus, dass Inferenz-Workloads bis 2030 mehr als 50 % aller KI-Rechenlasten ausmachen werden. Diese Entwicklung verändert die Anforderungen an Infrastruktur grundlegend: während Training auf maximale Skalierung und Energieverfügbarkeit optimiert ist, erfordert Inferenz Nähe zu Endkunden, stabile Netzwerke und hohe Verfügbarkeit.
Zusammenfassung
-
KI entwickelt sich von trainingsgetriebener zu inferenzgetriebener Infrastruktur
-
Inferenz wird mengenmäßig dominieren und neue Standortlogiken erzwingen
-
Latenz und Nähe zum Nutzer gewinnen massiv an Bedeutung
2. Neue Rechenzentrumsprofile: Zentralisierte Trainingszentren vs. verteilte Inferenzstandorte
Aus der Trennung von Training und Inferenz entstehen zwei klar unterscheidbare Rechenzentrumsprofile.
Trainingszentren entwickeln sich zu hochspezialisierten, großskaligen Campusstrukturen mit extrem hohen Leistungsdichten (teilweise >100 kW pro Rack), Flüssigkeitskühlung und sehr große Energiebedarf. Sie können geografisch relativ flexibel platziert werden, solange Energie in ausreichender Menge verfügbar ist.
Inferenz-Rechenzentren hingegen müssen näher an Ballungsräume, Unternehmensstandorte und digitale Knotenpunkte rücken. Sie sind stärker in bestehende Netzwerkinfrastrukturen eingebunden, benötigen leistungsfähige Glasfaseranbindungen und eine hohe Betriebssicherheit. Leistungsdichten sind moderater, dafür sind Skalierbarkeit und schnelle Erweiterbarkeit entscheidend.
Diese Differenzierung führt dazu, dass Hyperscaler nicht mehr nur ein Rechenzentrumsmodell verfolgen, sondern hybride, arbeitsteilige Infrastrukturen aufbauen, die je nach Workload unterschiedlich optimiert sind.
Zusammenfassung
-
Entstehung zweier klarer DC-Typen: Training vs. Inferenz
-
Training: energiegetrieben, zentralisiert, hochverdichtet
-
Inferenz: nutzer- und netzwerkgetrieben, dezentraler, latenzkritisch
3. Campus- und Netzwerkstrategien werden zum zentralen Designprinzip
Um die steigende Komplexität von KI-Workloads zu beherrschen, setzen Hyperscaler zunehmend auf Campus-Modelle. Dabei werden mehrere spezialisierte Rechenzentrumsgebäude in räumlicher Nähe kombiniert und über hochleistungsfähige interne Netzwerke verbunden. Unterschiedliche Workloads – etwa Compute, KI-Training, Inferenz und Speicher – können so effizient miteinander interagieren.
Parallel dazu gewinnt die Netzwerktopologie stark an Bedeutung. KI-Workloads erfordern extrem niedrige Latenzen innerhalb von Clustern sowie leistungsfähige Verbindungen zwischen Standorten. Glasfaserverfügbarkeit, Netzredundanz und Interkonnektivität werden zu harten Standortkriterien – teilweise wichtiger als klassische Immobilienfaktoren.
Diese Entwicklung stärkt Standorte, die bereits über dichte Glasfasernetze und Nähe zu Internetknoten verfügen, zwingt Hyperscaler aber auch dazu, neue Regionen infrastrukturell aufzuwerten.
Zusammenfassung
-
Campus-Modelle werden Standard für KI-Infrastruktur
-
Netzwerktopologie wird zum entscheidenden Wettbewerbsfaktor
-
Interkonnektivität zählt zunehmend mehr als reine Flächengröße
4. Energie wird vom Kostenfaktor zum strategischen Engpass
Der wohl größte limitierende Faktor für den Ausbau von KI-Infrastruktur ist die Energieverfügbarkeit. Netzanschlüsse mit hoher Leistung haben in vielen Regionen Vorlaufzeiten von 24 bis 36 Monaten oder mehr. Gleichzeitig steigen die Leistungsanforderungen durch KI exponentiell.
Energie ist damit nicht mehr nur ein Betriebskostenposten, sondern ein strategischer Engpass. Hyperscaler müssen Standorte zunehmend danach auswählen, wo Strom kurzfristig, zuverlässig und skalierbar verfügbar ist. Das führt zu einer stärkeren Erschließung von Tier-2- und Tier-3-Märkten, in denen Netzkapazitäten schneller bereitgestellt werden können als in überlasteten Core-Märkten. In Deutschland z.B. die zentralen Rechenzentrumsregion Frankfurt/M.
Zudem intensivieren Hyperscaler ihre Aktivitäten entlang der Energiewertschöpfungskette: langfristige Power Purchase Agreements (PPAs), Investitionen in erneuerbare Energien, Batteriespeicher und teilweise direkte Kooperationen mit Netzbetreibern.
Zusammenfassung
-
Energie ist der zentrale limitierende Faktor für KI-Wachstum
-
Standortwahl wird energiegetrieben
-
Hyperscaler werden aktive Akteure im Energiesystem
​
5. Strategische Anpassungen der Hyperscaler: Geschwindigkeit vor Optimierung
Angesichts des enormen Zeitdrucks passen Hyperscaler ihre Entwicklungs- und Investitionsstrategien deutlich an. Speed to market wird wichtiger als perfekte Kostenoptimierung. Statt ausschließlich selbst zu entwickeln, greifen Hyperscaler verstärkt auf Leasingmodelle, Partnerschaften mit Entwicklern und Lease-to-Own-Strukturen zurück.
Auch auf der baulichen Seite zeigt sich ein Wandel: Modulare und vorgefertigte Bauweisen gewinnen an Bedeutung, um Bauzeiten zu verkürzen. Parallel dazu werden bestehende Rechenzentren gezielt für KI-Workloads nachgerüstet, selbst wenn sie ursprünglich nicht für hohe Leistungsdichten ausgelegt waren.
Diese Strategien zeigen, dass Hyperscaler zunehmend bereit sind, höhere kurzfristige Kosten in Kauf zu nehmen, um Kapazitäten schneller verfügbar zu machen und Marktanteile zu sichern.
Zusammenfassung
-
Geschwindigkeit schlägt Kostenoptimierung
-
Mehr Leasing, Partnerschaften und modulare Bauweisen
-
Retrofitting wird wichtiger Bestandteil der KI-Strategie
6. Implikationen für Investoren, Kommunen und Standortentwickler
Die beschriebenen Entwicklungen verändern auch die Rolle externer Akteure. Investoren profitieren von steigender Nachfrage nach KI-fähiger Infrastruktur, müssen jedoch höhere Komplexität bei Energie, Genehmigungen und Technologie berücksichtigen. Kommunen werden zu zentralen Partnern, da sie über Flächen, Genehmigungen und oft auch indirekt über Energieverfügbarkeit entscheiden.
Für Standortentwickler bedeutet dies, dass klassische Immobilienkompetenz nicht mehr ausreicht. Gefragt sind integrierte Konzepte, die Energie, Netzanschluss, Genehmigungsfähigkeit und langfristige Skalierbarkeit zusammenbringen. Standorte, die diese Anforderungen erfüllen, gewinnen massiv an strategischer Bedeutung.
​
Zusammenfassung
-
KI macht Infrastruktur zu einem strategischen Standortthema
-
Kommunen und Energieversorger werden Schlüsselakteure
-
Integrierte Standortkonzepte entscheiden über Erfolg oder Misserfolg
Fazit
KI markiert den Übergang in eine neue Phase der digitalen Infrastruktur. Hyperscaler entwickeln sich von reinen Cloud-Betreibern zu systemischen Infrastrukturakteuren, die Energie, Netzwerke, Standorte und Kapital orchestrieren. Für alle Marktteilnehmer gilt: wer Energie, Geschwindigkeit und Skalierbarkeit kombinieren kann, wird zu den Gewinnern dieser nächsten Ausbaustufe der KI-Ökonomie gehören.
​
Quellen
-
Eigene Recherche von Koehler Advisory

Big shift in Hyperscale strategy
