OpenAI en NVIDIA zetten een megaprogramma op poten om de wereldwijde AI-capaciteit fors uit te breiden. Er wordt gesproken over investeringen die in de tientallen miljarden lopen en een doelstelling van zo’n 10 gigawatt aan rekenkracht. De grote vraag: is dit haalbaar en vooral… nodig?
Waarom dit belangrijk is
De vraag naar AI-rekenkracht groeit sneller dan bij eerdere techgolven. Training van toonaangevende modellen, realtime inferentie in apps en de opmars van “embedded” AI in elk product drukken op dezelfde schaarse resources: GPU’s, koeling, stroom en netcapaciteit. Een megadeal tussen een top-modelbouwer (OpenAI) en ’s werelds GPU-huis (NVIDIA) is dan ook geen verrassing: schaal is essentieel om kosten te laten dalen, latency te verbeteren en leveringszekerheid te creëren.
Wat er (waarschijnlijk) op tafel ligt
- Capaciteitsdoel: uitbouw naar circa 10 GW. Dat is vergelijkbaar met meerdere grote energiecentrales en impliceert tientallen nieuwe datacenters, of bestaande sites die stevig worden uitgebreid.
- Verticale integratie: niet alleen GPU’s, maar complete racks, networking (Infiniband/Ethernet), storage en software-stacks (CUDA, Triton, orkestratie).
- Strategische spreiding: meerdere locaties om leveringszekerheid, regelgeving en koelingsopties te balanceren (lucht, indirect water, vloeistof, mogelijk zelfs immersion).
- Langetermijncontracten: gefaseerde leveringen van chips en systeemplatforms zodat fabcapaciteit en supply-chains gefinancierd en opgeschaald kunnen worden.
Waarom zó veel vermogen?
- Modelgrootte en multimodaliteit: nieuwe modellen zijn groter, verwerken video, audio en sensordata en worden vaker “context-rijk” ingezet (lange contextvensters, tool-use, geheugen).
- Van training naar inferentie op schaal: na training volgen miljoenen tot miljarden gebruikersacties. Dat vergt in totaal méér GPU-uren dan training alleen.
- Tijd-tot-antwoord: consumenten accepteren geen wachttijden. Bedrijven willen AI in kritieke processen integreren. Dat betekent korte latency en capaciteit dichtbij gebruikers.
De energievraag: kan dat wel?
10 GW klinkt astronomisch — en is het ook. Toch is de nuance belangrijk:
- Capaciteitsfactor: datacenters draaien niet 24/7 op piek. Met slimme schedulers kun je training plannen in daluren, inferentie bijsturen op vraag.
- Efficiëntieverbetering: elke generatie GPU’s is niet alleen sneller maar ook efficiënter per token/frame. Daarnaast helpen sparsity, quantization, distillation en caching om de benodigde FLOPs te drukken.
- Lokale opwek en PPA’s: grootschalige Power Purchase Agreements, on-site zonne-/windopwek en batterij-buffers verminderen netdruk en CO₂-intensiteit.
- Warmtehergebruik: steeds meer campussen koppelen restwarmte aan stadsverwarming.
Impact op de markt
- Prijsdruk op AI-diensten: meer aanbod = lagere kosten per token, minuut of taak. Dat opent nieuwe businesscases (realtime video-assistentie, complexere agents).
- Versnelling van “AI-native” software: ontwikkelaars gaan functies ontwerpen die eerder te duur of te traag waren, zoals live multimodale co-pilots in industriële omgevingen.
- Concurrentiedynamiek: hyperscalers en modelbouwers die geen lange-termijn-zekerheid hebben, lopen het risico achterop te raken — of moeten creatieve routes kiezen (specialized ASICs, edge-offloading, federated inference).
Kritische vragen (die je als lezer mag stellen)
- Antitrust en lock-in: hoe open blijven interfaces en prijsmechanismen als één leverancier de kern van je stack levert?
- Leveringsrisico’s: kunnen supply-chains (substrates, HBM-geheugen, geavanceerde packaging) de volumes aan?
- Regulering en publieke acceptatie: 10 GW verdeel je niet ongemerkt. Lokale overheden en burgers verwachten transparantie over waterverbruik, stikstof, netcongestie en banen.
- Alternatieven: hoe verhouden CPU-offloading, NPU’s en modelpruning zich tot brute-force-schaal?
Wat betekent dit voor bedrijven
- Kosten dalen — maar niet meteen: reken op een geleidelijke daling van inferentiekosten. Plan scenario’s voor Q4 2025 tot door 2026.
- Latency-verbetering: meer regionale capacity verkort wachttijden. Goed nieuws voor AI-functies in klantcontact, search en productiviteitstools.
- Multi-vendor strategie: zelfs mét zo’n deal blijft het zinvol om workloads over meerder partijen te kunnen schaken (contractueel en technisch).
Is het hype? Ja, in de omvang. Is het noodzaak? Ook ja: als AI de volgende computergeneratie is, hoort daar een infrastructuurrevolutie bij. Voor gebruikers betekent dit uiteindelijk snellere, goedkopere en betrouwbaardere AI-diensten — mits energie, omgeving en regelgeving in hetzelfde tempo meegroeien.
