Amerikaanse datacenters in het tijdperk van AI: hoe GPU-infrastructuur het landschap verandert

De weg bereiden: De AI-boom ontmoet datacenters

Sluit je ogen en stel je een eindeloze uitgestrektheid van zoemende servers voor, allemaal klaar om modellen voor machinaal leren te kraken, sneller dan je "algoritmische tovenarij" kunt zeggen. Dat is het moderne datacenter in de Verenigde Staten - een broeinest van innovatie (letterlijk, dankzij alle GPU-warmte) dat zich ontwikkelt tot een "AI-fabriek" voor onze steeds meer door technologie gedreven wereld.

Een toename van toepassingen voor kunstmatige intelligentie (AI) heeft een wapenwedloop ontketend op het gebied van de bouw van datacenters en de inzet van GPU's. De resulterende revolutie in de infrastructuur gaat niet alleen over het aansluiten van meer servers, maar ook over het inzetten van serieuze rekenkracht om de meest geavanceerde AI-modellen van dit moment te trainen en uit te voeren, van neurale netwerken die aandelenkoersen voorspellen tot generatieve tekstmodellen die de regels voor het maken van content herschrijven.

Volgens onderzoek verzameld door McKinsey & Company en Dell'Oro Group hebben AI-kracht en GPU-gebaseerde versnelling geleid tot recordinvesteringen in nieuwe faciliteiten en uitbreidingen in belangrijke hubs in het hele land. Meer dan 5.300 Amerikaanse datacenters zijn goed voor ongeveer 40% van de wereldwijde markt, die alleen maar groeit.

Waarom GPU's de ster van de show zijn

Laten we eerlijk zijn: CPU-gebaseerde systemen zijn nog steeds krachtpatsers, maar GPU's zijn het kloppend hart geworden van geavanceerde AI-infrastructuur. Ze blinken uit in parallelle verwerking, wat betekent dat ze tegelijkertijd miljoenen (of miljarden) berekeningen kunnen uitvoeren - cruciaal voor het trainen van geavanceerde modellen voor machinaal leren. Het is dan ook niet verwonderlijk dat volgens de Dell'Oro Group de verkoop van GPU's en versnellers alleen al in het 2e kwartaal van 2024 54 miljard dollar zal bedragen.

NVIDIA's dominantie gaat verder met de Blackwell-architectuur, de opvolger van Hopper, die ongekende prestaties biedt voor AI-workloads. De GB200 systemen zijn niet meer alleen aangekondigd, maar worden nu ook in de praktijk ingezet. Oracle Cloud Infrastructure is een van de eersten die vanaf mei 2025 duizenden NVIDIA Blackwell GPU's inzet in zijn datacenters. Deze vloeistofgekoelde GB200 NVL72 racks zijn nu beschikbaar voor gebruik door klanten op NVIDIA DGX Cloud en Oracle Cloud Infrastructure voor het ontwikkelen en uitvoeren van de volgende generatie redeneringsmodellen en AI-agenten. Andere cloudproviders volgen snel: AWS, Google Cloud, Microsoft Azure en GPU-cloudproviders zoals CoreWeave plannen allemaal Blackwell-aangedreven infrastructuur in de komende maanden.

NVIDIA heeft haar AI-aanbod verder uitgebreid met de Blackwell Ultra-architectuur, aangekondigd tijdens GTC 2025 in maart. Blackwell Ultra verbetert het originele Blackwell-ontwerp met twee keer zo veel aandachtslaagversnelling en 1,5 keer zo veel AI-reken FLOPS in vergelijking met de standaard Blackwell GPU's. Deze volgende evolutie van het platform is specifiek ontworpen voor het 'tijdperk van AI-redeneren' met verbeterde beveiligingsfuncties, waaronder de eerste GPU met vertrouwde I/O-virtualisatie. Verder vooruitkijkend heeft NVIDIA ook hun volgende-generatie Rubin architectuur roadmap onthuld, die zich zal richten op AI-inferentie en high-performance computing wanneer het op de markt komt.

Om die kracht te ontsluiten, hebben datacenters echter een speciaal ontwerp nodig. Dat omvat:

  • Koeling met hoge dichtheid: Traditionele luchtkoeling begint de witte vlag uit te zwaaien wanneer elk rack tot 130kW verbruikt. Vloeistofkoelingtechnologieën komen steeds meer in beeld om deze GPU-clusters uit het smeltgebied te houden:

    • Eenfase koeling direct op de chip: Momenteel de marktleider, die gekoelde vloeistof laat circuleren door koude platen die direct op GPU's en CPU's zijn bevestigd, waardoor warmte 3.000 keer efficiënter wordt geabsorbeerd dan door lucht. NVIDIA heeft vloeistofkoeling verplicht gesteld voor alle Blackwell B200 GPU's en systemen vanwege hun stroomverbruik van meer dan 2700 W. De GB200 NVL72-systemen maken gebruik van deze direct-to-chip koeling, die 25 keer energiezuiniger is en naar verluidt 300 keer zuiniger met water dan traditionele koelsystemen. Koelvloeistof komt het rack binnen bij 25°C met twee liter per seconde en komt er 20 graden warmer uit, waardoor waterverlies door faseverandering wordt geëlimineerd.

    • Dompelkoeling: Enkelfasige en tweefasige systemen dompelen servers volledig onder in diëlektrische vloeistof, waardoor hotspots worden geëlimineerd en nog hogere dichtheden mogelijk worden die de 250 kW per rack benaderen.

  • Robuuste stroominfrastructuur: Volgens voorspellingen van het Department of Energy en het Electric Power Research Institute (EPRI) zal de stroombehoefte van datacenters in 2028-2030 tussen 6,7% en 12% van het totale elektriciteitsverbruik in de VS bedragen. Deze prognose vertegenwoordigt een dramatische stijging ten opzichte van de ongeveer 4,4% van de Amerikaanse elektriciteit die datacenters verbruikten in 2023, waarbij AI-workloads de belangrijkste drijvende kracht achter deze versnelde groei zijn.

  • Strategische locatieplanning: AI-training vereist geen ultralage latentie zoals specifieke financiële of edge computing-taken, dus bouwen bedrijven strategisch nieuwe GPU-centrische datacenters in plaatsen als Iowa of Wyoming, waar stroom goedkoper is en grond overvloediger aanwezig is. De GB200 NVL72 systemen ondersteunen nu vermogensdichtheden van 120-140kW in racks, waardoor een strategische locatie in de buurt van betrouwbare energiebronnen nog belangrijker wordt.

Groei, investeringen en een beetje concurrentie

Van Northern Virginia's "Data Center Alley" tot Dallas-Fort Worth en Silicon Valley, cloud giganten (Amazon, Microsoft, Google, Meta) en AI-gedreven nieuwkomers ondersteunen een kolossale golf van expansie. Analisten voorspellen dat de Amerikaanse datacentermarkt meer dan verdubbeld zal zijn - van 350 miljard dollar tot meer dan 650 miljard dollar aan het begin van de jaren 2030.

Centraal in deze groei staat de dringende noodzaak om gelijke tred te houden met de AI-transformatie:

  • Het ambitieuze Project Stargate-initiatief van 500 miljard dollar - gesteund door OpenAI, Oracle en SoftBank - is klaar om 20 grote AI-datacenters te bouwen in de Verenigde Staten, om soevereine AI-capaciteiten te creëren en tegelijkertijd te voldoen aan een ongekende vraag naar rekenkracht.

  • Toonaangevende AI-laboratoria schalen hun infrastructuur snel op:

    • OpenAI werkt samen met Microsoft aan hun volgende-generatie cluster in Mount Pleasant, Wisconsin. Het cluster zal ongeveer 100.000 B200 AI-versnellers van NVIDIA huisvesten.

    • Anthropic heeft toezeggingen van Amazon en Google gekregen ter waarde van meerdere miljarden dollars om Claude's trainings- en inferentiebehoeften te vervullen.

    • xAI (de AI-venture van Elon Musk) heeft onlangs een nieuw AI-datacenter gelanceerd in Memphis, Tennessee. Het centrum gebruikt modulaire aardgasturbines voor energieopwekking terwijl het zijn Grok-modellen uitbouwt.

  • Hyperscalers zoals Microsoft en Amazon ontwikkelen datacenters van meerdere miljarden dollars in een race om te voldoen aan de veranderende AI-workloads.

  • Colocatieproviders breiden hun capaciteit uit en verhuren nieuwe faciliteiten vaak al voor 70% of meer voordat het stof van de bouw is neergedaald.

  • Door stroombeperkingen in gebieden waar veel vraag is (kijk maar naar Noord-Virginia), bouwen slimme spelers energiecentrales of zelfs kerncentrales in de buurt om die GPU's ononderbroken van stroom te voorzien.

  • NVIDIA heeft ook de toegang tot Grace Blackwell computing gedemocratiseerd met Project DIGITS, een persoonlijke AI-supercomputer die op CES 2025 is onthuld. Dit systeem brengt de GB10 Grace Blackwell Superchip naar individuele AI-onderzoekers en -ontwikkelaars en levert tot 1 petaflop aan AI-prestaties met FP4-precisie in een desktopformaat. Met Project DIGITS kunnen ontwikkelaars lokaal prototypes maken en modellen testen voordat ze deze opschalen naar cloud- of datacenterinfrastructuur, waarbij ze gebruikmaken van dezelfde Grace Blackwell-architectuur en NVIDIA AI Enterprise-softwareplatform.

Uitdagingen aan de horizon

Duurzaamheid: Terwijl de energiebehoeften van datacenters de pan uit rijzen, worden exploitanten steeds kritischer over hun energievoetafdruk. Steeds meer bedrijven sluiten langetermijnovereenkomsten voor zonne- en windenergie en andere duurzame energiebronnen. Toch is de druk om de koolstofuitstoot te verminderen en tegelijkertijd de capaciteit te verdubbelen of te verdrievoudigen een grote uitdaging, zelfs voor een sector die van grote uitdagingen houdt.

Knelpunten in de infrastructuur: Sommige nutsbedrijven hebben nieuwe aansluitingen in bepaalde hotspots opgeschort totdat ze de netcapaciteit kunnen verhogen. Ondertussen heeft de bouw van nieuwe datacenters in het Midwesten te kampen met beperkingen in de stroomtransmissie.

Stijgende kosten: Door de enorme vraag en het krappe aanbod stijgen de prijzen. Een stijging van 12,6% op jaarbasis in de vraagprijzen voor 250-500 kW-ruimtes (volgens gegevens van CBRE) onderstreept het concurrentievermogen van de markt.

Ondanks deze hobbels blijft de algemene toon optimistisch: AI, big data en cloud computing blijven zorgen voor sprongen in prestaties en innovatie. Datacenters, ooit onbezongen internethelden, treden in de schijnwerpers.

Waar Introl om de hoek komt kijken: HPC (High-Performance Computing) op de juiste manier gedaan

Als deze GPU-uitbreidingen en datacentertransformaties een actiefilm zouden zijn, dan zou Introl het speciale operatieteam zijn dat per helikopter arriveert in de laatste akte - koel onder druk en altijd klaar voor een missie.

Wilt u uw GPU-infrastructuur uitbreiden? Introl's GPU-infrastructuur implementaties omvat alles, van grootschalige clusterinstallatie tot geavanceerde koelstrategieën, zodat uw nieuwe AI-fabriek stabiel en efficiënt blijft. Wilt u naadloze datacentermigraties? Onze aanpak zorgt voor geen enkele downtime, waarbij best practices worden gebruikt om uw servers soepel te verplaatsen.

Heeft u dringend personeel nodig? De personeelsoplossingen bieden een landelijk netwerk van meer dan 800 deskundige technici. Maakt u zich zorgen over gestructureerde bekabeling? Bekijk de diensten van Introl op het gebied van gestructureerde bekabeling en insluiting om uw gegevensstromen op gang te houden zonder verwarring en struikelgevaar.

Onze missie? AI- en HPC-implementaties op uw tijdlijn versnellen op elke schaal, of u nu 100.000 GPU's of slechts 10 gebruikt.

De toekomst: AI-fabrieken en duurzame innovatie

Het is geen geheim dat next-gen datacenters veranderen in "AI-fabrieken", die alles mogelijk maken van real-time verwerking van natuurlijke taal tot geavanceerde wetenschappelijke simulaties. Hier zijn een paar belangrijke richtingen:

  • Verder dan GPU's: Terwijl NVIDIA domineert, zijn er aangepaste AI-versnellers in opkomst als potentiële alternatieven. Bedrijven als Cerebras Systems, met hun Wafer-Scale Engine en opkomende fotonische processors van startups als Lightmatter, verleggen de grenzen van wat mogelijk is en bieden mogelijk een grotere efficiëntie voor specifieke AI-werklasten.

  • Meer vloeistofkoeling: Nu GPU-rackdichtheden de 100 kW overstijgen, wordt vloeistofkoeling een onmisbaar onderdeel van HPC-omgevingen.

  • AI-ondersteund beheer: Ironisch genoeg gebruiken datacenters met AI ook AI voor voorspellend onderhoud en energie-optimalisatie, wat de efficiëntie verbetert.

  • Microgrids en hernieuwbare energie: Verwacht meer partnerschappen met hernieuwbare energieboerderijen, lokale energiecentrales en opwekking op locatie voor betrouwbare noodstroom.

Zelfs met het oog op stroombeperkingen en duurzaamheidsdruk, suggereert het onderliggende momentum dat Amerikaanse datacenters het kloppende hart van de wereldwijde digitale economie zullen blijven. High-performance computing, hyperconvergentie en AI-gedreven diensten gaan allemaal razendsnel vooruit - en we zijn nog maar net warmgedraaid.

Het afronden: Van ENIAC naar AI Nirvana

Toen in 1945 het eerste datacenter met de ENIAC werd geopend, konden maar weinigen vermoeden dat dit de blauwdruk zou zijn voor moderne AI-fabrieken. Vandaag de dag overbruggen datacenters de kloof tussen abstracte computertheorie en echte, baanbrekende toepassingen.

Of het nu gaat om het opvoeren van een AI-startup of het opschalen van een HPC-omgeving in een bedrijf, de tijd om gebruik te maken van GPU-gerichte infrastructuur is nu gekomen. En als u op zoek bent naar een betrouwbare partner in de evolutie van AI-datacenters - iemand die u kan helpen bij het ontwerpen, implementeren en beheren van systemen die de grenzen verleggen - dan is Introl er om dit mogelijk te maken.

Klaar om over specifieke zaken te praten? Boek een gesprek met Introl en laten we een koers uitzetten voor uw toekomst met AI.

(Per slot van rekening staan we nog maar aan het begin van dit nieuwe tijdperk - stel je eens voor wat we tegen 2030 en daarna zullen bereiken).

Vorige
Vorige

EMEA-datacenters in het tijdperk van AI: GPU-infrastructuur voedt een renaissance over het hele continent

Volgende
Volgende

De transformatorrevolutie: Hoe "Aandacht is alles wat je nodig hebt" de moderne AI opnieuw vormgaf