OpenAI-NVIDIA $100B Deal: 10 Gigawatt AI-infrastructuur
De handdruk tussen Jensen Huang en Sam Altman vertegenwoordigt meer dan bedrijfsdiplomatie. Hun bedrijven hebben zich er zojuist toe verbonden om 10 gigawatt aan AI-infrastructuur te bouwen - genoeg rekenkracht om een miljard keer meer capaciteit te leveren dan het enkele DGX-systeem dat Huang negen jaar geleden persoonlijk aan het kantoor van OpenAI leverde.¹ NVIDIA is van plan om tot 100 miljard dollar te investeren terwijl OpenAI deze systemen inzet, wat Huang "het grootste AI-infrastructuurproject in de geschiedenis" noemt.²
De samenwerking komt op een kritiek moment. OpenAI bedient 700 miljoen wekelijkse actieve gebruikers, die samen een rekenkracht genereren die de eisen van de meeste nationale supercomputercentra in de schaduw stelt.³ Ondertussen belooft NVIDIA's volgende-generatie Vera Rubin platform acht exaflops aan AI-prestaties en 100TB aan snel geheugen in een enkel rack. Deze specificaties klinken als science fiction, maar zullen productieworkloads vanaf eind 2026 van stroom voorzien.⁴ Het samengaan van OpenAI's modelinnovaties met NVIDIA's hardwaredoorbraken creëert een infrastructuurspel dat de manier waarop we over AI-economie denken opnieuw vormgeeft.
Een decennium van partnerschap bereikt een keerpunt.
De samenwerking tussen NVIDIA en OpenAI leest als een verhaal uit Silicon Valley. In 2016 overhandigde Huang NVIDIA's eerste DGX supercomputer aan het hoofdkantoor van OpenAI in San Francisco, een moment dat is vastgelegd op inmiddels iconische foto's. OpenAI President Greg Brockman kijkt terug op dat moment: "Het partnerschap vertegenwoordigt een miljard keer meer rekenkracht dan die eerste server."⁵
De bedrijven verlegden samen grenzen door meerdere technologische sprongen te maken. NVIDIA's hardware ondersteunde de evolutie van OpenAI's GPT series, van vroege taalmodellen tot het explosieve debuut van ChatGPT. Elke generatie vereiste exponentieel meer compute, waardoor NVIDIA haar chipontwikkelcycli moest versnellen terwijl OpenAI modelarchitecturen verfijnde om de hardware-efficiëntie te maximaliseren.
De nieuwe overeenkomst formaliseert wat industriewatchers al lang vermoedden: deze bedrijven hebben elkaar nodig. OpenAI heeft enorme computermiddelen nodig om superintelligente systemen te trainen, terwijl NVIDIA profiteert van OpenAI's modelinnovaties die zijn hardwaremogelijkheden onder de aandacht brengen. De bedrijven zullen "hun roadmaps optimaliseren voor OpenAI's model en infrastructuur", wat duidt op een diepgaande technische samenwerking die verder gaat dan een simpele koper-leverancier dynamiek.
Vera Rubin platform herdefinieert computationele grenzen.
NVIDIA's Vera Rubin NVL144 CPX-platform vertegenwoordigt een generatiesprong in het ontwerp van AI-infrastructuur. Het systeem integreert 144 Rubin CPX GPU's, 144 Rubin GPU's en 36 Vera CPU's in één rackconfiguratie die 7,5x meer AI-prestaties levert dan NVIDIA GB300 NVL72 systemen. Met 1,7 petabytes per seconde geheugenbandbreedte kunnen modellen contexten van miljoenen tekens verwerken zonder prestatieverlies.
De Rubin CPX-architectuur introduceert gespecialiseerde circuits die geoptimaliseerd zijn voor de aandachtsmechanismen van taalmodellen en videoverwerkingstaken. Elke Rubin CPX heeft 128 gigabyte GDDR7-geheugen op een enkele chip, terwijl het platform 50 petaflops-prestaties in FP4 haalt - een2,5x verbetering ten opzichte van de 20 petaflops van Blackwell.
Vera is NVIDIA's eerste CPU-ontwerp op maat, gebaseerd op de Olympus core-architectuur. De 88-core Arm-gebaseerde processor belooft twee keer betere prestaties dan de Grace CPU die in de huidige Blackwell-systemen wordt gebruikt. ⁹ De hechte integratie tussen Vera CPU's en Rubin GPU's via het NVIDIA MGX-systeem elimineert de traditionele knelpunten die gedistribueerde computerarchitecturen plagen.
Infrastructuureconomie transformeert AI-bedrijfsmodellen.
De financiële engineering achter het partnerschap laat zien hoe de economie van AI-infrastructuur is geëvolueerd. NVIDIA's toezegging om geleidelijk tot $100 miljard te investeren, na de implementatie van elke gigawatt, creëert een nieuw financieringsmodel dat de stimulansen voor hardwareleveranciers afstemt op het succes van de klant.¹⁰ De regeling stelt OpenAI in staat om de infrastructuur op te schalen zonder enorme investeringen vooraf, terwijl NVIDIA deelneemt in de waardecreatie die de hardware mogelijk maakt.
Op schaal belooft het Vera Rubin platform een 30x tot 50x rendement op investering, wat zich mogelijk vertaalt in $5 miljard aan inkomsten uit een investering van $100 miljoen.¹¹ Deze economische aspecten veranderen fundamenteel hoe bedrijven beslissingen over AI-infrastructuur evalueren. De kosten per eenheid intelligentie, een maatstaf die beide bedrijven benadrukken, dalen drastisch wanneer systemen voldoende schaal en gebruik bereiken.
De structuur van het partnerschap suggereert dat beide bedrijven hebben geleerd van de boom-bust cycli van cryptocurrency mining. In plaats van hardware te verkopen op speculatieve vraag, koppelt NVIDIA haar investering aan daadwerkelijke inzet en gebruik. OpenAI krijgt een voorspelbare capaciteitsuitbreiding die is afgestemd op de groei van gebruikers en de tijdlijnen voor modelontwikkeling.
Regionale gevolgen veranderen de geografie van datacenters.
De inzet van 10 gigawatt vereist een ongekende datacentercapaciteit die de mondiale infrastructuurkaarten een nieuwe vorm zal geven. Ter verduidelijking: 10 gigawatt staat ongeveer gelijk aan het stroomverbruik van 10 miljoen huishoudens of een centraal stedelijk gebied. Het vinden van locaties met beschikbare stroom, koelcapaciteit en netwerkconnectiviteit op deze schaal stelt technische uitdagingen die niet onderdoen voor de complexiteit van berekeningen.
De uitbouw van de infrastructuur creëert kansen voor regionale datacentermarkten, vooral in APAC-regio's met robuuste elektriciteitsnetten en koelingsvoordelen. Landen met een overschot aan hernieuwbare energie en gunstige regelgevende omgevingen positioneren zich om een deel van deze uitrol voor zich te winnen. De tijdlijn van het partnerschap - de eerste systemen operationeel eind 2026 - geeft datacenterbeheerders en overheden weinig tijd om de infrastructuur voor te bereiden.
Professionele implementatie-expertise wordt cruciaal op deze schaal. Het verschil tussen theoretische specificaties en operationele prestaties komt vaak neer op koelefficiëntie, stroomverdeling en interconnectie-optimalisatie. Bedrijven zoals Introl, die ervaring hebben met het inzetten van enorme GPU-clusters in verschillende geografische regio's, begrijpen de nuances die bepalen of deze systemen de beloofde prestaties leveren.
De concurrentie wordt heviger, maar het partnerschapsmodel komt naar voren als de dominante aanpak.
De OpenAI-NVIDIA alliantie duidt op een bredere verschuiving in de industrie naar diepgaande samenwerkingsverbanden tussen modelontwikkelaars en hardwareleveranciers. Anthropic's samenwerking met Amazon Web Services en Google's interne ontwikkeling van TPU's zijn variaties op hetzelfde thema. AI-vooruitgang vereist een ongekende coördinatie tussen software- en hardware-innovatie.
De positie van Microsoft maakt het landschap complexer. Als OpenAI's grootste investeerder en cloudpartner moet Microsoft zijn investeringen in Azure-infrastructuur afwegen tegen OpenAI's directe relatie met NVIDIA. De bedrijven presenteren hun inspanningen als complementair, maar beslissingen over de toewijzing van middelen zullen dat verhaal op de proef stellen wanneer de vraag naar computers explodeert.
De voordelen van het partnerschapsmodel worden duidelijk bij het onderzoeken van alternatieve benaderingen. Het bouwen van silicium op maat vergt jaren van ontwikkeling en miljarden dollars aan investeringen, met onzekere resultaten. Alleen vertrouwen op cloudproviders leidt tot stapeling van marges, wat grootschalige training economisch uitdagend maakt. De directe samenwerking tussen OpenAI en NVIDIA elimineert intermediaire kosten en versnelt innovatiecycli.
De tijdlijn laat een agressief maar haalbaar implementatieschema zien.
De eerste gigawatt aan systemen zal in de tweede helft van 2026 in gebruik worden genomen, samenvallend met de beschikbaarheid van NVIDIA Rubin CPX.¹² De agressieve tijdslijn vereist parallelle uitvoering in meerdere werkstromen: chipfabricage, datacenterconstructie, implementatie van energie-infrastructuur en softwareoptimalisatie. Elk element levert potentiële knelpunten op die de bredere visie van 10 Gigawatt kunnen vertragen.
De productiepartners van NVIDIA, voornamelijk TSMC, moeten aanzienlijke capaciteit toewijzen aan de Rubin-productie. De geavanceerde verpakkingstechnologieën die nodig zijn voor Rubin CPX maken de traditionele GPU-productie complexer. Diversificatie van de toeleveringsketen wordt essentieel om single points of failure te voorkomen die de implementatieschema's zouden kunnen doen ontsporen.
De periode 2026-2030 valt samen met verschillende technologische transities. De modernisering van de energie-infrastructuur, met name de integratie van hernieuwbare energie, versnelt om aan de eisen van datacenters te voldoen. Optische interconnectietechnologieën zijn volwassen geworden om aan de toenemende bandbreedtevereisten te voldoen. Innovaties op het gebied van koeling, van directe vloeistofkoeling tot dompelsystemen, worden standaard in plaats van experimenteel.
Technische uitdagingen vragen om innovatie over de hele stapel.
Het uitrollen van 10 gigawatt aan AI-infrastructuur brengt technische uitdagingen met zich mee die de huidige technologieën tot het uiterste drijven. Stroomlevering op deze schaal vereist coördinatie met nutsbedrijven en mogelijk speciale opwekkingscapaciteit. Een enkel Vera Rubin rack dat megawatts aan stroom verbruikt, genereert warmte die traditionele luchtkoeling niet efficiënt kan afvoeren.
De netwerkarchitectuur moet evolueren om modelparallellisme over duizenden GPU's te ondersteunen. De 1,7 petabytes per seconde geheugenbandbreedte in een Vera Rubin rack betekent dat externe netwerken de primaire bottleneck worden voor gedistribueerde training. NVIDIA's investering in optische interconnectietechnologieën en switch-silicium pakt deze beperkingen aan, maar vereist een zorgvuldig systeemontwerp.
Software optimalisatie wordt net zo belangrijk. De modellen van OpenAI moeten efficiënt gebruik maken van de gespecialiseerde circuits in Rubin CPX voor aandachtsmechanismen. De toezegging van de bedrijven om hun roadmaps te optimaliseren suggereert een nauwe samenwerking op het gebied van compilertechnologieën, kerneloptimalisatie en evolutie van de modelarchitectuur. Op deze schaal is de prestatiewinst van softwareoptimalisatie vaak groter dan die van hardwareverbeteringen.
De gevolgen voor de markt reiken verder dan de directe deelnemers.
De gevolgen van de samenwerking strekken zich uit over het hele technologische ecosysteem. Leveranciers van koeltechnologie zien een ongekende vraag naar oplossingen voor vloeistofkoeling. Energie-infrastructuurbedrijven versnellen projecten voor de modernisering van het elektriciteitsnet. Fabrikanten van optische componenten schalen de productie op om aan de interconnectievereisten te voldoen.
De talentenoorlog wordt heviger nu beide bedrijven hun engineeringteams opschalen. Infrastructuuringenieurs die inzicht hebben in GPU-clusteroptimalisatie krijgen een hogere vergoeding. Software engineers met ervaring in gedistribueerde training worden van onschatbare waarde. De samenwerking creëert duizenden goedbetaalde banen in verschillende disciplines en regio's.
Kleinere AI-bedrijven staan voor een grimmige keuze: samenwerken met cloudproviders die NVIDIA-hardware opwaarderen of computationele beperkingen accepteren die modelambities beperken. De economie van AI-infrastructuur is steeds meer in het voordeel van schaal, waardoor er een natuurlijke druk ontstaat voor consolidatie in de hele sector.
Toekomstige routekaart wijst op aanhoudend innovatieritme
Hoewel de huidige overeenkomst zich richt op de inzet van Vera Rubin, geven beide bedrijven aan ook na 2030 te zullen samenwerken. NVIDIA's jaarlijkse architectuurcadans (Blackwell, Rubin en niet nader genoemde toekomstige platforms) suggereert voortdurende prestatieverbeteringen. OpenAI's ontwikkeling naar kunstmatige algemene intelligentie vereist rekenkracht die exponentieel groeit met elke sprong in capaciteit.
De verplichting tot optimalisatie impliceert gedeelde technologieontwikkeling die innovaties kan opleveren die geen van beide bedrijven zelfstandig zou realiseren. Aangepast silicium voor specifieke modelarchitecturen, nieuwe benaderingen voor koeling voor ultra-dense toepassingen of baanbrekende interconnectietechnologieën kunnen voortkomen uit deze samenwerking.
Andere deelnemers kunnen in de toekomst op deze manier samenwerken. Chipfabrikanten, koelspecialisten en leveranciers van energie-infrastructuur zouden zich bij het ecosysteem kunnen aansluiten en een geïntegreerde stack creëren die geoptimaliseerd is voor AI-werklasten. De voordelen van verticale integratie worden onoverkomelijk voor concurrenten die soortgelijke mogelijkheden proberen te assembleren uit afzonderlijke componenten.
Conclusie
Het OpenAI-NVIDIA partnerschap verandert AI-infrastructuur van een ondersteunende technologie in een strategische differentiator. De toezegging van 100 miljard dollar en het doel om 10 Gigawatt aan te wenden, vormen nieuwe maatstaven voor rekenambities. Als deze systemen vanaf 2026 online komen, maken ze AI-mogelijkheden mogelijk die vandaag de dag alleen in onderzoekspapers en sciencefiction bestaan.
Het samenwerkingsmodel (diepgaande technische integratie, op elkaar afgestemde economische stimulansen en gedeelde risico's) biedt een sjabloon voor hoe transformatieve technologieën op schaal kunnen worden gebracht. Hoewel er nog uitdagingen zijn op het gebied van stroomlevering, koelingsefficiëntie en softwareoptimalisatie, stimuleert de structuur van het partnerschap het oplossen van deze problemen in plaats van er omheen te werken.
Voor organisaties die AI-infrastructuurinvesteringen plannen, is de boodschap duidelijk: het tijdperk van incrementele capaciteitsuitbreidingen is voorbij. Concurrerende AI-inzet vereist denken in gigawatts, niet in megawatts. Professionele infrastructuurpartners die deze schaaldynamiek begrijpen, worden essentieel om waarde te halen uit de volgende fase van AI. De computationele toekomst die OpenAI en NVIDIA voor ogen hebben, zal sneller komen dan de meesten verwachten. De enige vraag is wie er klaar voor is.
Referenties
NVIDIA. "NVIDIA, OpenAI kondigen 'Grootste AI-infrastructuurimplementatie in de geschiedenis' aan." NVIDIA Blog. 22 september 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
NVIDIA. "NVIDIA, OpenAI kondigen 'Grootste AI-infrastructuurimplementatie in de geschiedenis' aan." NVIDIA Blog. 22 september 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
NVIDIA. "NVIDIA, OpenAI kondigen 'Grootste AI-infrastructuurimplementatie in de geschiedenis' aan." NVIDIA Blog. 22 september 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
AI Magazine. "Een kijkje in de keuken van OpenAI en Nvidia's AI-infrastructuurdeal van US$100 miljard." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
NVIDIA. "NVIDIA, OpenAI kondigen 'Grootste AI-infrastructuurimplementatie in de geschiedenis' aan." NVIDIA Blog. 22 september 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
AI Magazine. "Een kijkje in de keuken van OpenAI en Nvidia's AI-infrastructuurdeal van US$100 miljard." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
AI Magazine. "Een kijkje in de keuken van OpenAI en Nvidia's AI-infrastructuurdeal van US$100 miljard." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
Semi-analyse. "NVIDIA GTC 2025 - Built For Reasoning, Vera Rubin, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman." 19 maart 2025. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.
Wccftech. "NVIDIA Rubin & Rubin Ultra met Next-Gen Vera CPU's beginnen volgend jaar te arriveren: Tot 1 TB HBM4-geheugen, GPU's van 4 deeltjesgrootte, 100PF FP4 & 88 CPU-cores." 18 maart 2025. https://wccftech.com/nvidia-rubin-rubin-ultra-next-gen-vera-cpus-next-year-1-tb-hbm4-memory-4-reticle-sized-gpus-100pf-fp4-88-cpu-cores/.
NVIDIA. "NVIDIA, OpenAI kondigen 'Grootste AI-infrastructuurimplementatie in de geschiedenis' aan." NVIDIA Blog. 22 september 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
AI Magazine. "Een kijkje in de keuken van OpenAI en Nvidia's AI-infrastructuurdeal van US$100 miljard." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
AI Magazine. "Een kijkje in de keuken van OpenAI en Nvidia's AI-infrastructuurdeal van US$100 miljard." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.