CoreWeave: De revolutie van de AI-infrastructuur - hoe een startup in cryptomining de ruggengraat van kunstmatige intelligentie werd ter waarde van 23 miljard dollar

CoreWeave heeft zich ontwikkeld van de oorsprong van cryptocurrency mining tot 's werelds meest gespecialiseerde aanbieder van AI-cloudinfrastructuur, die GPU-supercomputers op ongekende schaal exploiteert en tegelijkertijd pionier is op het gebied van vloeistofkoeling en bare-metalarchitecturen die het bedrijf onderscheiden van traditionele hyperscalers. De transformatie van het bedrijf van het delven van Ethereum in 2017 naar het aandrijven van OpenAI's GPT-modellen vertegenwoordigt de meest dramatische ommezwaai van Silicon Valley, gevalideerd door $7,5 miljard aan schuldfinanciering bij een waardering van $19 miljard (mei 2024) gevolgd door een secundaire verkoop voor $23 miljard (oktober 2024), een explosieve omzetgroei van 737% in 2024 en beoordeeld als een van de beste in het nieuwe ClusterMAX-raamwerk van SemiAnalysis; het rapport benadrukt CoreWeave's huurdersisolatie, bare-metal Kubernetes en ops-volwassenheid.

De technische moat die CoreWeave heeft gebouwd, maakt gebruik van gespecialiseerde architectuur die uitsluitend is geoptimaliseerd voor versneld computergebruik. Waar traditionele cloudproviders algemene workloads balanceren met GPU-computing, heeft CoreWeave elke laag van zijn stack speciaal gebouwd voor AI- en HPC-toepassingen. Hun bare-metal Kubernetes-architectuur elimineert virtualisatieoverhead volledig, terwijl direct-to-chip vloeistofkoeling 130-kilowatt rackdichtheden mogelijk maakt waar luchtgekoelde faciliteiten niet aan kunnen tippen. Dit fundamentele architecturale voordeel, gecombineerd met topologie-bewuste scheduling en InfiniBand-eerste netwerk, levert wat CoreWeave rapporteert als een gebruik van meer dan 50% Model FLOPS op Hopper-klasse GPU's - ongeveer 20% hoger dan publieke foundation model baselines volgens hun interne benchmarks.

De symbiotische relatie van het bedrijf met NVIDIA overstijgt de typische verkoperspartnerschappen, waarbij NVIDIA vanaf maart 2025 ongeveer 6% van het aandelenkapitaal behoudt en CoreWeave consequent selecteert voor inaugurele implementaties van baanbrekende architecturen. CoreWeave was als eerste algemeen beschikbaar met GB200 NVL72 systemen (februari 2025) en als eerste met GB300 NVL72 systemen (3 juli 2025). De GB300-implementatie belooft wat NVIDIA beschrijft als "50x verbeteringen in de inferentieresultaten van redeneringsmodellen", hoewel dit eerder marketing van de leverancier is dan collegiaal getoetste benchmarks. (NVIDIA-marketingrichtlijnen; onafhankelijke benchmarks in afwachting.)

De financiële cijfers onderstrepen de enorme marktvraag naar gespecialiseerde AI-infrastructuur, met CoreWeave die $1,21 miljard kwartaalomzet (Q2 2025) realiseert, een gecontracteerde orderportefeuille van $30,1 miljard handhaaft en ankertoezeggingen van Microsoft (goed voor 62% van de omzet in 2024), OpenAI (tot $11,9 miljard contract plus $4 miljard uitbreiding) en andere AI-leiders die prestatieniveaus vereisen die geoptimaliseerd zijn voor grootschalige training en inferentie. De beursgang in maart 2025 tegen 40 dollar per aandeel bracht ongeveer 1,5 miljard dollar op, waarmee CoreWeave zich vestigde als een beursgenoteerd bedrijf dat gepositioneerd is om waarde te creëren naarmate de wereldwijde vraag naar AI-computing versnelt.

Onder deze explosieve groei schuilt echter een aanzienlijk uitvoeringsrisico: CoreWeave heeft een schuld van meer dan $ 11 miljard en de rentelasten bedroegen $ 267 miljoen in het tweede kwartaal van '25 (vergeleken met $ 67 miljoen in het tweede kwartaal van '24). Deze kapitaalstructuur vereist een vlekkeloze uitvoering terwijl het bedrijf racet om infrastructuur te implementeren voor de hyperscaler concurrentie. De extreme klantconcentratie, waarbij Microsoft 62% van de inkomsten in 2024 voor zijn rekening neemt en de top twee klanten 77% voor hun rekening nemen.

In deze diepgaande analyse wordt onderzocht hoe CoreWeave een gespecialiseerde AI-infrastructuur vanaf het eerste begin heeft ontworpen, waarom hun technische voordelen van betekenis zijn tegenover de concurrentie van hyperscalers en of hun agressieve expansiestrategie technologisch leiderschap kan behouden terwijl ze de kapitaalintensieve realiteit van het bouwen van exascale computing-infrastructuur doorstaan. Aan de hand van technische documentatie, prestatiebenchmarks en industrieanalyses onthullen we hoe een bedrijf dat begon met het delven van cryptocurrency in een garage in New Jersey zichzelf positioneerde als kritieke infrastructuur voor de ontwikkeling van kunstmatige intelligentie, en welke financiële uitdagingen dit traject kunnen beïnvloeden.

Het voordeel van CoreWeave: Speciaal gebouwde infrastructuur voor AI-werklasten

Het fundamentele inzicht van CoreWeave - dat AI-werklasten een radicaal andere infrastructuur vereisen dan traditionele cloudcomputing - was de basis voor architectuurbeslissingen die nu meetbare prestatievoordelen opleveren voor werklasten op het gebied van training, fijnafstemming en inferentie. Terwijl hyperscalers honderden miljarden hebben geïnvesteerd in het optimaliseren van webapplicaties, databases en bedrijfssoftware, zag CoreWeave in dat grote taalmodellen en neurale netwerken extreme geheugenbandbreedte, interconnecties met ultralage latentie en langdurige thermische dissipatie vereisen die datacenters voor algemene doeleinden moeilijk consistent kunnen leveren.

De technische differentiatie begint met volledige verticale integratie die exclusief is geoptimaliseerd voor GPU workloads. CoreWeave's bare-metal Kubernetes-aanpak biedt directe hardwaretoegang tot GPU-, CPU-, netwerk- en opslagbronnen zonder virtualisatielagen. Hun topologie-bewuste scheduling minimaliseert inter-GPU-communicatielatentie, terwijl speciale InfiniBand fabric 400Gb/s per GPU-connectiviteit levert. Het is de moeite waard om op te merken dat topklasse hyperscaler GPU-instanties nu ook netwerkverbindingen met hoge bandbreedte bieden. De A3-instanties van Google Cloud leggen 3,2 Tbps per VM bloot, de ND H100 v5 van Azure biedt 1,6-3,2 Tbps klasse connectiviteit en AWS P5 clusters leveren 3200 Gbps instance netwerken met SR-IOV/EFA. Het verschil zit minder in de ruwe verbindingssnelheden en meer in CoreWeave's clustertopologie, optimalisatie van schedulerplaatsing en vloeistofgekoeld thermisch beheer op rackschaal.

Volgens gepubliceerde benchmarks van NVIDIA kon Cohere tot 3x sneller trainen op de GB200 NVL72-systemen van CoreWeave in vergelijking met de Hopper GPU's van de vorige generatie, hoewel dit eerder hardwareverbeteringen van de generatie zijn dan vergelijkingen tussen clouds. Andere prestatieclaims van klanten circuleren in discussies binnen de industrie, maar zijn niet openbaar geverifieerd door de bedrijven zelf.

De innovatie van het bedrijfsmodel is al even belangrijk: door zich uitsluitend te richten op GPU-computing in plaats van honderden diensten aan te bieden, kan CoreWeave elk aspect van zijn activiteiten optimaliseren voor AI-workloads. Deze specialisatie maakt een snelle inzet van nieuwe hardwaregeneraties mogelijk (weken versus kwartalen voor traditionele clouds), vereenvoudigde operaties met minder managementoverhead, directe relaties met GPU-native klanten die prioriteit geven aan prestaties en flexibele verbruiksmodellen, waaronder gereserveerde instances, on-demand en spotprijzen die eind 2025 worden gelanceerd.

De concurrentie van hyperscalers neemt toe naarmate ze het strategische belang van AI-infrastructuur erkennen. AWS, Google Cloud en Microsoft Azure breiden allemaal hun GPU-aanbod uit met verbeterde netwerken en bare-metal opties. Toch zorgen CoreWeave's gespecialiseerde aanpak en pioniersvoordeel met NVIDIA's nieuwste hardware voor onderscheidend vermogen. Als enige ontvanger van SemiAnalysis's Platinum-tier ClusterMAX rating vanaf maart-april 2025, toont CoreWeave technisch leiderschap - hoewel dit ratingsysteem elke 3-6 maanden updates plant en de concurrentiedynamiek blijft evolueren.

Van het delven van Ethereum tot het trainen van foundationmodellen: Het onwaarschijnlijke oorsprongsverhaal

CoreWeave's transformatie van cryptocurrency miningoperatie naar AI-infrastructuurkrachtcentrale begon in 2017 toen medeoprichters Michael Intrator, Brian Venturo en Brannin McBee inzagen dat hun GPU-expertise waardevollere doelen kon dienen dan het oplossen van cryptografische puzzels. Het bedrijf uit Weehawken, New Jersey, richtte zich aanvankelijk op Ethereum mining en verzamelde duizenden GPU's terwijl ze aangepaste koeloplossingen en orkestratiesoftware ontwikkelden die later van onschatbare waarde zou blijken voor AI-workloads.

Het scharniermoment kwam in 2019, toen de verschuiving van Ethereum naar proof-of-stake GPU-mijnbouw volledig overbodig dreigde te maken. In plaats van activa te liquideren zoals de meeste mijnbouwers, identificeerden de oprichters van CoreWeave een opkomende marktopportuniteit - het aanbieden van GPU-computing voor onderzoekers op het gebied van machinaal leren die moeite hadden om toegang te krijgen tot hardware op traditionele clouds. Tot de eerste klanten behoorden academische instellingen die burst computing nodig hadden voor experimenten, visual effects studio's die CGI renderden voor films en startups die computervisiemodellen trainden.

De pandemie van 2020 versnelde de ommezwaai van CoreWeave toen werk op afstand de vraag naar cloud rendering aanwakkerde en tegelijkertijd de toepassing van AI in verschillende sectoren katalyseerde. Het bedrijf tekende zijn eerste grote bedrijfscontract met een hedgefonds dat massale parallelle verwerking nodig had voor risicomodellering, wat het bedrijfsmodel valideerde dat verder ging dan cryptocurrency-speculatie. Tegen het einde van het jaar had CoreWeave meer dan 10.000 GPU's in gebruik voor uiteenlopende workloads, van simulaties van eiwitvouwing tot realtime videoconversie.


De doorbraak kwam in 2022 toen OpenAI CoreWeave selecteerde als infrastructuurpartner voor GPT-modeltraining, aangetrokken door hun vermogen om snel duizenden A100 GPU's met InfiniBand-netwerken in te zetten - een configuratie die is geoptimaliseerd voor grootschalige training. De succesvolle implementaties valideerden de architectuur van CoreWeave op ongekende schaal, wat leidde tot uitgebreide contracten voor extra foundationmodellen. Deze ankerklant zorgde zowel voor stabiele inkomsten als voor technische geloofwaardigheid die andere AI-pioniers aantrok.

Durfkapitaal erkende CoreWeave's strategische positie in de AI toeleveringsketen, met Magnetar Capital aan het hoofd van een Serie B van 200 miljoen dollar in 2022, gevolgd door een snelle groei van de waardering. De schuldfinanciering van $7,5 miljard van Blackstone, Coatue en anderen in mei 2024 tegen een waardering van $19 miljard vertegenwoordigde een van de meest uitgebreide privékredietfaciliteiten in de technologiegeschiedenis, waardoor een agressieve uitbreiding van de infrastructuur mogelijk werd om aan de exploderende vraag te voldoen.

Het culturele DNA van cryptocurrency mining - technische risico's aanvaarden, optimaliseren voor efficiëntie, 24/7 betrouwbaar werken - vertaalde zich perfect naar de vereisten voor AI-infrastructuur. Dezelfde ingenieurs die maximale hashsnelheden uit GPU's persten, optimaliseren nu tensorbewerkingen, terwijl de financiële discipline die nodig is om te profiteren van volatiele cryptomarkten helpt bij het navigeren door de kapitaalintensieve infrastructuur. Dit onwaarschijnlijke verhaal laat zien hoe technologische disruptie vaak ontstaat vanuit aangrenzende industrieën in plaats van gevestigde bedrijven, met buitenstaanders die niet beperkt worden door het denken vanuit het verleden en die gespecialiseerde oplossingen ontwerpen vanuit eerste principes.

Een complexe kapitaalstructuur weerspiegelt zowel kansen als risico's.

De kapitaalstructuur van CoreWeave weerspiegelt zowel de enorme mogelijkheden in AI-infrastructuur als de kapitaalintensieve aard van concurreren op hyperscale. De financieringsgeschiedenis omvat $7,5 miljard aan schuldfaciliteiten tegen een rente van ongeveer 14% (mei 2024), een totale aandelenfinanciering van meer dan $1 miljard over meerdere rondes, een secundaire aandelenverkoop die het bedrijf waardeert op $23 miljard (oktober 2024) en een beursgang van $1,5 miljard tegen $40 per aandeel (28 maart 2025), waardoor een beursgenoteerd bedrijf ontstaat met een bedrijfswaarde van meer dan $35 miljard inclusief schulden.

Ankerinvesteerders tonen strategische waarde die verder gaat dan kapitaal. NVIDIA's belang van ongeveer 6%, ter waarde van 900 miljoen dollar in maart 2025 en bijna 1,6 miljard dollar in mei, verzekert preferentiële toegang tot GPU-leveringen tijdens toewijzingsbeperkingen en biedt technische samenwerking op het gebied van hardware/software-optimalisatie. Microsofts klantrelatie valideert CoreWeave als essentiële infrastructuur, vooral gezien zijn grootschalige OpenAI-partnerschap dat aanzienlijke rekenbronnen vereist. Het investeerdersconsortium, waaronder Fidelity, BlackRock en Altimeter, brengt institutionele geloofwaardigheid die cruciaal is voor bedrijfsverkopen en toekomstige kapitaalverhogingen.

Klantenconcentratie brengt zowel validatie als risico's met zich mee. Microsoft vertegenwoordigde ongeveer 62% van de inkomsten van CoreWeave in 2024 volgens S-1-dossiers - een afhankelijkheid die snelle schaalvergroting mogelijk maakte, maar kwetsbaar is voor nieuwe contractonderhandelingen of strategische verschuivingen. Het langetermijnkarakter van deze contracten zorgt voor enige stabiliteit, hoewel specifieke looptijden niet openbaar worden gemaakt (orders hebben meestal een looptijd van twee tot vijf jaar). OpenAI's toezegging van maximaal $11,9 miljard, plus een daaropvolgende uitbreiding van $4 miljard die wordt bekendgemaakt in het materiaal voor investeerdersrelaties van het bedrijf, zorgt voor extra ankerinkomsten. Het bredere klantenbestand, waaronder IBM en vooraanstaande financiële instellingen, toont aan dat de markt verder reikt dan de initiële ankerhuurders.

De orderportefeuille van $30,1 miljard in het tweede kwartaal van 2025 biedt een ongekende zichtbaarheid voor een infrastructuurbedrijf, met gecontracteerde inkomsten die meerdere jaren aan toekomstige toezeggingen vertegenwoordigen, hoewel het uitvoeringsrisico aanzienlijk blijft gezien de complexiteit van de inzet en het gebruik van honderdduizenden GPU's in tientallen datacenters. Omzeterkenning is afhankelijk van de beschikbaarheid van de infrastructuur, waardoor er druk ontstaat om agressieve implementatieschema's aan te houden en tegelijkertijd de betrouwbaarheid te garanderen die zakelijke klanten eisen.

Financiële prestaties onthullen de uitdagende eenheidseconomie van AI-infrastructuur. De resultaten van het tweede kwartaal van 2025 lieten $1,21 miljard aan inkomsten zien, maar toenemende verliezen, waarbij het bedrijf te maken had met enorme afschrijvingslasten op snel evoluerende hardware, rentelasten die jaarlijks de $1 miljard naderden, gezien de schuldenlast, en operationele kosten die stegen met de uitrol van de infrastructuur. De weg naar winstgevendheid vereist het bereiken van een grotere schaal om vaste kosten af te schrijven, het verbeteren van de bezettingsgraad en het handhaven van prijsdiscipline ondanks concurrentiedruk - een delicaat evenwicht tussen groei en duurzaamheid.

De overname van Weights & Biases in mei 2025 voor ongeveer 1,7 miljard dollar (volgens TechCrunch en rapporten uit de sector, hoewel de officiële voorwaarden niet bekend zijn gemaakt) voegt MLOps-mogelijkheden toe terwijl de complexiteit van de integratie toeneemt. De deal werd op 5 mei 2025 gesloten en combineert infrastructuur met tools voor modelontwikkeling die door meer dan 1400 bedrijven worden gebruikt.

Marktpositie versterkt door specialisatie en partnerschappen.

De marktstrategie van CoreWeave keert traditionele cloudplatformbenaderingen om door het toepassingsgebied bewust te beperken om ongeëvenaarde diepgang te bereiken in GPU-versnelde computing. Terwijl AWS meer dan 200 services biedt voor elke denkbare workload, biedt CoreWeave een gerichte GPU-computinginfrastructuur die is geoptimaliseerd voor AI-training en inferentie. Deze specialisatie maakt architecturale optimalisaties en operationele efficiëntie mogelijk die generalistische platforms afwegen tegen bredere vereisten.

De concurrentiedynamiek blijft zich snel ontwikkelen. Hyperscalers hebben hun GPU-aanbod aanzienlijk verbeterd. AWS, Google Cloud en Azure bieden nu netwerkopties met hoge bandbreedte, bare-metal instances en verbeterde GPU-beschikbaarheid. Het onderscheid wordt steeds meer gemaakt op basis van beschikbaarheid op clusterschaal, topologieoptimalisatie, thermisch beheer en integratie van de softwarestack in plaats van alleen de ruwe specificaties.

CoreWeave's partnerschap strategie versterkt haar gerichte aanpak door middel van diepe ecosysteem integratie. De NVIDIA-relatie gaat verder dan de dynamiek tussen klant en leverancier: het aandelenbelang van NVIDIA en de consistente selectie van CoreWeave voor de lancering van nieuwe architecturen (GB200 NVL72 in februari 2025, GB300 NVL72 in juli 2025) tonen de strategische afstemming. Samenwerkingsverbanden met Databricks, Hugging Face en andere AI-platforms zorgen voor workflowcompatibiliteit zonder dat CoreWeave concurrerende diensten hoeft te bouwen.

Geografische expansie volgt op AI-innovatie hubs met $ 3,5 miljard toegezegd aan Europese infrastructuur, waaronder £ 1 miljard voor Britse activiteiten en faciliteiten in Noorwegen, Zweden en Spanje, gebruikmakend van hernieuwbare energie. Het bedrijf heeft 33 datacenters vanaf 2025 met ongeveer 470 MW aan actief IT-vermogen en ongeveer 2,2 GW aan gecontracteerde capaciteit (Q2 2025), waarmee het zich positioneert voor voortdurende groei.

Het duurzame concurrentievoordeel komt voort uit samengestelde effecten waarbij gespecialiseerde infrastructuur veeleisende klanten aantrekt, geconcentreerde vraag voortdurende investeringen rechtvaardigt en technisch leiderschap zorgt voor vroege toegang tot nieuwe hardware. Dit positioneert CoreWeave op een unieke manier, hoewel de uitvoeringsrisico's aanzienlijk blijven gezien de kapitaalvereisten en de concurrentiedruk.

Technische infrastructuur: Engineering van AI op ongekende schaal

CoreWeave's aanwezigheid in datacenters strekt zich uit over 33 operationele faciliteiten in de Verenigde Staten en Europa vanaf 2025 en vertegenwoordigt een van de grootste gespecialiseerde GPU-installaties ter wereld. De geografische spreiding omvat 28 Amerikaanse locaties met grote implementaties, zoals de 1,6 miljard dollar kostende faciliteit in Plano, Texas, die meer dan 3500 H100 GPU's huisvest op 454.421 vierkante meter. In MLPerf Training v5.0 inzendingen (juni 2025), bereikten CoreWeave, NVIDIA en IBM de grootste benchmark ooit met behulp van 2.496 GB200 GPU's om Llama 3.1 405B te trainen in 27,3 minuten - meer dan 2x sneller dan vergelijkbare clustergroottes van andere indieners.

De energie-infrastructuur vormt een kritieke onderscheidende factor met ongeveer 470 megawatt actieve capaciteit en ongeveer 2,2 gigawatt gecontracteerd vanaf het tweede kwartaal van 2025, inclusief faciliteiten die zijn ontworpen voor uitzonderlijke efficiëntie. De technologie voor vloeistofkoeling die 130 kilowatt per rack ondersteunt - in vergelijking met de traditionele limieten van 30 kilowatt voor luchtkoeling - maakt de inzet van dichte configuraties mogelijk, zoals NVIDIA GB200 NVL72-systemen met 72 GPU's per rack.

De GPU-vloot is gebaseerd op de nieuwste architecturen van NVIDIA met in totaal ongeveer 250.000 ingezette GPU's. De samenstelling omvat H100-varianten in zowel SXM5- als PCIe-configuraties, H200 GPU's met 141 GB HBM3e-geheugen en de eerste GB200 NVL72-systemen. CoreWeave bereikte de eerste algemene beschikbaarheid op de markt van GB200 NVL72 (februari 2025) en de eerste inzet van GB300 NVL72 (3 juli 2025), waarmee ze hun patroon van vroege toegang tot nieuwe NVIDIA-hardware handhaven.

De netwerkbackbone maakt gebruik van NVIDIA Quantum-2 InfiniBand die 400Gb/s per GPU levert via ConnectX-7 adapters in niet-blockende Fat Tree topologieën, die een latentie van sub-microseconden met een hoge doorvoer bereiken, hoewel de ruwe netwerksnelheden nu overeenkomen met die van hyperscalers van topklasse. Het verschil zit in topologie-optimalisatie, scheduler-integratie en consistente configuratie in clusters.

De opslagarchitectuur is gecentreerd op VAST Data Platform implementaties die gebruik maken van gedesaggregeerde architectuur voor onafhankelijke schaling. Het systeem bereikt tot 1 GB/s per GPU aanhoudende doorvoer met geoptimaliseerde I/O-patronen die onderscheid maken tussen training leest en checkpointing schrijft. De LOTA-technologie (Local Object Transfer Accelerator) van CoreWeave slaat veelgebruikte gegevens op GPU-nodes op in de cache, waardoor het netwerkverkeer wordt verminderd en de doorvoer wordt verbeterd.

Software stack geoptimaliseerd voor bare-metal prestaties.

CoreWeave's bare-metal Kubernetes architectuur elimineert virtualisatie overhead door Kubernetes direct op hardware te draaien. Deze aanpak biedt directe hardwaretoegang met behoud van multi-tenancy via NVIDIA BlueField DPU's. Interne benchmarks beweren dat dit een gebruik van meer dan 50% Model FLOPS op Hopper GPU's mogelijk maakt - ongeveer 20% hoger dan openbare basislijnen, hoewel onafhankelijke verificatie van deze specifieke cijfers beperkt blijft.

De CoreWeave Kubernetes Service (CKS) gaat verder dan de typische beheerde Kubernetes door de klant controle te geven over datavlak componenten terwijl CoreWeave het controlevlak beheert. CKS is vooraf geconfigureerd met GPU-stuurprogramma's, netwerk-/opslaginterfaces en observeerbaarheidsplugins en kan worden geïntegreerd met workload orkestratietools zoals Slurm, KubeFlow en KServe.

SUNK (Slurm on Kubernetes) slaat een brug tussen HPC en cloudparadigma's door Slurm in te zetten als gecontaineriseerde Kubernetes-bronnen, wat dynamisch delen van bronnen tussen batchtaken en langlopende services mogelijk maakt. Het bereikt een hoge bezettingsgraad door topologiebewuste scheduling, geoptimaliseerd voor InfiniBand-weefselconfiguraties.

De Tensorizer-technologie versnelt het gebruik van modellen door middel van geoptimaliseerde serialisatie en streaming, waardoor het laden van modellen volgens de benchmarks van CoreWeave 5 keer sneller gaat dan met standaardmethoden. De open-source tool maakt "zero-copy" laden mogelijk waarbij modellen brok voor brok worden gestreamd in plaats van hele modellen in RAM te laden.

Geavanceerde implementaties met geverifieerde prestatiebenchmarks

De infrastructuurprestaties van CoreWeave omvatten verifieerbare MLPerf-inzendingen die schaal en prestaties aantonen. De MLPerf Training v5.0 inzending van juni 2025 met 2.496 NVIDIA GB200 GPU's voltooide Llama 3.1 405B training in 27,3 minuten - de grootste inzending door een cloud provider en meer dan 2x sneller dan vergelijkbare clustergroottes.

Inferentieprestaties bereiken 800 tokens/seconde op Llama 3.1 405B met GB200 systemen volgens MLPerf Inference v5.0 resultaten, met 2,86x per chip verbetering ten opzichte van H200. De GB200 NVL72 architectuur combineert 72 Blackwell GPU's met 36 Grace CPU's per rack en levert 1,44 exaFLOPS met 13,5 TB aan NVLink-geheugen.

Het ClusterMAX-classificatiesysteem van SemiAnalysis plaatste alleen CoreWeave in de Platinum-trap bij de lancering in maart-april 2025, waarbij het bedrijf werd geëvalueerd ten opzichte van AWS, Google Cloud, Azure en andere leveranciers voor meer dan 50 technische vereisten. Deze onafhankelijke beoordeling valideert technische differentiatie, hoewel het beoordelingssysteem regelmatige updates plant naarmate het concurrentielandschap evolueert.

Samenwerkingsverbanden op het gebied van technologie versnellen de mogelijkheden van het platform.

Het NVIDIA-partnerschap gaat verder dan de typische verkopersrelaties. NVIDIA heeft een aandelenbelang van ongeveer 6%, met een waarde van bijna 1,6 miljard dollar per mei 2025. Deze diepgaande integratie uit zich in consistente first-to-market implementaties van nieuwe architecturen en co-engineering inspanningen voor optimalisaties. De gezamenlijke MLPerf inzendingen laten deze technische samenwerking zien.

IBM's inzet van CoreWeave infrastructuur voor Granite model training maakt gebruik van GB200 systemen met Quantum-2 InfiniBand netwerken. Dell's infrastructuurpartnerschap omvat PowerEdge XE9712 servers met GB200 NVL72 in vloeistofgekoelde racks. VAST Data verzorgt de opslag in alle CoreWeave datacenters via zijn platform met gedesaggregeerde architectuur.

De overname van Weights & Biases voor ongeveer 1,7 miljard dollar (afgerond op 5 mei 2025) creëert een geïntegreerd AI-platform dat infrastructuur combineert met MLOps-mogelijkheden. Het platform, dat wordt gebruikt door meer dan 1.400 bedrijven waaronder OpenAI en Meta, behoudt interoperabiliteit en voegt tegelijkertijd tools voor modelontwikkeling en monitoring toe.

Toekomstig traject brengt groei in evenwicht met financiële duurzaamheid.

De toekomstgerichte initiatieven van CoreWeave omvatten verschillende belangrijke ontwikkelingen. De GB300 NVL72-implementatie (juli 2025) belooft wat NVIDIA verkoopt als "50x verbeteringen in de inferentieresultaten van redeneermodellen", hoewel dit eerder leveranciersprojecties zijn dan onafhankelijk gecontroleerde benchmarks. Spot GPU-verhuur, die eind 2025 van start gaat, biedt onderbreekbare instances met dynamische prijzen tegen lagere kosten.

Europese uitbreiding van in totaal 3,5 miljard dollar zorgt voor datasoevereiniteit door middel van faciliteiten op hernieuwbare energie die voldoen aan de GDPR-vereisten. Het bedrijf blijft opschalen naar 1,6 gigawatt aan gecontracteerde stroomcapaciteit en breidt de mogelijkheden voor vloeistofkoeling uit om de volgende generatie hardware te ondersteunen.

Financiële uitdagingen vereisen zorgvuldige navigatie. Met een schuld van meer dan $11 miljard die ongeveer $1 miljard aan jaarlijkse rentekosten genereert, moet CoreWeave een evenwicht vinden tussen agressieve groei en een weg naar winstgevendheid. Het risico van klantconcentratie blijft hoog met Microsoft dat 62% van de inkomsten in 2024 vertegenwoordigt. Het bedrijf rapporteerde toenemende verliezen in het tweede kwartaal van 2025 ondanks een kwartaalomzet van $1,21 miljard.

De marktkansen blijven aanzienlijk: IDC voorspelt dat er tegen 2027 jaarlijks 500 miljard dollar zal worden uitgegeven aan AI-infrastructuur. CoreWeave's gespecialiseerde aanpak en technische voordelen positioneren hen om aanzienlijke waarde te creëren, hoewel de uitvoeringsrisico's blijven bestaan gezien de kapitaalvereisten, concurrentiedynamiek en de noodzaak om hun klantenbestand te diversifiëren en tegelijkertijd de groeidynamiek te behouden.

Conclusie

CoreWeave heeft een gespecialiseerde AI-infrastructuur ontworpen die meetbare voordelen biedt door middel van een bare-metal Kubernetes-architectuur, vloeistofkoeling die 130kW rackdichtheid ondersteunt en een consistente first-to-market inzet van de nieuwste technologieën van NVIDIA. Hun transformatie van cryptocurrency mining tot de enige Platinum-gewaardeerde leverancier in het ClusterMAX-systeem van SemiAnalysis (vanaf maart 2025) toont de succesvolle uitvoering van een gerichte strategie. Met verifieerbare prestaties, waaronder de grootste MLPerf Training-inzending-Llama 3.1 405B in 27,3 minuten met behulp van 2.496 GB200 GPU's en $ 30,1 miljard aan gecontracteerde inkomsten, heeft CoreWeave zich gevestigd als kritieke infrastructuur voor AI-ontwikkeling.

De weg voorwaarts vereist echter het overwinnen van aanzienlijke uitdagingen, waaronder een schuld van meer dan $ 11 miljard, klantconcentratie waarbij Microsoft het grootste deel van de inkomsten in 2024 voor zijn rekening neemt en concurrentie van steeds capabeler hyperscaler-aanbiedingen. Terwijl het bedrijf opschaalt naar ongeveer 2,2 gigawatt aan gecontracteerde stroomcapaciteit en systemen van de volgende generatie inzet, zal het vermogen om technisch leiderschap te behouden en tegelijkertijd financiële duurzaamheid te bereiken bepalen of deze voormalige cryptomijnwerker het AI-infrastructuurlandschap blijvend kan veranderen.

Actuele gegevens tot 15 augustus 2025. Bronnen zijn onder andere bedrijfsdossiers, SEC-documenten, MLPerf-benchmarks en sectoranalyses van SemiAnalysis.

Referenties

  1. CoreWeave, Inc. - Form S-1 (initiële registratieverklaring), U.S. SEC, ingediend op 3 maart 2025. (Omzetgeschiedenis; 737% groei in 2024; achtergrond van het bedrijf.)(SEC)

  2. CoreWeave, Inc. - Prospectus (Form 424B4), Amerikaanse SEC, april 2025. (Klantenconcentratie; Microsoft = 62% van de omzet in 2024.)(SEC)

  3. CoreWeave - "CoreWeave Rapporteert Sterke Resultaten Tweede Kwartaal 2025", Business Wire/IR, 12 augustus 2025. (Q2 $1,212B omzet, $30,1B orderportefeuille; ~470 MW actief, ~2,2 GW gecontracteerd; OpenAI $11,9B + $4Bexpansie).(Business Wire)

  4. Reuters - "Omzet CoreWeave overtreft ramingen op AI-hausse, maar aandelen dalen door groter verlies", 12 augustus 2025. (Resultaten Q2; 33 datacenters.)(Reuters)

  5. Reuters - "CoreWeave haalt $7,5 miljard aan schuld op tegen $19B waardering", 17 mei 2024. (Privé krediet; $19B waardering).

  6. Reuters - "CoreWeave sluit secundaire aandelenverkoop van 650 miljoen dollar... gewaardeerd op 23 miljard dollar", 13 november 2024.($23B secundaire waardering.)(Reuters)

  7. SemiAnalysis - "Introductie van het Cloud GPU-prestatieclassificatiesysteem - ClusterMAX (Q2 2025)", april 2025. (ClusterMAX-methodologie; CoreWeave = platina.)(SemiAnalyse)

  8. CoreWeave - "Blackwell op schaal: Algemene beschikbaarheid van GB200 NVL72 op CoreWeave", 4 februari 2025. (Eerste naar GA met GB200 NVL72.)(Reuters)

  9. CoreWeave - "Eerste NVIDIA GB300 NVL72-deployment" (blog), 3 juli 2025. (Eerste GB300 NVL72deployment.)(CoreWeave)

  10. NVIDIA Developer Blog - "Blackwell Ultra voor het tijdperk van AI Reasoning", 19 maart 2025. (**"10× TPS per gebruiker" + "5× TPS per MW" ⇒ "tot 50× uitvoer" marketingclaim).(NVIDIA-ontwikkelaar)

  11. MLCommons - MLPerf Training v5.0 Resultaten (2025). (Llama-3.1 405B 27,3 minuten op 2.496 GB200; grootste inzending.)(Microsoft Learn)

  12. MLCommons - MLPerf Inferentie v5.0 (Datacentrum) Resultaten (2025). (Llama-3.1 405B doorvoer/latentieincl.vergelijking GB200 vs H200 gebruikt in samenvattingen van leveranciers).(Microsoft leren)

  13. AWS - P5 Instances / EFA Netwerken (officiële doc/blog).(Tot 3.200 Gbps instance networking op p5 met EFA/SR-IOV.)(Amazon Web Services, Inc.)

  14. Microsoft Azure - "ND H100 v5-Series (Preview)" productpagina.(1,6-3,2 Tbps-klasse netwerken.)(AWS Documentatie)

  15. Google Cloud Blog - "A3 Ultra: 3,2 Tbps GPU-netwerken per VM" (A3/A3 Ultra lanceringsmateriaal).(3,2 Tbps per VM.)(Google Cloud)

  16. Dell Technologies - "Dell levert eerste PowerEdge XE9712 servers met NVIDIA GB200 NVL72 aan CoreWeave", 20 juni 2025. (Rack-scale, vloeistofgekoelde leveringspartner.)(CoreWeave)

  17. VAST Data - "Schaalvergroting van AI-prestaties bij CoreWeave" (case study/oplossingspagina), 2025. (VAST uitgerold over CoreWeave DC's; I/O-architectuur.)(CoreWeave)

  18. Weights & Biases - "We sluiten ons aan bij CoreWeave" (overnameaankondiging), 5 mei 2025. (W&B-deal sluiten/timing; richting integratie.)(FinTech Weekly - Home Page)

  19. Reuters - "CoreWeave gaat $2,2B extra investeren in Europa, waardoor het totaal op $3,5B komt", 5 juni 2024. (Schaalvergroting/locaties in Europa.)(Reuters)

  20. Investor's Business Daily - "IPO aanvraag van CoreWeave gesteund door Nvidia toont grote omzetsprong... Microsoft 62%; Nvidia 6% belang", maart 2025. (Bevestigt ~6% NVIDIA-belang vermeld in archieven/pers.)(Investeerders)

Volgende
Volgende

Lokale LLM Hardware Handleiding 2025: Prijzen en specificaties