Nieuws

Nvidia onthult Blackwell: 25 keer zuiniger en tot 30 keer sneller dan H100

Nvidia Blackwell
© Nvidia
Nvidia lanceert nieuwe datacenter-GPU's die energiezuiniger én sneller zijn onder de naam 'Blackwell'. De kostprijs is nog onduidelijk.

Als het over AI gaat, wordt vaak gesproken over de AI-ontwikkelaars zoals OpenAI, Google en Microsoft. Op de achtergrond wordt die technologie echter aangedreven door grafische processors van Nvidia. Het bedrijf kondigde een nieuwe GPU aan die 25 keer zuiniger is dan de huidige H100, maar wel 7 tot 30 keer sneller is.

Nvidia H100 en AI

Momenteel biedt Nvidia de H100-GPU aan. Die grafische processor wordt door zo goed als elk AI-bedrijf gebruikt om modellen te trainen en AI-toepassingen te helpen ontwikkelen. De H100 is meteen de reden dat Nvidia in 2023 recordcijfers neerzette. Het bedrijf kon zijn fiscaal 2024 afsluiten met een omzet van 22,1 miljard dollar in het laatste kwartaal. Tussen Q4 2023 en datzelfde kwartaal in 2024 steeg Nvidia’s nettowinst met maar liefst 769%.

Bij het optekenen van die cijfers liet CEO Jensen Huang zich al ontvallen dat hij in 2024 (fiscaal 2025 voor Nvidia) geen veranderingen verwacht. De AI-revolutie zou gewoon voort blijven duren, en daar speelt Nvidia gretig op in. Nu ook met hun laatste GPU, die ze ‘Blackwell’ doopten. Volgens de CEO van het techbedrijf moet die “de motor worden die deze nieuwe Industriële Revolutie aandrijft”.

Consumenten-GPU maal vijftig

De Nvidia H100 was al ongemeen krachtig, waardoor het een bijzonder interessante GPU is om AI-toepassingen op te ontwikkelen. Vanwege handelsbeperkingen mag de hardware niet naar China uitgevoerd worden: er wordt gevreesd dat China de technologie militair zou kan inzetten. De H100 biedt 4 PFLOPS aan rekenkracht, mogelijk gemaakt door de 80 miljard transistoren die in de H100-chip zitten. Ter vergelijking: de krachtigste consumenten-GPU, de RTX 4090, biedt ‘slechts’ 76,3 miljoen transistoren en 82,5 TFLOPS. Met andere woorden: één H100-GPU is qua rekenkracht gelijk aan bijna 50 RTX 4090-kaarten.

Blackwell doet daar nog een schep bovenop en biedt 20 petaflops aan rekenkracht. Dat is mogelijk dankzij 208 miljard transistoren op de chip. Strikt genomen gaat het om twee afzonderlijke chips die met elkaar kunnen communiceren aan een snelheid van 10 terabytes per seconde. De GPU zou daarbij 25 procent minder energie gebruiken, wat het totaalpakket nog indrukwekkender maakt.

Kostprijs: hoog

Het is onduidelijk hoeveel de Blackwell-GPU moet gaan kosten. De H100 kost momenteel tussen de 25.000 en 40.000 dollar, afhankelijk van hoeveel een bedrijf er bestelt. Dat de GPU’s besteld zullen worden, lijkt alvast een zekerheid: in het persbericht naar aanleiding van de lancering laat Nvidia maar liefst zeven tech-CEO’s en andere leidinggevenden opdraven om de GPU’s te loven. Op het lijstje staan Sam Altman (OpenAI), Satya Nadella (Microsoft), Sundar Pichai (Alphabet, Google), Mark Zuckerberg (Meta), Demis Hassabis (Google Deepmind), Larry Ellison (Oracle), Michael Dell (Dell) en Elon Musk (Tesla). Die laatste meent dat “Er momenteel niets beter is dan Nvidia-hardware als het over AI gaat”, een bewering die de jaarcijfers makkelijk ondersteunen.

Uitgelicht artikel Nvidia LLM Hoe werkt AI en wat zijn LLM’s? Alles over grote taalmodellen
aiBlackwellbusinessgoogle deepmindmicrosoftnvidiaOpenAI

Gerelateerde artikelen

Volg ons

€350 korting op de Tenways CGO600

€350 korting op de Tenways CGO600

Bekijk de CGO600