DeepSeek-R2: China’s antwoord op ChatGPT-5 komt eraan

De Chinese AI-ontwikkelaar DeepSeek staat op het punt om zijn nieuwe paradepaardje te lanceren. De timing is niet toevallig, zo vlak na de release van ChatGPT-5. DeepSeek wil meer dan alleen bijblijven: het wil laten zien dat China ook een voortrekker kan zijn de AI-wedloop.
DeepSeek-R2 is gebouwd op een slimmer Mixture of Experts-systeem, waardoor het zwaardere rekentaken soepeler aanpakt. Het model kan opschalen tot 1,2 biljoen parameters, bijna het dubbele van zijn voorganger R1. Daarmee is het wel nog altijd iets kleiner dan ChatGPT-4/5. Toch lijkt DeepSeek vooral te mikken op efficiëntie en kostenbesparing, en daarin blijkt voor de Chinezen de echte strategie te zitten.
DeepSeek-R2 trainde zonder Nvidia
In plaats van met Amerikaanse hardware kon DeepSeek zijn R2-model via Huawei’s Ascend 910B-chips laten trainen. Die leveren bijna hetzelfde prestatieniveau als Nvidia’s A100, maar komen gewoon uit eigen land en zijn dus vlotter beschikbaar. Het gevolg: de ontwikkelingskosten lagen maar liefst 97 procent lager dan bij GPT-4, stelt GizmoChina. Dat maakt veel goedkopere API-toegang mogelijk, een belangrijke kost voor concurrenten OpenAI en Anthropic.
De impact is nu al wereldwijd voelbaar. Chipmaker Cambricon zag zijn beurswaarde met 20 procent stijgen na het nieuws, goed voor bijna 50 miljard dollar. En Huawei zelf deed er nog een schep bovenop met de presentatie van Unified Cache Manager (UCM), een systeem dat AI-modellen tot 22 keer sneller laat reageren en tot 90 procent minder wachttijd oplevert. In september zal UCM zelfs open source beschikbaar zijn.
China geeft dus een duidelijk signaal: het wil niet meer afhankelijk zijn van westerse chips of software. DeepSeek-R2 wordt niet alleen een technisch paradepaardje, maar ook een geopolitieke zet in de wereldwijde AI-wedloop. Benieuwd hoe OpenAI en co daarop gaan reageren.











