Nieuws

AI-model DeepSeek volgt Chinese censuurregels

Deepseek AI op mobiel
© shutterstock.com / Mojahid Mottakin
De Chinese AI-tool DeepSeek houdt zich aan de censuurregels van de CCP en weigert te praten over gevoelige onderwerpen.

Het is al DeepSeek dat de klok slaat. De AI-chatbot van Chinese makelij heeft wereldwijd veel aandacht getrokken en staat bovenaan de ranglijsten van appstores. Het succes van DeepSeek, een product van het Chinese hefboomfonds High-Flyer, heeft zowel in Silicon Valley als op Wall Street voor opschudding gezorgd. De indrukwekkende prijs-prestatieverhouding van DeepSeek maakt het een geduchte concurrent voor bestaande AI-modellen zoals die van OpenAI en Google.

Oppervlakkige censuur

Nu blijkt echter dat de chatbot terughoudend is in het beantwoorden van sommige vragen. Dat gebeurt niet willekeurig: telkens als het over gevoelige onderwerpen gaat die verband houden met China, geeft de AI nul op het rekest. Onderwerpen zoals de protesten op het Tiananmenplein en de status van Taiwan worden grotendeels genegeerd door het model.

Een nieuw rapport van PromptFoo, een door Andreessen Horowitz gesteunde startup die kwetsbaarheden in AI-toepassingen onderzoekt, heeft aangetoond dat DeepSeek’s R1-redeneermodel in 85% van de gevallen weigert om op gevoelige vragen te reageren. De onderzoekers noemen daarbij een exact aantal: op maar liefst 1156 vragen weigert DeepSeek een antwoord te geven. In plaats daarvan reageert de chatbot volledig naast de kwestie, met een overdreven nationalistische toon.

Bovendien ontdekte PromptFoo dat het AI-model relatief eenvoudig te ‘jailbreaken’ is. Dat suggereert dat de Chinese ontwikkelaars censuurmaatregelen van de Communistische Partij op een rigide en oppervlakkige manier hebben geïmplementeerd. Dit roept vragen op over de manier waarop AI-systemen in China worden gecontroleerd en beperkt.

Dataset beschikbaar

De volledige dataset van gevoelige vragen die DeepSeek niet beantwoordde, is beschikbaar op het platform Hugging Face, zodat onderzoekers de prompts verder kunnen analyseren. Het rapport werpt een nieuw licht op hoe Chinese AI-modellen omgaan met politieke gevoeligheden en hoe censuur zich in AI-systemen kan nestelen. De onderzoekers nemen bovendien niet enkel DeepSeek onder de loep. Ze verbinden zich ertoe om eenzelfde evaluatie op ChatGPT en andere Amerikaanse foundation models toe te passen. Dat moet een beeld bieden van hoe niet alleen Chinese, maar ook Amerikaanse modellen omgaan met vragen die politiek gezien nogal gevoelig liggen.

aicensuurchinaDeepSeek

Gerelateerde artikelen

Volg ons

Lezersaanbod: korting op Kuno (op=op)

Lezersaanbod: korting op Kuno (op=op)

Bekijk de voorraad