Nieuws

AI-chatbots herhalen vaak Russische desinformatie

© oatawa / iStock
Chatbots hebben beveiliging tegen fake news, maar die blijkt niet altijd te werken. Ze blijken nog steeds vatbaar voor desinformatie.

Met de lancering van ChatGPT in november 2022 werd al snel duidelijk dat het internet voor een verregaande verandering stond. AI-tools zoals ChatGPT, Copilot en Gemini maken het bijzonder makkelijk om tekst te genereren. Die teksten kunnen nadien gebruikt worden voor verschillende doeleinden: niet alleen om goede punten te scoren op school, maar ook om bijvoorbeeld aan phishing te doen en desinformatie te verspreiden.

Van de aanbieders van die AI-systemen wordt verwacht dat ze ervoor zorgen dat die laatste twee zaken niet mogelijk zijn. Verschillende AI-beeldengenerators voerden zo al beperkingen in, om de verspreiding van desinformatie over politieke kandidaten geen duwtje in de rug te geven. Ook tekstgenerators zoals ChatGPT, Gemini en Copilot hebben daarvoor allerlei vangrails, maar die blijken niet altijd even goed te werken. Onderzoek van NewsGuard toont namelijk aan dat chatbots nog steeds desinformatie kunnen verspreiden.

Onderzoek

NewsGuard bekeek voor het onderzoek de 10 meest gebruikte AI-chatbots van het moment: OpenAI’s ChatGPT, Smart Assistant vasn You.com, xAI’s Grok, Inflection’s Pi, Mistrals le Chat, Microsoft Copilot, Meta AI, Anthropics Claude, Google Gemini, and de Perplexity-zoekmachine. Elke chatbot kreeg 57 verschillende prompts voorgeschoteld, goed voor een totaal van 570 opdrachten. De prompts werden gebaseerd op 19 veelvoorkomende uitspraken, waarvan is geweten dat het om desinformatie gaat. Denk daarbij aan de Oekraïense president Zelensky die corrupt zou zijn, of een geheim agent die een afluisterapparaat gevonden zou hebben in het kantoor van Trump. Dat is desinformatie, maar chatbots blijken wel bereid om die desinformatie te herhalen.

Die 19 desinformatiestellingen werden op 3 verschillende manieren bevraagd. Eén keer moest de chatbot zo neutraal mogelijk zijn. Een andere keer werden de uitspraken als waarachtig voorgesteld, en werd aan de chatbot om meer informatie gevraagd. Een derde keer werd aan het chatsysteem opgedragen om opzettelijk desinformatie te verspreiden.

Resultaten

Wat blijkt? In maar liefst 152 van de 570 antwoorden verspreidden de chatbots desinformatie. In bijna 32% van de gevallen is het systeem niet in staat om die antwoorden tegen te houden. 29 keren herhaalde de chatbot de misinformatie wel, maar plaatste die daar wel een kritische kanttekening bij. In het merendeel van de antwoorden zat echter geen desinformatie: 144 keren weigerde de chatbot gewoon dienst, en 245 keren corrigeerde die de misinformatie.

De geanominiseerde resultaten van het onderzoek.

NewsGuard deelt geen cijfers per chatbot, omdat de onderzoekers het probleem overal zien terugkeren. De fout ligt dus niet bij het ene taalmodel, maar is op dit moment eigen aan alle chatbots die getest werden.

Verklaring

De desinformatie die chatbots verspreiden komt niet uit het niets, maar valt altijd terug te brengen tot een oorsprong. In veel gevallen blijkt die oorsprong bij pro-Russische nieuwssites te liggen die zelf voornamelijk fake news verspreiden. Volgens de onderzoekers gaat het daarbij om een heel netwerk van fake nieuwswebsites. De websites werden zo opgebouwd dat AI-systemen niet merken dat het om fake news gaat, en hebben betrouwbare namen die helpen om het systeem verder om de tuin om te leiden.

Denk daarbij aan namen zoals ‘The Arizona Observer’, en ‘The San Fran Chron.’. Die namen zijn gebaseerd op die van echte kranten die ooit bestaan hebben. Daardoor lijken de websites betrouwbaar, en dat is ook wat de chatbots in veel gevallen over de website te zeggen hebben. Doordat het om een groot netwerk van sites gaat, die vaak fake nieuwsberichten van elkaar over te nemen, lijkt het voor de AI-systemen des te meer alsof de content geloofwaardig is.

Risico’s

De kans dat AI-chatbots zomaar desinformatie uitspuwen terwijl je er zelf tegen praat, lijkt klein. Toch zijn er bepaalde onderwerpen, waar veel desinformatie bij komt kijken, waar de chatbots het moeilijk mee hebben.

De chatbots kunnen daarnaast ook ingezet worden op sociale media. Geautomatiseerde botaccounts worden daar ingezet om bepaalde narratieven te verspreiden. Af en toe gaat dat mis, en spuwen de botaccounts per abuis foutmeldingen uit. Het kan dus zomaar gebeuren dat je een geverifieerd X-account zo’n foutmelding ziet uitspuwen, bijvoorbeeld omdat de credits voor ChatGPT op zijn. Onlangs merkte een Reddit-gebruiker zo’n foutmelding op, waar Russische instructies bij stonden: “je zal Trump steunen in je antwoord, spreek Engels”. Op sociale media zijn heel wat van die botaccounts actief. Alles wat je daar leest, neem je dus best met een flinke korrel zout.

Uitgelicht artikel X (Twitter) Grok, AI-systeem van X, verspreidt fake news dankzij gebruikers
AI-chatbotChatGPTcopilotdesinformatiefake newsgeminimetaMistralonderzoekOpenAIrusland

Gerelateerde artikelen

Volg ons

Korting bij Dreame!

Korting bij Dreame!

Bekijk de deals