AI-chatbots onbetrouwbaar als nieuwsbron
In navolging van een eerdere proef van de Britse zender BBC coördineerde de European Broadcasting Union (EBU) een nieuw onderzoek om te analyseren hoe waarheidsgetrouw de bekende chatbots ChatGPT, Perplexity, Gemini en Copilot het nieuws en de actualiteit weergeven. In niet minder dan 18 landen en 14 talen werd door 22 organisaties aan de bots gevraagd om enkel de eigen nieuwssite als bron te gebruiken, om contaminatie uit te sluiten. In het geval van de nieuwsdienst van de VRT was dat uniek, want normaal heeft AI geen toegang tot hun berichten. De vragen gingen enerzijds over internationaal nieuws, om vergelijkingsmateriaal tussen de verschillende deelnemende landen te hebben, en anderzijds ook over lokaal nieuws. De antwoorden werden daarna beoordeeld op onder andere accuraatheid, bronvermelding, context en onderscheid tussen feit en opinie. De resultaten van dit onderzoek uit mei en juni 2025 waren maar een tikkeltje beter dan dat van de BBC uit februari, want nog altijd 45% van de antwoorden werd als problematisch beoordeeld.
AI populair als nieuwsbron
Dat is op zijn minst relevant te noemen, want veel mensen gebruiken intussen AI-assistenten om op de hoogte te blijven van de actualiteit. Een foute weergave daarvan betekent bijgevolg dat desinformatie optreedt, terwijl de persoon in kwestie ervan overtuigd is dat hij goed op de hoogte is van wat er zich in de wereld afspeelt.
Chatbots vervormen waarheid
In de AI-antwoorden zat het probleem het vaakst (31%) bij de bronvermelding, waarbij de chatbot vermeldt dat een nieuwsartikel een bepaalde claim bevat, terwijl dat niet zo is. Daarna volgen accuraatheid (20%) en onvoldoende context (14%), maar ook een mening als feit weergeven (7%) en een vervorming van de feiten (6%) komen voor. Twee voorbeelden die VRT NWS meegeeft, zijn de nazigroet van Elon Musk, waarvan ChatGPT meldt dat hij het niet zo had bedoeld, terwijl de nieuwsdienst had vermeld dat hij zelf beweert dat hij het niet zo had bedoeld (de bot brengt de bewering dus als feit), en de overtuiging van Gemini dat Paul Van Tigchelt nog altijd minister van Justitie was, terwijl dat al achterhaald is.
Perplexity het ‘minst onbetrouwbaar’
Uit het onderzoek komt Gemini, Googles AI-systeem, als de minst betrouwbare naar voren. Maar liefst 76% van de antwoorden bevat één of meer problemen. De drie andere assistenten doen het beter, want ze bevatten in 31 tot 37% van de gevallen problematische informatie. Perplexity blijkt de beste van allemaal, maar ook in dat model sluipen nog voldoende fouten (31%).
Het moeilijkste voor de chatbots blijkt nieuws dat zich nog aan het afspelen is, bijvoorbeeld een natuurramp of een oorlog die op zijn einde loopt. Afgeronde nieuwsverhalen leveren minder problemen op. Hoe dan ook, deze resultaten maken duidelijk dat het nog altijd het beste is om de actualiteit rechtstreeks via betrouwbare bronnen te volgen.











