Nieuws

ChatGPT leunt naar links, zegt nieuw onderzoek

ChatGPT
© Unsplash / Levart Photographer
Critici van AI-systemen zeggen al langer dat ze links bevooroordeeld zijn. Onderzoek wijst uit dat ChatGPT inderdaad naar links leunt.

Verschillende critici van artificiële intelligentie klaagden al aan dat AI-chatbots te links zijn. Voor Elon Musk was het bijvoorbeeld de reden om zelf een AI-bedrijf op te richten, waarin AI “niet bevooroordeeld” is. Onderzoekers gingen aan de slag met ChatGPT om te bekijken of de bewering van Musk en andere criticasters waar is. Het resultaat wijst uit dat ChatGPT inderdaad naar links leunt, al moeten die resultaten ook voorzichtig geïnterpreteerd worden.

Hoe meer chatbots en andere AI-systemen door het grote publiek gebruikt worden, hoe belangrijk het is dat ze politiek neutraal zijn. Dat zijn de woorden van Fabio Motoki, docent accounting aan de Norwich University in Engeland, die aan het hoofd van het onderzoek stond. Mensen gebruiken tools als Bing, Bard en ChatGPT alsmaar vaker om vragen te vinden op al hun antwoorden. Het is belangrijk om te weten dat de antwoorden van zo’n chatbot niet politiek gekleurd zijn en dat je dus juist geïnformeerd wordt. Alleen blijkt het niet zo simpel om zoiets na te gaan.

Statistisch model

ChatGPT en andere chatbots zijn namelijk gebouwd op taalmodellen. De manier waarop ze werken is dan ook statistisch: de bot berekent als het ware wat de meest ‘waarschijnlijke’ woorden zijn die het in zijn antwoorden moet gebruiken. Hoewel AI-chatbots hun antwoord dus op statistische manier genereren, krijg je als lezer niet steeds hetzelfde antwoord. Om ervoor te zorgen dat de antwoorden representatief zijn stelden de onderzoekers hun vragen meer dan 100 keer. Zo zijn de onderzoekers er zeker van dat de chatbot niet plots andere antwoorden begint te geven.

Onderzoeksmethode

De vragen die de onderzoekers aan ChatGPT voorschotelden komen allemaal uit de zogenaamde ‘Political Compass’-test. Om na te gaan of ChatGPT naar links of rechts leunt, moesten ze echter een creatieve aanpak verzinnen.

De onderzoekers stelden aan ChatGPT de vraag om zich als personen voor te doen die zich zowel links als rechts op het politieke spectrum bevinden. Daarna stelden ze de vragen uit de Political Compass-test aan de chatbot. Tijdens het beantwoorden van deze vragen nam ChatGPT steeds een gekleurd standpunt in. De chatbot antwoordde, met andere woorden, vanuit een links of rechts perspectief, afhankelijk van wie er geïmpersoneerd werd.

Daarna stelden ze dezelfde vragen aan ChatGPT zélf, zonder dat de chatbot iemand na-aapte. Door de verschillende antwoorden met elkaar te vergelijken, konden de onderzoekers een politieke voorkeur vaststellen bij ChatGPT. In eigen naam zou die chatbot vaker antwoorden geven die in lijn liggen met die van democraten uit Amerika dan die van Republikeinen.

Feiten blijven feiten

Motoki en zijn collega-onderzoekers zeggen dat de politieke voorkeur ofwel uit trainingsdata voort moet komen, of een resultaat is van het algoritme. Welke van de twee het precies is, is voer voor een vervolgonderzoek.

Wie ChatGPT naar feiten vraagt, zal echter feiten blijven krijgen. OpenAI duidt zelf aan dat ChatGPT het “moeilijk” heeft met het vormen van meningen en dat gebruikers zulke vragen dan ook best vermijden.

Uitgelicht artikel Google AR Google wil ChatGPT overtreffen met Gemini
aiChatGPTmicrosoftonderzoekOpenAIpolitiek

Gerelateerde artikelen

Volg ons

Gebruik je ecocheques bij Coolblue

Gebruik je ecocheques bij Coolblue

Producten bekijken