Nieuws

Google maakt Gemini minder ‘woke’ na klachten

Google Gemini, OpenAI ChatGPT en Microsoft Copilot app icoontjes
© iStock / Robert Way
Volgens veel gebruikers is de Gemini, de chatbot van Google, net iets te 'woke' en vergat hij zijn geschiedenislessen te studeren.

Google wist de afgelopen weken aandacht te vergaren met de vernieuwing van de Bard-chatbot naar Gemini. Inmiddels is het internet ook met de beeldengenerator van Google aan de slag gegaan. Daar zit een klein probleempje in: veel gebruikers halen aan dat de chatbot te ‘woke’ is.

Wie een Google One AI Premium-abonnement heeft, krijgt toegang tot Googles meer geavanceerde Gemini 1.5-model. Die chatbot biedt, in tegenstelling tot de gratis versie, de mogelijkheid om beelden te generen met behulp van het AI-systeem. Heel wat gebruikers klagen echter dat de resultaten te wensen overlaten.

Gemini en diversiteit

Gemini zet stevig in op diversiteit. Wie aan de chatbot vraagt om een afbeelding te genereren van een inwoner van Londen anno 2024, zal een divers antwoord krijgen van Gemini. De chatbot haalt duidelijk aan dat Londen een enorm diverse stad is en laat dat ook zien in zijn antwoord. Op zich is dat een positieve ontwikkeling: AI-systemen kunnen namelijk bestaande (on)evenwichten uitvergroten. Toch is niet iedereen blij mee met die diversiteit. Een ex-Google-medewerker haalt op het sociale medium X aan dat het “beschamend moeilijk is om Gemini toe te laten geven dat witte mensen bestaan”.

Google zorgt ervoor dat de chatbot diversiteit in het achterhoofd houdt, zodat het AI-systeem een getrouwe weergave van de realiteit kan bieden. Alleen lijkt de slinger net iets te hard door te slaan, vooral in historische contexten. Is Londen anno 2024 een enorm diverse stad, dan was dat in het jaar 1880 nog veel minder het geval. Wie aan de chatbot vraagt om bewoners van Londen te laten zien, maar dan 140 jaar geleden, krijgt toch eenzelfde diverse groep te zien. Wanneer Engadget de chatbot vroeg om de verschillende pausen te laten zien, genereerde het AI-systeem eveneens een aantal mensen met uiteenlopende etniciteiten.

Overcorrectie

Wellicht is dit een geval van overcorrectie: chatbots en andere AI-systemen kunnen al eens racistisch en/of seksistisch uit de hoek komen. De reden daarvoor is simpel: als dat gedrag in de trainingsdata zit, kan het nadien altijd weer naar boven komen. Heel wat gebruikers menen dat Googles chatbot te ‘woke’ is dankzij die overcorrectie.

Jack Krawczyk, die de leiding heeft over Gemini, laat via X weten dat het probleem gekend is. Hij geeft mee dat Google de representatie van minderheden en vooringenomenheid van het AI-systeem serieus neemt en hier dus aan probeert te werken. De productleider laat meteen weten dat Gemini diverse antwoorden zal geven wanneer dat objectief kan: een afbeelding van “iemand die zijn hond uitlaat” zal diverser zijn dan een afbeelding van een historische context. Google werkt hier nu aan en stelt de Gemini-beeldengenerator beter af, zodat hij ook in historische context de realiteit beter kan benaderen.

Uitgelicht artikel OpenAI Sora OpenAI kan nu ook bewegende video’s genereren met Sora

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business