Nieuws

Privacyklacht tegen ChatGPT wegens verkeerde geboortedatum

ChatGPT
© iStock / Robert Way
AI-systemen zoals ChatGPT verzinnen soms feiten. Die hallucinaties vormen echter een serieus privacyprobleem.

Privacyorganisatie ‘Not your business’, beter gekend als noyb, daagt OpenAI voor de rechtbank. De non-profitorganisatie klaagt het AI-bedrijf aan omwille van privacyproblemen met ChatGPT. Dat doet het niet volledig uit eigen beweging: de privacyorganisatie vertegenwoordigt “een publiek persoon” waarvan de identiteit niet gekend is.

Hallucineren

Concreet klaagt noyb de hallucinaties van ChatGPT aan. Meeste chatbots, waaronder die van OpenAI, hebben dat probleem. De AI-systemen proberen namelijk op alle vragen een antwoord te geven, maar dat antwoord strookt niet altijd met de realiteit. Wanneer dat het geval is, spreken we over hallucinaties. Het probleem wordt erger gemaakt doordat de chatbots steeds zeker van hun stuk lijken. Het antwoord kan dan verkeerd zijn, de chatbot zal het presenteren alsof het de waarheid is.

Het gaat privacyorganisatie noyb niet om willekeurige feitjes, maar om persoonsgegevens. De organisatie vertegenwoordigt een publiek persoon die wat persoonsgegevens opvroeg via de chatbot van OpenAI. Wanneer het op de geboortedatum van die persoon ging, ging ChatGPT de mist in. Het AI-systeem noemde een verkeerde datum, wat indruist tegen de bepalingen van de GDPR.

GDPR

Volgens de GDPR moeten individuen namelijk kunnen beschikken over de informatie die over hen online staat. Bij dat beschikkingsrecht hoort ook het recht om foutieve informatie te corrigeren. Net daar zit het probleem volgens noyb. Op een aanvraag tot rechtzetting zou OpenAI geantwoord hebben dat zoiets “technisch onmogelijk” is. Het zou voor het bedrijf onmogelijk zijn om die foutieve informatie aan te passen. Dat staat ook in de privacyovereenkomst met het bedrijf te lezen: iedereen die foutieve informatie over zich terugvindt, mag een aanvraag indienen om die info te verbeteren. “Dankzij de technische complexiteit van onze modellen, zullen we de inaccuraatheid niet in alle gevallen kunnen rechtzetten”, laat de overeenkomst verder lezen.

In het geval dat het AI-bedrijf de fouten niet kan rechtzetten, kan het wel een extra filter op ChatGPT plaatsen. Personen kunnen dan vragen om een blokkade op ChatGPT te zeggen: wanneer hun naam voorkomt, weigert de chatbot dan dienst. Alleen, zo haalt noyb aan, is dit niet in overeenstemming met de GDPR. Gebruikers moeten het recht hebben om rechtzettingen te vragen én hun informatie te laten verwijderen. Dat OpenAI hen laat kiezen tussen één van de twee opties, is dus niet in overeenstemming met de GDPR.

De zaak ligt momenteel bij de Oostenrijkse privacywaakhond, al is het waarschijnlijk dat de Europese toezichthouder zich in de zaak mengt. Volgens Maartje de Graaf, advocaat voor gegevensbescherming bij noyb, is de zaak in ieder geval duidelijk: “als een systeem geen accurate en transparante resultaten kan produceren, mag het niet gebruikt worden om informatie over individuen te genereren”. Of toezichthouders daar op dezelfde manier naar kijken, moet de komende maanden blijken.  

aiAI-chatbotgdprnoybOpenAIprivacy

Gerelateerde artikelen

Volg ons

Gebruik je ecocheques bij Coolblue

Gebruik je ecocheques bij Coolblue

Producten bekijken