ChatGPT hallucineerde dat man zijn kinderen had vermoord

Hallucinaties blijven een van de grootste problemen van AI-chatbots. Een hallucinatie houdt in dat er feitelijk onjuiste informatie wordt geproduceerd. Vaak wordt die informatie echter geloofwaardig als feit gebracht en omdat mensen soms te blind vertrouwen op de kracht van AI, worden die leugens zonder veel bedenkingen geloofd. Soms gaat het om gekke, onschuldige en zelfs grappige hallucinaties, maar in geval van bijvoorbeeld medisch advies kunnen ze dodelijke gevolgen hebben.
In Oostenrijk is nu voor de tweede keer door een advocatenkantoor genaamd Noyb een klacht ingediend tegen OpenAI omwille van een hallucinatie. Daarbij zei ChapGPT onterecht dat een man genaamd Arve Hjalmar Holmen, die de chatbot vroeg naar informatie over zichzelf, een moordenaar was die twee van zijn kinderen had vermoord en geprobeerd had ook zijn derde kind te doden. Daarvoor zou hij een celstraf van 21 jaar hebben gekregen. De hallucinatie van ChatGPT bevatte naast de foutieve informatie ook correcte, zoals het aantal kinderen van de man en de naam van zijn thuisstad.
ChatGPT in strijd met privacywetgeving
Net als bij de eerste klacht van Noyb, die ging over een foutieve geboortedatum van een publiek figuur, beroept het advocatenkantoor zich ook nu op GDPR, de Europese privacywetgeving die Europese burgers meer controle en inspraak geeft over wat bedrijven doen met hun persoonlijke gegevens.
Volgens Noyb is de hallucinatie van ChatGPT een duidelijke schending van de privacywetgeving, die stelt dat bedrijven ervoor moeten zorgen dat persoonlijke data die ze over iemand hebben en delen correct is. Dat zou dan ook gelden voor een AI-chatbot, waarbij het volgens Noyb niet volstaat om een korte disclaimer te voorzien waarin staat dat geproduceerde informatie mogelijk onjuist is. Zeker wanneer het over echte personen gaat, zou er immers extra over gewaakt moeten worden dat de informatie correct is.