Ouders klagen OpenAI aan na zelfdoding 16-jarige zoon

De Amerikaanse krant The New York Times schrijft dat het de eerste rechtszaak is waarin OpenAI als maker van ChatGPT aansprakelijk wordt gesteld voor een overlijden. De jonge Adam had maandenlang gesprekken gevoerd met ChatGPT over zijn plannen om een einde aan zijn leven te maken. Hoewel de chatbot in veel gevallen aanraadde om professionele hulp te zoeken of een hulplijn te bellen, wist de jongen die beveiligingen te omzeilen. Door te zeggen dat zijn vragen bedoeld waren voor een fictief verhaal, kreeg hij alsnog informatie die hem hielp zijn plannen verder uit te werken.
Beveiliging niet waterdicht
AI-chatbots zoals ChatGPT zijn voorzien van veiligheidsmechanismen die moeten ingrijpen bij gevoelige onderwerpen, zoals zelfdoding of geweld. Onderzoek toont echter aan dat deze systemen verre van waterdicht zijn. OpenAI erkent dat ook: in een blogpost schrijft het bedrijf dat de ingebouwde beveiliging beter werkt in korte gesprekken, maar dat de effectiviteit kan afnemen naarmate de gesprekken langer en complexer worden.
“Wij voelen een diepe verantwoordelijkheid om mensen te helpen die dit het meest nodig hebben”, aldus OpenAI. Het bedrijf zegt voortdurend te werken aan verbeteringen, maar benadrukt dat de huidige technologie dus op zijn grenzen botst voor het opvangen van dergelijke problemen.
Breder probleem in de sector
OpenAI staat niet alleen in deze kwestie. Ook Character.AI wordt aangeklaagd door de ouders van een tiener die zichzelf van het leven beroofde na gesprekken met een chatbot. Daarnaast zijn er gevallen bekend waarin langdurig gebruik van AI-modellen leidde tot wanen of obsessieve gedachten, zonder dat de ingebouwde veiligheidsfilters dat konden opmerken.
De zaak van Adam Raine werpt daardoor bredere vragen op: hoe ver reikt de verantwoordelijkheid van AI-bedrijven, en hoe kunnen zij hun technologie beveiligen tegen misbruik in uiterst kwetsbare situaties?












