Nieuws

DeepMind wil AI ervan weerhouden zich te misdragen

Onderzoekers aan het lab van DeepMind leggen uit hoe ze ervoor zullen zorgen dat AI op een veilige manier wordt ontwikkeld.

 

De richtlijnen zorgen ervoor dat AI-systemen zich niet gaan misdragen. AI is namelijk zelflerend en kan op eigen houtje tot oplossingen komen. Dat zorgt voor enige (terechte) argwaan. De onderzoekers stellen dat de belangrijkste uitdaging ligt in het specifiëren van ongewenst gedrag van de AI. Daarbij moeten er ook veiligheidsmaatregelen in AI worden ingebouwd, voor het geval die een bepaald type gedrag beginnen vertonen.

 

Het uitschakelen van ongewenst gedrag bij een AI is een domein waar de academische wereld de laatste tijd steeds meer interesse in toont. Daarom programmeert het veiligheidsteam van DeepMind nu in hun AI-systemen een veiligheidsmechanisme waarbij de AI onmiddellijk wordt uitgeschakeld wanneer die riskant gedrag begint te vertonen.

 

We hoeven ons echter niet te zeer zorgen te maken over AI-systemen die autonoom beginnen te handelen. Op AI-vlak hebben we nog wel andere katjes te geselen. Zo zijn veel AI-algoritmen die op grote schaal worden toegepast erg vooringenomen, wat de ongelijkheid in de maatschappij alleen nog maar versterkt.

 

aialphabetartificial intelligencebusinessdeepmind

Gerelateerde artikelen

Volg ons

Gebruik je ecocheques bij Coolblue

Gebruik je ecocheques bij Coolblue

Producten bekijken