Nieuws

Microsoft excuseert zich voor racistische zelflerende chatbot

Microsoft excuseert zich voor de beledigende praatjes van zijn AI-chatbot Tay en onderzoekt hoe het deze problemen in de toekomst moet aanpakken.

Microsoft publiceerde dit weekend een officiële verontschuldiging voor zijn zelflerende Twitter-chatbot Tay. Die werd vorige week donderdag na amper 24 uur alweer offline gehaald, omdat ze racistische en beledigende tweets begon te versturen.

“We verontschuldigen ons voor onbedoelde beledigende of kwetsende tweets van Tay. Deze zijn geen representatie van wie wij zijn of waar we voor staan, en ook niet van hoe we Tay hebben ontworpen”, schrijf Peter Lee, vice-president Microsoft Research, in een blogpost.

Lee stelt dat Tay tijdens de ontwikkeling aan heel wat verschillende situaties werd blootgesteld en filters kreeg opgelegd, om interactie met de chatbot zo aangenaam mogelijk te maken. “Helaas werd in de eerste 24 uur nadat Tay offline verscheen een gecoördineerde aanval uitgevoerd door een kleine groep gebruikers om een kwetsbaarheid in Tay te misbruiken”, zegt Lee.

Hoewel Lee er niet dieper op ingaat, lijkt het probleem erin te bestaan dat Tay als een papegaai kopieert wat je naar haar tweet wanneer je een bericht begint met “repeat after me”. Veel van de meest beledigende opmerkingen werden op deze manier gegenereerd, maar leken uiteindelijk ook het hele systeem aan te tasten, waardoor andere tweets van Tay werden beïnvloed.

Microsoft haalde de chatbot daarom offline en onderzoekt nu hoe het Tay kan verbeteren om de ervaring opnieuw in een positieve richting te duwen. “We staan voor moeilijke – maar ook boeiende – onderzoeksuitdagingen. AI-systemen bouwen verder op zowel positieve als negatieve interacties met mensen. In dat opzicht zijn de uitdagingen net zoveel sociaal als dat ze technisch zijn,” besluit Lee.

 

 

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business