Google gebruikt AI om naaktbeelden in berichten te detecteren

Eind vorig jaar al kondigde Google nieuwe maatregelen aan om Google Berichten veiliger te maken, niet in het minst voor jonge gebruikers. Een van die maatregelen, met name die in verband met het waarschuwen voor naaktbeelden, wordt nu geleidelijk uitgerold.
AI censureert naaktbeelden
Concreet gaat het om een AI-systeem dat naaktbeelden in Google Berichten kan detecteren en vervagen zodat ze niet meteen zichtbaar zijn. Er wordt meteen ook een waarschuwing getoond en de optie om de afzender te blokkeren, samen met een link naar informatie over waarom naaktbeelden schadelijk kunnen zijn.
Daarna krijgt de gebruikers de vraag of ze het beeld alsnog willen bekijken. Ook wanneer iemand een gevoelig beeld wil doorsturen, wordt eerst de vraag gesteld of ze dat wel echt willen. Ondanks de detectie en censuur blijft het dus wel mogelijk om, uiteindelijk en indien daar expliciet voor gekozen wordt, gevoelige beelden te bekijken en door te sturen.
Vooral voor jongeren
De nieuwe AI-functie is vooral bedoeld om jongeren beter te beschermen. De nieuwe contentwaarschuwing staat standaard ingeschakeld voor tieners met en zonder supervisie. Ouders kunnen de opties beheren via de Family Link-app, maar jongeren tussen 13 en 17 jaar zonder supervisie kunnen de optie zelf uitschakelen. Voor andere gebruikers staat de contentwaarschuwing standaard uit.
Geen beelden naar servers van Google
De nieuwe optie maakt deel uit van het SafetyCore-systeem van Google. Dat maakt het mogelijk voor AI-technologie om op het toestel zelf content te analyseren en te classificeren zonder dat privédata, geclassificeerde content of resultaten naar servers van Google gestuurd worden.