Apple kindermisbruik

Apples nieuwe functionaliteiten om foto's te scannen tegen kindermisbruik krijgen kritiek uit verschillende hoeken.

Advertentie

Vorige week heeft Apple verschillende nieuwe functionaliteiten gelanceerd waarmee het iOS en iPadOS wil gaan voorzien van tools om foto’s te gaan controleren op kindermisbruik. Apple doet dat door middel van hashes en foto’s in iCloud. Daarbij worden foto’s gescand door de software, op zoek naar illegale content.

Het klinkt als een mooi doel, maar het nieuwe systeem is niet vrij van kritiek. Verschillende experts zijn namelijk van mening dat het geen goed idee is om privé-bestanden op toestellen te gaan scannen op illegale content. Ook WhatsApp topman Will Cathcart heeft zich tegen de nieuwe functionaliteiten uitgesproken.

Apple tegen kindermisbruik

Volgens Carthcart is het nog nooit voorgekomen dat gebruikers een mandaat geven waarbij ze bevestigen dat de fabrikant privé-bestanden kan scannen om illegale content tegen bijvoorbeeld kindermisbruik tegen te gaan. Carthcart laat weten dat hij ook schrik heeft dat bepaalde landen misbruik gaan maken van het systeem.

Op Twitter schrijft hij bovendien dat Apple er meer werk van moet maken om illegale content te rapporteren, in de plaats van zelf content te gaan scannen. “Het is een inbreuk op de privacy en het gebruik van privébestanden in de vrije wereld.”

Apple is van plan om het nieuwe systeem in gebruik te nemen in de Verenigde Staten. Daarmee is duidelijk dat de functionaliteiten nog niet meteen naar Europa zullen komen. Bovendien is het ook onduidelijk hoe Apple dit systeem kan inbouwen met respect voor de Europese GDPR-wetgeving.


1 REACTIE

  1. Zij die kinderen misbruiken, gaan zeker geen toestemmingen aan deze tool verlenen en dat weet Apple ook. Er zullen ook snel tools ontwikkeld worden om dit tegen te gaan.
    M.a.w. is Apple enkel van plan om de doorsnee gebruiker te bespioneren en te bombarderen met gerichte reclame en spam.

LAAT EEN REACTIE ACHTER

Please enter your comment!
Please enter your name here