Nieuws

Apple schrapte detectietool voor kindermisbruik om privacy- en veiligheidszorgen

Apple
© Unsplash / Zhiyue
Apple werkte aan een tool om kindermisbruik vroegtijdig op te sporen, maar stopte ermee wegens privacy- en veiligheidszorgen.

Apple kondigde in 2021 een tool aan die de verspreiding van beelden van kindermisbruik moest bemoeilijken. Het idee was om de volledige iCloud-bibliotheek van gebruikers te laten scannen door een tool die zulke beelden kan herkennen. Apple koos er echter voor om de ontwikkeling van de kindermisbruikdetectietool stop te zetten, uit vrees voor misbruik door hackers en overheden.

Aanvankelijk gaf Apple niet veel uitleg over waarom het de detectietool precies schrapte. Die uitleg krijgen we nu wel te zien in een brief aan Heat Initiative, die door WIRED online werd gedeeld. Uit de brief blijkt vooral dat Apple vreesde dat zo’n detectietool voor onbedoelde doeleinden kan worden ingezet.

Risico’s voor privacy en veiligheid

Een tool die je volledige iCloud-fotobibliotheek afschuimt en alle beeldmateriaal analyseert, is natuurlijk bijzonder krachtig. Zoals Apple de functie voor ogen had, zou die vooral moeten dienen om beelden van kindermisbruik op te sporen. De technologiegigant vreesde echter dat bepaalde landen de technologie voor andere doeleinden zouden aanwenden. “Het scannen voor één contenttype, zet de deur open voor massasurveillance en de wens om ook in andere, versleutelde berichtsystemen rond te zoeken,” zegt Apple daarover in de brief. Technisch zou het omvormen van de tool niet zo moeilijk mogen zijn. Daardoor zou die ook ingesteld kunnen worden om boodschappen van religieuze en politieke aard te onderscheppen.

Bovendien hangen er ook risico’s aan zo’n detectiesysteem. Indien hackers toegang zouden krijgen tot het systeem, kunnen ze meteen meekijken in je iCloud-gegevens. Apple zou de tool weliswaar goed beveiligd hebben, maar het risico valt natuurlijk nooit uit te sluiten. Bovendien zijn scansystemen niet helemaal trefzeker: Ze kunnen valse positieven opleveren. Met andere woorden: gebruikers worden beticht beelden van kindermisbruik te bezitten, terwijl dat helemaal niet het geval is.

Daarom besloot Apple om af te zien van de client-serveraanpak, die zo’n tool hanteert: zo’n systeem maakt het “praktisch onmogelijk om de veiligheid en privacy van gebruikers te garanderen,” concludeert Erik Neuenschwander, directeur voor privacy en kinderveiligheid bij Apple.  

Meldingsplatform voor kindermisbruik

Heat Initiative vroeg verder aan Apple om dan toch een soort van meldingsplatform op te richten, waar gebruikers aangifte kunnen doen als ze een vermoeden hebben van kindermisbruik. Apple liet aan WIRED weten dat zo’n aanpak niet gauw gehanteerd zal worden. In plaats daarvan focust het technologiebedrijf op het in contact brengen van slachtoffers en bevoegde diensten.  

Heb je het vermoeden dat een kind mishandeld, verwaarloosd of misbruikt wordt, of ben je zelf slachtoffer? Dan kan je gratis en anoniem de hulplijn 1712 contacteren. Dat kan telefonisch (werkdagen tussen 9 en 18 uur), via mail (24/7) en chat (van maandag tot donderdag, tussen 13 en 17 uur, en tussen 18 en 22 uur).

Uitgelicht artikel privacy Europa wil onze chats scannen op kinderporno: gevaar voor privacy?
AppleBeveiligingicloudioskindermisbruikprivacysecurity

Gerelateerde artikelen

Volg ons

Gebruik je ecocheques bij Coolblue

Gebruik je ecocheques bij Coolblue

Producten bekijken