Europa wil onze chats scannen op kinderporno: gevaar voor privacy?
Dat voorstel was er al in oktober vorig jaar, maar de kans lijkt groot dat het voorstel ook goedgekeurd zal worden. In dat geval zullen grote chatplatformen, zoals WhatsApp en Messenger van Meta, Signal en Telegram de tekst en foto’s die we naar elkaar versturen verplicht controleren op kinderporno. Experts waarschuwen voor een hellend vlak, met name dat die technologie later ook gebruikt kan worden voor andere doeleinden en het ‘surveilleren’ van burgers. Denk daarbij aan het voorbeeld van ANPR-camera’s. Die werden in eerste instantie ingevoerd om terreurverdachten op te sporen, maar controleren intussen ook op gsm-gebruik achter het stuur.
Technologisch neutraal
De krant De Morgen sprak met KULeuven-professor Bart Preneel, gespecialiseerd in computerbeveiliging en industriële cryptografie. “Het probleem is dat die wetgeving technologisch neutraal is. Europa zegt dus niet hoe de berichtendiensten dat precies moeten doen. Met de huidige technologie is dat onhaalbaar. Dat zou alleen kunnen door de encryptie te handhaven en in de toestellen zelf te gaan kijken”, stelt hij in het interview.
Gevaar voor privacy
Preneel wijst op het risico voor onze privacy. Zo stelt hij dat de grote bedrijven achter de berichtendiensten zomaar toegang krijgen tot alle berichten en afbeeldingen die je naar vrienden en familie verstuurt. Een bijkomend risico is dat die persoonlijke info zomaar in handen zou kunnen komen van hackers of schurkenstaten.
Tot slot zou er (net zoals bij het voorbeeld van de ANPR-camera’s) een groot risico zijn dat het voorstel uitgebreid wordt naar andere misdrijven. “We hebben vanuit de wetenschappelijke wereld dan ook een open brief gestuurd naar de Commissie die wijst op de verschillende gevaren en de moeilijkheden. Die is intussen door meer dan 400 wetenschappers uit 38 verschillende landen ondertekend. Ik hoop dat Europa inziet dat het voorstel te ver gaat”, besluit Preneel in De Morgen.
Controles door AI
Experts reageren voorzichtig positief op de mededeling dat er ook artificiële intelligentie ingezet zal worden om kindermisbruik op te sporen. Maar, ook dat zal (zeker in de beginfase) voor veel vals-positieve resultaten zorgen. Wie dan bijvoorbeeld een zwembadfoto van zijn kinderen wil delen met de grootouders, kan zo mogelijk in de problemen komen met zijn berichtenservice of cloudprovider. Hoe accuraat zo’n algoritme getraind kan worden, zal nog moeten blijken.