Noyb wil AI-gebruik Meta aan banden laten leggen
Meta kondigde onlangs aan dat het persoonsgegevens voor AI-training zou gaan gebruiken op basis van ‘legitieme belangen’. Wie dat niet wil, kan zijn persoonlijke data laten verwijderen uit de systemen van Meta. Dit voorkomt wel niet dat persoonlijke gegevens, zoals afbeeldingen, al permanent in de trainingsdata van eerdere AI-modellen zitten.
Noyb uit bezorgdheid
Privacyorganisatie Noyb vindt het zorgwekkend genoeg om actie te ondernemen. De groep meldt dat het klachten heeft ingediend bij 11 Europese gegevensbeschermingsautoriteiten (DPA’s), waaronder de Autoriteit Persoonsgegevens. Er is haast bij, zegt Noyb, want het nieuwe Meta-beleid gaat al op 26 juni in. De organisatie vreest dat er zonder tussenkomst een situatie zal ontstaan waarin alle persoonlijke data die Meta sinds 2007 verzamelt, vrij beschikbaar wordt voor AI-ontwikkeling. Gebruikers waren tot voor kort grotendeels niet op de hoogte van de gevolgen van hun inclusie in AI-training.
Ook privacyactivist kritisch
Ook de Oostenrijkse privacyactivist en jurist Max Schrems is zeer kritisch over het nieuwe Meta-beleid. “Meta zegt in feite dat het alle gegevens uit elke bron voor elk doel kan gebruiken en beschikbaar kan maken voor iedereen ter wereld, zolang het maar via ‘AI-technologie’ gebeurt. Dit is duidelijk in strijd met de GDPR”, weet hij.
Volgens Schrems heeft AI een extreem breed en interpreteerbaar speelveld. “Net als het gebruik van je gegevens in databases heeft AI-technologie geen echte wettelijke limiet. Meta zegt niet waarvoor het de gegevens zal gebruiken, dus het kan een eenvoudige chatbot zijn, extreem agressieve gepersonaliseerde reclame of zelfs een killer drone. Meta zegt ook dat gebruikersgegevens doorgegeven kunnen worden aan elke derde partij”, klinkt het bezorgd.