Europees Parlement omarmt AI-wetgeving
AI-applicaties zijn de laatste jaren als paddenstoelen uit de grond geschoten. Bij de introductie van zulke diensten stonden wetgevers aan de zijlijn. Niemand had precies voor ogen wat wel en niet mag. Dat leidde in diverse Europese landen tot verontwaardiging tegen AI-ontwikkelaars. OpenAI kreeg in Italië bijvoorbeeld te maken met een officieel verbod. In januari kreeg het zelfs nog een rechtszaak aan zijn broek: de AI-gigant zou de Europese GDPR-wetgeving overtreden. De Europese AI Act beoogt nu duidelijke kaders te geven voor de ontwikkeling van AI-diensten.
Een belangrijk aspect van de AI Act zijn de regels over gezichtsherkenning. De wetgeving verbiedt bedrijven nadrukkelijk om gezichtsherkenningsdatabases te ontwikkelen op basis van data afkomstig van andere, openbare platformen of beveiligingscamera’s. Deze systemen mogen ook niet gebaseerd worden op gevoelige kenmerken. Het wetsvoorstel verbiedt ook het gebruik van emotie-herkenning op de werkvloer en op scholen. Ontwikkelaars mogen verder geen AI-apps ontwikkelen die sociale scores, voorspellend politiewerk en manipulatie van menselijk gedrag mogelijk maken.
Uitzonderingen voor handhaving
In principe mogen politiediensten ook geen gebruikmaken van biometrische identificatiesystemen, zo meldt het Europees Parlement. Enkel in “uitputtend opgesomde en nauwgedefinieerde situaties” zal de wetgeving het gebruik van de AI-diensten toestaan. Voor handhavingsinstanties die real-time RBI-scans willen uitvoeren, geldt dat ze gerechtelijke of administratieve toestemming nodig hebben. Ook dienen ze het gebruik nauwkeurig te beschrijven, en geldt er steeds een maximumduur.
Naderhand beelden scannen met biometrische identificatiesoftware wordt ook verboden onder de AI Act. Tenminste, het gebruik zonder gerechtelijke toestemming is niet toegestaan en wordt gezien als “een gebruiksscenario met een hoog risico”.
Risicovolle AI-systemen
De AI Act biedt ook kaders voor ‘risicovolle systemen’. Zulke AI-systemen kunnen potentieel schade aanrichten aan “de gezondheid, de veiligheid, de grondrechten, het milieu, de democratie en de rechtsstaat”, aldus het EP. Het gaat dan om het gebruik van AI voor kritieke infrastructuur, onderwijs en essentiële particuliere en publieke diensten. Dergelijke systemen moeten onder de AI Act risico’s kunnen inschatten, logboeken aanleggen en transparant en accuraat zijn. Ook moet men bij zulke AI-systemen zorgen voor menselijk toezicht. Het is dus niet de bedoeling dat de AI constant zelfstandig te werk gaat.
Deepfakes en gemanipuleerde content
Diensten die deepfakes of andersoortige gemanipuleerde content maken, moeten dit ook steeds als zodanig bestempelen. Een uitleg op het einde van de video, zoals de cd&v vorig jaar heeft gedaan, zou daarbij niet voldoende zijn.