Microsoft spoort deepfakes op met nieuwe tool
Deepfakes zijn afbeeldingen of video’s waarbij beelden worden gecombineerd met behulp van artificiële intelligentie om zo nieuwe, valse beelden te creëren. Door het gebruik van deep learning is het moeilijk om te achterhalen of deze beelden authentiek zijn.
Video Authenticator
Om deze beoordeling te kunnen maken lanceert Microsoft nu Microsoft Video Authenticator. Deze toepassing kan een video of foto analyseren en een betrouwbaarheidsscore geven. Voor video’s kan deze score zelfs frame per frame worden toegekend. Dat doet het door te kijken naar de overgang tussen elementen van de echte en computer-gecreëerde beelden. Deze subtiele fouten zijn vaak niet zichtbaar voor het menselijk oog.
De nieuwe technologie is een onderdeel van Microsofts Defending Democracy Program dat bijdraagt aan de strijd tegen desinformatie en het beschermen van de democratie. Hiervoor werd een samenwerking opgesteld tussen Microsoft Research, Microsofts Responsible AI team en het AI, Ethics and Effects in Engineering and Research (AETHER) Committee.
Het gebruik van deepfakes kan vaak een entertainend doel dienen, zoals deze deepfaketool voor Zoom, maar meermaals werd al gewaarschuwd voor misbruik van de toepassing. Zo kunnen snel video’s gemaakt worden waarmee iemand woorden in de mond gelegd krijgt die hij of zij nooit heeft uitgesproken. Dat demonstreerde Jordan Peele in een video waarin hij Barack Obama imiteert. Wanneer dus niet duidelijk is of het hier gaat over origineel beeldmateriaal of deepfakes kan dit objectieve berichtgeving in de weg staan. Microsoft lanceert daarom zijn Video Authenticator in de aanloop van de Amerikaanse presidentsverkiezingen.
De Video Authenticator werd ontwikkeld aan de hand van de publieke dataset van FaceForensics++ en getest op de DeepFake Detection Challenge Dataset.
AI Foundation
Dat de technologie om deepfakes te creëren snel ontwikkelt weten ze bij Microsoft ook. Om te voorkomen dat deze ontwikkeling een boost krijgt door de Video Authenticator wordt deze niet vrij verspreid maar enkel aangeboden via de organisatie AI Foundation en zijn Reality Defender 2020 initiatief. Organisaties die bijdragen aan het democratische proces volgens Microsoft kunnen hier toegang verkrijgen.
Authenticiteitscertificaat
Om te kunnen oordelen of beeldmateriaal authentiek is introduceert Microsoft bovendien een tool ingebouwd in Azure om een certificaat of digitale vingerafdruk of hash toe te voegen aan een bestand in de metadata. Dit maakt het mogelijk om het bestand altijd terug te leiden naar de originele bron.