Achtergrond

Deepfakes: gevaarlijk of onschuldig?

Deepfakes wat is een deepfake? gevaarlijk
Filmpjes van je favoriete celebrities die de gekste dingen zeggen of dansen op de beat van K3. Alles is mogelijk in de wereld van deepfakes. Maar wat is een deepfake, en hoe onschuldig is deze technologie?

Sinds enkele jaren kan je er niet meer omheen: deepfakes. Je hebt vast wel eens video’s gezien van de Amerikaanse oud-president Donald Trump die in Toddlers & Tiaras speelt, Morgan Freeman die het script van de Bee Movie voorleest, of Marc Zuckerberg die toegeeft dat Facebook de persoonlijke gegevens van zijn gebruikers verzamelt om je elke stap te voorspellen. Natuurlijk hebben zij dit nooit gezegd, hoewel dat van Facebook wel realistisch klinkt. De technologie gaat veel verder dan wat Adobe Photoshop of andere beeldbewerkingsprogramma’s voor elkaar kan krijgen, en het is verbazingwekkend simpel om te maken.

Wat is een deepfake?

De betekenis van deepfake zit hem in de naam. Fake verwijst naar het eindproduct dat je gaat maken, want hoe realistisch iets er ook uitziet: het is nep. Deep verwijst naar het proces voor het maken van deepfakes, deep learning,  Dit is een vorm van kunstmatige intelligentie die met behulp van neurale netwerken een mens of humanoïde probeert na te bootsen. Met een deepfake leert de computer zelf wat een mens een mens maakt. Stel, je wil een deepfake maken van een bekende acteur die je feliciteert met je verjaardag.

Het idee erachter is dat je duizenden tot miljoenen foto’s van die acteur door een AI-algoritme laat lopen, de zogenaamde encoder. Eerst moet je natuurlijk een origineel filmpje vinden van iemand die je een fijne verjaardag wenst. De encoder vindt en leert de overeenkomsten tussen de twee gezichten en herleidt ze tot hun gedeelde kenmerken, waarna deze beelden gecomprimeerd worden. Een tweede AI-algoritme, de decoder, wordt getraind om de gezichten uit de gecomprimeerde data te halen. Als je dan de twee personen op de beelden wilt verwisselen, voer je het gecomprimeerde beeld van persoon A in op de decoder die getraind is op persoon B. De AI gebruikt dan de uitdrukkingen en het gelaat van persoon A en past die toe op persoon B. En in een filmpje moet je dit dus bij elke frame doen. Dit klinkt erg moeilijk, maar het valt best wel mee. Het duurt alleen erg lang. Computers moeten uren of soms zelfs dagen draaien voordat je beelden krijgt die er ook maar een beetje realistisch uitzien. Elke keer als de computer ernaast zit, en een mens geen mens is, worden de parameters aangepast totdat je een goed eindresultaat krijgt.

Deepfakes
Wat is een deepfake

Gevaarlijk

Zoals je je misschien al kan voorstellen, kunnen deepfakes akelige gevolgen hebben in de echte wereld. Toen deepfakes in 2019 populair begonnen te worden, waren de resultaten vaak al verbluffend, maar toch makkelijk herkenbaar als nep. Tegenwoordig is het verrassend moeilijk om deepfakes te onderscheiden van echte video’s en dat is op zijn zachtst gezegd problematisch. Deepfakes kunnen gemakkelijk gebruikt worden om nepinformatie te verspreiden over het internet. Ook al is het bestaan van deepfakes geen geheim meer, de kans is groot dat Jan met de pet er geen benul van heeft dat de video die hij op Facebook ziet volledig nep zou kunnen zijn. De meeste mensen zijn niet op elk moment van de dag alert op de mogelijkheid dat ze voor de gek gehouden worden, en daarin schuilt dus meteen het gevaar van deepfakes.

De grootste bron van deepfakes, en wellicht ook de akeligste vorm van het op grote schaal produceren van deepfakes zit hem in porno, of wraakporno om precies te zijn. We zullen geen namen noemen, maar je bent maar een simpele Google-search verwijderd van een gigantische catalogus aan deepfakeporno van actrices, zangeressen en eigenlijk iedereen die je maar kan bedenken. Sommige video’s lijken zo echt dat je bijna begint te twijfelen of je geen gelekte beelden aan het bekijken bent. Er zit een hele industrie achter met deepfakers die bakken geld verdienen met het creëren van nepporno. Porno-deepfakes zijn in feite niets meer dan een georganiseerde aanval op (de privacy van) vrouwen. Deepfakes maken van bekende mensen is makkelijker, omdat er zoveel beelden beschikbaar zijn online. Denk aan films, series, interviews, paparazzifoto’s: alles wat je kan vinden, wordt gebruikt om een visuele deepfake te maken die bijna sprekend lijkt op de persoon waarop die toegepast wordt. Maar de technologie vordert aan zo’n hoog tempo dat het nu al mogelijk is om met een fractie van de duizenden tot miljoenen foto’s die eerst nodig waren, deepfakes te maken.

Om nog een slechter beeld te schetsen: er zijn algoritmes die ook audio-deepfakes kunnen maken. Dat is dus een volledig computergemaakte stem op basis van de stem van een echte persoon, en in de toekomst kunnen deepfakes en audio-deepfakes gecombineerd worden om iemand iets te laten zeggen met het juiste gezicht en de juiste stem, zonder dat die persoon hiervan op de hoogte is. En wij dachten dat het ‘gewone’ fake news al erg was…

Deepfakes in mainstreammedia

Er zijn echter genoeg toepassingen waarvoor deepfakes een positieve toevoeging kunnen zijn. Het volgende voorbeeld bevat wellicht de bekendste implementatie van een deepfake in de wereld van film en televisie, maar het bevat wel spoilers voor seizoen 1 van The Mandalorian.

Tijdens de seizoensfinale worden Mando en Baby Yoda gered door de jonge jedi Luke Skywalker, oorspronkelijk gespeeld door Mark Hamill. De serie speelt zich af na Return of The Jedi uit 1983, en aangezien Mark Hamill ondertussen een stukje ouder is, moesten er visuele effecten aan te pas komen om hem zo echt mogelijk te laten lijken. Volgens de makers van de serie gebruikten ze een mix van ‘reguliere’ visual effects en een deepfake-protocol om een zo realistisch mogelijke jonge versie te creëren van Luke Skywalker. Niet alle fans van de serie waren overtuigd, waaronder de YouTuber Shamook.

Hij maakte een eigen deepfake van de scène in slechts vier dagen, met als basis oude beelden van Mark Hamill zelf. Shamook was er zelf niet eens zo tevreden over, maar de video heeft inmiddels meer dan drie miljoen views verzameld. De legendarische VFX-studio Industrial Light and Magic (bekend voor o.a. Star Wars, Jurassic Park en de Pirates of the Caribbean-serie) was echter zo onder de indruk dat Shamook werd aangenomen als senior facial capture artist bij LucasFilm / ILM. Tot nu toe zijn deepfakes vooral op een ludieke manier gebruikt om dingen op video te zetten die in het echt niet mogelijk zijn. Denk bijvoorbeeld aan Tom Cruise die leuke filmpjes opneemt voor TikTok, of Mel Gibson die zijn carrière-makende rol als Mad Max (1979) dunnetjes overdoet in Mad Max: Fury Road (2015), in plaats van de eigenlijke acteur Tom Hardy. Maar de software die centraal staat bij het maken van deepfakes kan ook gebruikt worden om oude video- en geluidsfragmenten te remasteren.

Dit is precies wat de regisseur Peter Jackson heeft gedaan bij het maken van de documentaire The Beatles: Get Back, waarvoor hij oude studiobeelden door een computeralgoritme heeft gegooid. Met behulp van machine learning herkende de AI, na heel wat dagen trainen, individuele stemmen en zelfs instrumenten. Hierdoor kon het team achter de documentaire de nummers die oorspronkelijk in 1969 waren opgenomen opnieuw mixen, met een verbluffend resultaat. Het algoritme veranderde ook de opgenomen beelden. De video kreeg heldere, levendige kleuren en het leek alsof de beelden recent waren opgenomen, en niet vijftig jaar geleden.

In The Mandalorian hebben filmmakers geprobeerd om een jonge Luke Skywalker te creëren op basis van deepfakes.

Wat houdt de toekomst in?

De wereld van deepfakes zal in de toekomst alleen maar groter worden. Het voordeel is dat de AI die deepfakes mogelijk maakt ook gebruik wordt om deepfakes tegen te gaan. Er zijn AI-tools die nepvideo’s herkennen, maar het zal een wapenwedloop worden tussen mensen die deepfakes gebruiken voor twijfelachtige doeleinden en mensen die deepfakes gebruiken voor goede bedoelingen. Hoe dan ook: het wordt belangrijk dat we allemaal leren hoe we een deepfake kunnen herkennen. En als we eenmaal aangekomen zijn op een punt dat het onmogelijk is om echte van neppe beelden te onderscheiden, dan zijn we wel weer een paar jaar verder.

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business