Wire

Globaal verkiezingsjaar 2024: zijn deepfakes een wapen voor massale misleiding?

© Eset
ake news domineert de krantenkoppen bij verkiezingen sinds de race naar het Witte Huis in 2016. Acht jaar later is het een nog grotere bedreiging: een combinatie van desinformatie en deepfakes die zelfs de experts voor de gek kunnen houden.

De kans is groot dat door AI gegenereerde inhoud met een verkiezingsthema – zoals een hele reeks afbeeldingen en video’s die in de aanloop naar de Argentijnse presidentsverkiezingen circuleerden en een vervalste audio van Joe Biden – voorbodes waren van wat er wellicht op grotere schaal zal gebeuren.

Met zo’n kwart van de wereldbevolking die in 2024 naar de stembus gaat, kan desinformatie en AI-aangedreven bedrog door kwaadwillende actoren gebruikt worden om de resultaten te beïnvloeden. Veel experts zijn bang dat de gevolgen van deepfakes mainstream worden.

De deepfake-desinformatie

Dit jaar gaan niet minder dan twee miljard mensen naar hun plaatselijke stembureau om op hun favoriete vertegenwoordigers en staatslui te stemmen. Daar belangrijke verkiezingen zullen plaatsvinden in o.a. de VS, Groot-Brittannië, India en ook voor het Europees Parlement, kan dit het politieke landschap en de richting van de geopolitiek de komende jaren en verder wijzigen.

Misinformatie en desinformatie zijn onlangs door het World Economic Forum (WEF) gerangschikt (ranked) als het grootste mondiale risico voor de komende twee jaar.

De challenge met deepfakes is dat de door AI aangedreven technologie nu goedkoop, toegankelijk en krachtig genoeg is om op grote schaal schade te berokkenen. Het democratiseert de mogelijkheden  van cybercriminelen, staatsactoren en hacktivisten om overtuigende desinformatiecampagnes en meer ad hoc, eenmalige oplichtingen uit te voeren. Dit is o.a. de reden waarom het WEF onlangs misinformatie/desinformatie rangschikte als het grootste mondiale risico van de komende twee jaar, na extreem weer. Dat zeggen 1.490 academici, het bedrijfsleven, de overheid, de internationale gemeenschap en het middenveld die door het WEF werden geraadpleegd.

Het rapport waarschuwt: 

“Synthetisch geproduceerde inhoud zal de komende twee jaar individuen manipuleren, economieën schaden en samenlevingen op talloze manieren splitsen… Het risico bestaat dat regeringen te traag zullen handelen en geconfronteerd worden met desinformatie en de nood aan het beschermen van de vrije meningsuiting.”

(Diep)faken

De uitdaging is dat tools zoals ChatGPT en vrij toegankelijke generatieve AI (GenAI) het voor een groter aantal individuen mogelijk maken om deel te nemen aan desinformatiecampagnes, aangedreven door deepfake-technologie. Kwaadwillende spelers hebben nu meer tijd om aan hun berichten te werken en hun inspanningen te versterken zodat hun nep-inhoud gezien en gehoord wordt.

In een verkiezingscontext kunnen deepfakes gebruikt worden om het vertrouwen van kiezers in een kandidaat te ondermijnen. Het is gemakkelijker iemand te overtuigen iets niet te doen dan andersom. Als aanhangers van een politieke partij of kandidaat op passende wijze kunnen worden beïnvloed door fake audio’s of video’s, kan dat een duidelijke overwinning opleveren voor rivalen. In bepaalde situaties kunnen schurkenstaten het vertrouwen in het hele democratische bestel ondermijnen, zodat zij die winnen het moeilijk krijgen om op legale wijze te besturen.

De kern van de uitdaging is heel eenvoudig: als mensen informatie verwerken, hebben ze de neiging om kwantiteit en eenvoud te waarderen. Dit betekent dat hoe meer inhoud we bekijken met een gelijkaardige boodschap en hoe gemakkelijker deze te begrijpen is, hoe groter de kans dat we erin geloven. Dit is de reden waarom marketingcampagnes vaak uit korte en steeds herhaalde berichten bestaan. Daarbij zijn deepfakes steeds moeilijker te onderscheiden van echte inhoud, en kunnen ze een recept zijn voor een mogelijke democratische ramp.

Van theorie tot praktijk

Deepfakes zullen wellicht een impact hebben op het kiezerssentiment. In januari 2024 werd in New Hampshire een deepfake-audio van Joe Biden via een robocall verspreid onder een onbekend aantal primaire kiezers. In het bericht zei hij dat ze niet moesten opdagen, maar “hun stem moesten bewaren voor de verkiezingen van november”. Het nummer van de beller was ook vervalst, zodat het leek alsof het bericht verzonden was vanaf het persoonlijke nummer van Kathy Sullivan, een voormalige voorzitter van de Democratische Partij die nu een pro-Biden super-PAC leidt.

Dergelijke oproepen kunnen gebruikt worden om kiezers ervan te weerhouden om vóór de presidentsverkiezingen in november op hun voorkeurskandidaat te stemmen. Dit is belangrijk bij verkiezingen met veel concurrentie, waar de verschuiving van een klein aantal kiezers van de ene partij naar de andere de uitslag bepaalt. Daar slechts tienduizenden kiezers in een handvol swing states wellicht het resultaat zullen bepalen, zou een gerichte campagne als deze onnoemelijke schade kunnen aanrichten. In het bovenstaande geval werd ze verspreid via robocalls in plaats van via sociale media, wat nog moeilijker is om de impact te volgen of te meten.

Wat kunnen technologiebedrijven doen? 

YouTube en Facebook zouden traag gereageerd hebben op enkele deepfakes die bedoeld waren om recente verkiezingen te beïnvloeden. Dit ondanks een nieuwe EU-wet ( Digital Services Act) die sociale-mediabedrijven verplicht om te reageren op pogingen tot verkiezingsmanipulatie.

OpenAI heeft gezegd dat het de digitale referenties van de Coalition for Content Provenance and Authenticity (C2PA) zal implementeren voor afbeeldingen door DALL-E 3 gegenereerd. De cryptografische watermerktechnologie –ook getest door Meta en Google – is ontworpen om het moeilijker te maken om fake beelden te produceren.

Dit zijn slechts mini stapjes en er zijn terecht zorgen dat de technologische reactie op de dreiging te weinig is en te laat komt, daar de verkiezingskoorts de wereld reeds in zijn greep heeft. Zeker als info verspreid wordt in relatief gesloten netwerken zoals WhatsApp of per robocall, is het moeilijk om vervalste audio of video snel op te sporen en te ontmaskeren.

De theorie van de “anchoring bias” suggereert dat het eerste stukje informatie dat we horen, het stukje is dat in onze gedachten blijft hangen, zelfs als het onjuist blijkt te zijn. Als deepfakers als eerste de kiezers kunnen overtuigen, is het nog maar de vraag wie de uiteindelijke winnaar wordt. In het tijdperk van sociale media en door AI aangedreven desinformatie krijgt de spreuk van Jonathan Swift “de leugen vliegt en de waarheid loopt mankend achter” een heel nieuwe betekenis.


Dit artikel werd geschreven door een van onze partners en valt buiten de verantwoordelijkheid van de redactie.

Gerelateerde artikelen

Volg ons

TechPoll

Zou jij plaatsnemen in een zelfrijdende Waymo-taxi?

Laden ... Laden ...
De beste elektronica-acties van februari

De beste elektronica-acties van februari

Bekijken bij bol.com

Business