OpenAI ziet steeds meer pogingen om AI-modellen te gebruiken voor het beïnvloeden van verkiezingen
Cybercriminelen maken steeds vaker gebruik van AI-tools om hun kwaadwillende activiteiten door te zetten. Dit varieert van het ontwikkelen en verbeteren van malware tot het creëren van valse content voor websites en sociale mediaplatformen, aldus het bedrijf.
In 2024 heeft OpenAI meer dan 20 van dergelijke pogingen kunnen neutraliseren. Een van de incidenten betrof in augustus ChatGPT-accounts die werden gebruikt om artikelen te schrijven over de Amerikaanse verkiezingen. Ook zijn in juli accounts uit Rwanda geblokkeerd, die reacties over de verkiezingen in dat land op sociale mediaplatform X hadden geplaatst.
Geen van de pogingen om wereldwijde verkiezingen te beïnvloeden, is echter viral gegaan of genoeg aandacht kunnen genereren, voegde OpenAI toe.
Zorgen over AI blijven
De zorg over het gebruik van AI-tools en sociale media om nepcontent te verspreiden rondom verkiezingen neemt toe, vooral met de Amerikaanse presidentsverkiezingen in zicht. Volgens het Amerikaanse ministerie van Binnenlandse Veiligheid vormen landen als Rusland, Iran en China een groeiende dreiging, waarbij AI wordt ingezet om valse of polariserende informatie te verspreiden.
Het verspreiden van verkeerde informatie bij verkiezingen is geen nieuw fenomeen. Het is een groot probleem dat teruggaat tot de Amerikaanse presidentscampagne van 2016, toen Russische partijen goedkope en gemakkelijke manieren vonden om valse inhoud te verspreiden op sociale platforms. In 2020 werden sociale netwerken overspoeld met desinformatie over Covid-vaccins en verkiezingsfraude.
OpenAI verstevigde vorige week zijn positie als een van ‘s werelds meest waardevolle private bedrijven na een investeringsronde van 6,6 miljard dollar. Sinds de lancering in november 2022 heeft ChatGPT inmiddels 250 miljoen actieve gebruikers per week.