ChatGPT, de AI-tool die op korte tijd de hele wereld veroverde biedt heel wat mogelijkheden voor studenten en professionals, maar ook hackers blijven niet stil zittten. Lees hier een interview met Stas Protassov, co-founder van Acronis.



Welke mogelijkheden biedt ChatGPT algemeen gesproken voor hackers en scammers? Kunnen ze de tool bijvoorbeeld gebruiken om hun scams geloofwaardiger te maken? Lukt het ze om hun slachtoffers zo nog meer informatie te ontfutselen?

Waar het op neerkomt, is dat aanvallers met ChatGPT phishingteksten en elementaire malware sneller en geautomatiseerder kunnen schrijven. De tool creëert nog geen geavanceerde nieuwe malware en zorgt evenmin voor een wezenlijke verandering van het bedreigingslandschap, afgezien van een verhoging van de frequentie. Modellen zoals ChatGPT worden ook wel eens omschreven als een “stochastische papegaai”, een term die verwijst naar taalmodellen die worden getraind met gigantische aantallen data, en jazeker, ze zijn heel goed in het genereren van veel teksten. Het is echter wel zo dat maar enkele vormen van phishing vertrouwen op de betekenis van teksten, terwijl andere meer vertrouwen op zichtbare functies van e-mail, zoals e-mails er uit laten zien als een betaalverzoek van een bank, en die kan ChatGPT niet genereren. Ook al kan ChatGPT scammers zeker helpen om meer teksten, in verschillende talen, te genereren, het staat niet vast dat er ook betere, meer overtuigende teksten mee kunnen worden gemaakt. Het genereren van meer tekst kan ook tot meer slachtoffers leiden omdat anti-phishingmechanismen afhankelijk zijn van taalmodellen voor het detecteren van kwade bedoelingen in een tekst. Het is aannemelijk dat anti-phishingmechanismen kunnen worden getraind op het detecteren van door ChatGPT gegenereerde e-mails, maar dit betekent ongetwijfeld een volgende fase in deze nooit aflatende strijd van een geheel nieuw niveau.

Dit zijn enkele andere manieren waarop ChatGPT zou kunnen worden gebruikt door hackers en scammers:


  1. Broncode analyseren om zwakke plekken te vinden (bijvoorbeeld in de vorm van SQL-injecties, bufferoverflows). Dat is niets nieuws: ChatGPT helpt onervaren aanvallers alleen maar tijd te winnen.
  2. Exploits schrijven: hoewel tests op dit moment laten zien dat dit nog niet altijd goed werkt.
  3. Automatiseren van code: helpt beginners hun werk sneller te automatiseren (denk bijvoorbeeld aan “schrijf een script om met wachtwoorddumps in te loggen bij Twitter”).
  4. Malware schrijven: deels geblokkeerd door de richtlijnen van ChatGPT, maar eenvoudige macro’s zijn dan nog altijd mogelijk. Er wordt niks “nieuws” gemaakt omdat ze ook te vinden zijn door te googelen. Dus nogmaals, dat maakt de toegang voor iedereen alleen maar gemakkelijker.
  5. Chatbots voor social engineering: dat kan iets nieuws zijn voor zogenaamde 419-scams, BEC, romance scams (emotionele oplichting) of grooming gericht op LinkedIn, waar enkele ronden van interactie nodig zijn. Dit kan nu zodanig worden geautomatiseerd dat het als een echt gesprek aanvoelt met nog geen 1% aan menselijke interactie, waardoor het beter kan worden geschaald.

Wat is de kans dat dit gebeurt en hoe vaak zou het kunnen gebeuren?

Er zijn meldingen van red teamers dat ChatGPT wordt gebruikt om phishingmails te genereren, dus blijkbaar gebeurt dat al. Er zijn ook meldingen in undergroundforums dat sommige aanvallers met ChatGPT een wachtwoord-stealer in Python hebben gemaakt. Anderzijds werkt OpenAI voortdurend ChatGPT bij om de kans te verkleinen dat het wordt gebruikt om schade te berokkenen, zowel in fysiek als virtueel opzicht.

Hoe kunnen bedrijven en particulieren zich verdedigen tegen zulke scams?Waarop moet je met name letten?

Omdat ChatGPT getraind is met bestaande teksten, zullen de gegenereerde teksten niet “beter” zijn dan die teksten. Om potentieel schadelijke e-mails te detecteren, kun je zoeken naar de gebruikelijke signalen van scams, zoals een ongebruikelijk gevoel van urgentie. Het gebruik van bepaalde trefwoorden, zoals urgent, geld overmaken, reageer nu, wachtwoord, zorgt ervoor dat phishingmails er urgent en belangrijk uitzien. Bovendien kan ChatGPT er niet op wonderbaarlijke wijze voor zorgen dat een e-mailbericht eruitziet alsof het van je bank komt, waarbij al jaren oude trucs zoals nep-e-mailadressen en -domeinen die er echt uitzien nog altijd door scammers worden gebruikt. Let op aanwijzingen zoals e-mailkoppen of URL’s als SPF, DKIM en DMARC. Die geven allemaal aan vanaf welke server de e-mail is verzonden en voor welke domeinen die server is geconfigureerd. In essentie betekent dit dat zelfs als de tekst of e-mail perfect is, als deze verzonden is via een e-mailaccount zoals bijvoorbeeld fake@hacker.com, de tekst of e-mail makkelijk te herkennen is als nep.

Kun je wat scenario’s en/of voorbeelden geven over hoe AI-tools zoals ChatGPT kunnen worden gebruikt om gewone mensen te bedriegen of zelfs om ze te hacken? En wat kunnen mensen daartegen doen?

ChatGPT kan niet worden gebruikt om “mensen te hacken”, het is namelijk een generatief model voor teksten. Soms kan dat leiden tot een ogenschijnlijk redelijke conversatie, maar het is heel gemakkelijk te onderscheiden van een mens. Als je bijvoorbeeld onzin invoert, zal een mens dat onmiddellijk herkennen, maar ChatGPT zal dan proberen dat te verwerken en erop te reageren. ChatGPT maakt het schrijven tekst toegankelijker, met als gevolg dat meer mensen zonder technische vaardigheden zich kunnen storten op cybercriminaliteit, maar APT (Advanced Persistent Threat) en anderen werkten al jaren met automatisering, dus voor hen verandert er niet veel.Scenario’s die we hebben gezien: Het schrijven van overtuigende phishingmails, en dan met name voor BEC (Business email compromise), maar momenteel is er geen verbinding met internet. Als aanvallers e-mails gericht naar personen willen sturen, moeten de e-mails worden gecombineerd met LinkedIn en dergelijke. AI-modellen zoals ChatGPT dragen bij aan het creëren van meer variaties om digitale handtekeningen minder effectief te maken, omdat het gemakkelijker is de tekstpatronen à la minute aan te passen. Ze kunnen bovendien tekst in meer talen genereren, wat leidt tot een grotere effectiviteit, bijvoorbeeld voor het Nederlands.


Dit is een ingezonden persbericht en valt buiten de verantwoordelijkheid van de redactie.