Oplichters proberen steeds vaker AI-chatbots te manipuleren

Met AI kunnen we tegenwoordig al heel wat en ook oplichters gaan er al creatief mee aan de slag, bijvoorbeeld om slachtoffers met behulp van deepfakes om de tuin te leiden. Er zijn echter ook cybercriminelen die gesofisticeerder te werk gaan en AI-chatbots zelf proberen te manipuleren om slachtoffers malafide links voor te schotelen. Het is een tactiek die meer en meer begint op te duiken en die reële risico’s inhoudt.
AI-chatbots verwijzen naar phishingsites
Concreet proberen cybercriminelen om met hun eigen malafide webpagina’s op te duiken in de antwoorden van AI-chatbots, bijvoorbeeld wanneer gebruikers vragen naar de loginpagina van een specifieke bank of service. Het klinkt misschien vreemd om zo’n vraag te stellen aan een AI-chatbot, maar dezer dagen moet je er ook niet echt meer van opkijken. Daarnaast kunnen cybercriminelen natuurlijk ook gewoon proberen om met andere pagina’s in de antwoorden van AI-modellen te verschijnen, niet noodzakelijk met specifieke loginpagina’s.
De oplichters doen er alleszins alles aan om hun eigen pagina voldoende autoriteit en dus online gewicht mee te geven zodat AI-modellen denken dat het wel om legitieme pagina’s moet gaan. Vervolgens lijsten ze die pagina’s dan ook op in hun antwoord, waardoor gebruikers soms bij phishingsites terechtkomen.
Eén op drie antwoorden onbetrouwbaar
Bij beveiligingsbedrijf Netcraft deden ze onderzoek naar deze nieuwe werkwijze van cybercriminelen. Ze vroegen verschillende grote taalmodellen (LLM’s) naar de loginpagina’s van 50 bekende merken. Dat leverde 131 links op en een derde daarvan bleek niet eens eigendom te zijn van het merk zelf. 66% van de pagina’s behoorde wél aan het merk, maar 30% van de pagina’s was ongeregistreerd of stond tijdelijk geparkeerd, klaar om overgenomen en misbruikt te worden door cybercriminelen. De rest van de links verwees naar totaal andere bedrijven.
In sommige gevallen werden ook echt malafide links getoond. Zo vroeg men de AI-zoekmachine Perplexity naar de loginpagina van de bank Wells Fargo. Daarbij werd gelinkt naar een Google Sites-pagina die bedoeld was om een legitieme webpagina van Wells Fargo te imiteren. In werkelijkheid was de kloon er natuurlijk om inloggegevens buit te maken. Overigens werd de legitieme link ook nog vermeld, maar pas lager in de lijst en dus onder een malafide link.
Het risico van AI
Deze nieuwe, ingenieuze vorm van phishing is natuurlijk vooral gevaarlijk omdat er misbruik wordt gemaakt van de autoriteit die AI tegenwoordig uitstraalt. Mensen vertrouwen erop dat wat de AI-chatbot zegt correct en legitiem is. Er is ook geen sprake van vreemde pop-ups of een automatische melding die je bij een verdachte e-mail vaak wel nog krijgt. Op dat vlak is er wat de veiligheid van AI-chatbots betreft wel nog wat werk aan de winkel.
Voor cybercriminelen is het momenteel dus erg aantrekkelijk om AI-modellen bewust te manipuleren en te trainen op basis van domeinvariaties die sterk lijken op legitieme websites. Vooral voor kleinere merken is er dan een groter risico, omdat zij sowieso al minder vaak opduiken in trainingsdata en de AI-modellen daardoor sneller naar malafide domeinen grijpen.
Ook bij AI-chatbots gebruik je dus best je gezond verstand. Het liefst ga je gewoon rechtstreeks naar de webpagina die je wil hebben, maar als je dan toch per se via een AI-chatbot wil gaan, let dan zeker op eventuele spelfouten of rare elementen in de domeinnaam. Multifactorauthenticatie is ook altijd aan te raden. Het biedt namelijk een extra laag bescherming tijdens het inloggen, waardoor je veilig blijft zelfs wanneer cybercriminelen je wachtwoord in handen zouden krijgen.