Interview

Bedreigt AI onze digitale veiligheid? Interview met cybersecurityexpert Eddy Willems (G DATA)

Belgian Tech Survery Interview cybersecurity
Eddy Willems is cybersecurityexpert en security evangelist bij G DATA. Wij spraken met hem over onze digitale veiligheid en AI.

Een tijd geleden hadden we het nog over de gevaren en mogelijkheden van artificiële intelligentie (AI). U haalde toen aan dat systemen als ChatGPT heel makkelijk teksten of zelfs websites kunnen maken om te gebruiken in phishingcampagnes. Hoe zit het een half jaar later? Is dat risico er nog steeds, of valt het ondertussen allemaal wel mee?

Nee toch niet. Ik denk effectief dat het probleem er nog steeds is. Je moet niet gaan vragen “schrijf mij een phishingmail” want dat gaat hij natuurlijk niet doen, maar je kan echt wel vragen om zo’n tekst te verbeteren. En als die dan die tekst inderdaad gaat verbeteren, dan zie je toch wel dat het systeem iets aflevert. Je kan ook vertalingen vragen aan ChatGPT of Bard of whatever. Dan zijn we natuurlijk over LLM’s, large language models bezig. Je ziet dat die meer en meer gebruikt worden. Die dreiging is dus niet weg en nog steeds reëel. We zien ook verbeteringen van een heleboel zaken. We hebben er geen exacte cijfers van, maar in phishingmails en spammails zie je alsmaar meer generatieve AI opduiken.

Nu, er zijn nog een heleboel andere dreigingen door AI. We hebben bijvoorbeeld prompt injection-aanvallen gezien. Dat lijkt heel erg op sequel injection: daarbij geef je verkeerde gegevens aan een database die op het internet zit, om er andere gegevens uit te krijgen. Prompt injection is min of meer hetzelfde. Beeld je in: langs de ene kant heb je een website waar je naartoe surft, met een heleboel gegevens op. Langs de andere kant heb je dan Bing Chat, dat communiceert met de website die in je browser zit. Door Bing Chat op de juiste manier te ondervragen, kan je met prompt injection het AI-systeem omvormen in een social engineer, die op een bepaald moment je kredietkaartgegevens en dergelijke kan vragen. Ondertussen werd in Bing Chat een barrière ingebouwd om zo’n zaken te voorkomen, maar het is natuurlijk wel gebeurd. 

Dus net zoals gebruikers in de begindagen ChatGPT en Bing konden ‘jailbreaken’ door de juiste input te geven, konden hackers misbruik maken van het systeem?  

Ja, daar komt het in feite op neer. Ik vind het toch een belangrijke ontwikkeling: als je ziet dat dit op een bepaald moment kon, dan betekent dat dit ooit nóg zal kunnen. Je kan dan zeggen dat AI op dit moment al bijzonder clever is, en je dat met een aantal filters volledig kan tegenhouden. Ik heb daar mijn twijfels over. Het is ongeveer hetzelfde als het programmeren van dingen: je ziet dat er toch nog updates komen en dat er toch nog veranderingen doorgevoerd worden. Je kan dat niet volledig afschermen. Ik denk eerlijk gezegd dat als het er nu inzit, dat het er later opnieuw zal uitkomen.

digitale veiligheid AI
Eddy Willems. © G DATA

Nog zo’n element is het lekken van data. Er zijn al mensen geweest die data, die ze hadden neergeschreven in een boek, gebruikt zien worden door Bing Chat of ChatGPT. Waarom gebeurt dat? Omdat die gevoed worden met een heleboel zaken. Het probleem is natuurlijk dat er heel wat data is waar die systemen niet zomaar aan mogen komen.  

Het is heel moeilijk om dat te controleren en correct in te schatten. Heel veel mensen die de chatsystemen proberen, gooien er ook heel wat informatie van hun bedrijf in. Theoretisch wordt dat allemaal wel goed bijgehouden en zegt men dat daar zorgzaam mee omgegaan wordt, maar is dat een garantie? Ik vind van niet. Ik vrees dat hoe meer we het geven, hoe meer de systemen misschien toch aan data geraken die niet zomaar bedoeld waren om naar buiten te brengen. Zo’n vrees is er natuurlijk altijd met iets nieuws als ChatGPT. 

Generatieve AI gaat natuurlijk verder dan chatsystemen als ChatGPT en Bing. 

Dat klopt! Kijk bijvoorbeeld naar deepfakes. Het gaat dan vooral over stemmen, omdat je stem vrij makkelijk te klonen is. Ik heb het bij mezelf laten doen: je spreekt een minuutje ergens iets in en je stem wordt eigenlijk prachtig gekopieerd. Behalve dat de AI sneller spreekt, vind ik dat die stem waanzinnig goed op mij lijkt. Als je dat over de telefoon stuurt, dan hoor je het verschil nog amper. 

De data waar AI van leert kan ook ‘vergiftigd’ zijn. Ik ken bijvoorbeeld een bekende security researcher uit Denemarken, Peter Kruse, die aan ChatGPT de vraag stelde wie Peter Kruse nu juist was. Op een bepaald moment krijgt hij antwoord van ChatGPT en daar staat dat hij overleden is. Hoe is dat nu mogelijk? De AI had bepaalde informatie verkeerd geïnterpreteerd, waardoor het systeem dacht dat hij overleden was. Ik vind dat persoonlijk een grote bedreiging voor AI: verkeerde informatie die verkeerd geïnterpreteerd wordt.  

Met andere woorden: AI-systemen zijn dus verre van perfect?  

Dat is juist. Ik krijg van veel mensen de vraag of je AI en zijn veiligheidsmechanismes kan omzeilen. Die mogelijkheid is er: je kan, als je het model een beetje kent, bepaalde omzeilingstechnieken gaan gebruiken. Je moet dan wel heel goed op de hoogte zijn van hoe alles werkt. Een voorbeeld: wij gebruiken in de producten van G DATA ook AI. Wij gebruiken daar machine learning en deep learning, in DeepRay en Beast.  

DeepRay is gebaseerd op een neuraal netwerk en maakt ‘diepe analyses’. Die zal gaan kijken of dat er packers zitten waar die als het ware doorheen kan kijken. Packers zijn programma’s die malware gaan maskeren, zodat je die niet onmiddellijk kan opsporen. Dan heb je ook Beast, een soort van gedragsmatige bescherming waarin ook AI-technieken gebruikt worden met machine learning. Theoretisch gezien, als je die twee programma’s op je toestel hebt staan, heb je geen bescherming meer nodig. Dat is niet helemaal correct: je ziet duidelijk dat je die dingen kan omzeilen als je weet hoe ze werken. Dat kan je met een heleboel van die programma’s nog altijd doen. Dat betekent dat het nog niet genoeg getraind is of dat het model nog niet stevig genoeg is. Het is een beetje als bij de mens: als je weet hoe iemand denkt, kan je die persoon meetrekken in een conversatie.  

AI zit intussen een beetje overal. Uiteindelijk moeten we de balans wel opmaken: is het slecht voor onze onlineveiligheid en privacy, of is het eerder positief? 

Ik denk dat het vooral goed is. Die AI-systemen worden alsmaar beter in het anticiperen van dreigingen en ze te voorkomen. De AI-stukken die in onze producten, maar ook in die van concurrenten zitten, steunen elkaar en stuwen elkaar naar een hoger level. Dat was vroeger niet het geval. Vroeger deden we het effectief met handtekeningen en dat was niet vol te houden.  

Ik vind het dus een goede zaak en we gaan er uiteindelijk veiliger uit komen. Er zijn een heleboel zaken die nog niet optimaal zijn, gewoon omdat wij mensen zijn. Net omdat we die AI erbovenop kunnen gooien, gaan we het stukje dat we nu missen kunnen aanvullen. Het een heeft ook een invloed op het ander: als het ene bedrijf iets doet, dan doet het andere dat ook. Dat zorgt voor verbetering. Ik denk dat dat heel positief is en dat AI ons meer kan helpen dan we ooit vermoed hebben. We staan bovendien nog maar aan het begin: zoals wij het nu zien is volgens mij nog maar een klein begin van wat het echt zal worden. 

aiBeveiligingbusinesscybersecurityg data

Gerelateerde artikelen

Volg ons

€350 korting op de Tenways CGO600

€350 korting op de Tenways CGO600

Bekijk de CGO600