Wire

ESET Research: Zal ChatGPT killer-malware schrijven?

ESET logo
© ESET
Hoe ongelooflijk de capaciteiten van ChatGPT ook mogen zijn, zal deze chatbot geavanceerde malware uitspuwen?

ChatGPT heeft dit artikel niet geschreven – Cameron Camp, ESET Security Researcher, wel. Hij vroeg hem ook niet om de vraag uit de titel te beantwoorden, maar dit zal wel doen. Hij vermoedt ook dat dit precies is wat ChatGPT zou kunnen zeggen. Gelukkig waren in de tekst nog een paar grammaticale fouten om te bewijzen dat Camp geen robot is. Maar dat is precies wat ChatGPT zou kunnen doen om er echt uit te zien.

De technologie van deze hipster-robot is als een gesofisticeerde antwoordapparaat, goed genoeg voor huiswerk, research documenten, juridische antwoorden, medische diagnoses en tal van andere dingen die de test doorstaan ​​​​als ze worden behandeld alsof ze het werk van mensen zijn. Maar zal het de honderdduizenden stalen van malware die we dagelijks zien en verwerken aanzienlijk verhogen, of wordt het een gemakkelijk te herkennen vervalsing?

In een machine versus machine-tweestrijd waar technocraten al jaren van dromen, lijkt ChatGPT een beetje “te goed” om niet te worden beschouwd als een serieuze concurrent die de andere machine zou kunnen overtreffen. Met aanvaller en verdediger die de nieuwste ML (Machine Learning)-modellen gebruikten, moest het wel eens gebeuren.

Maar goede antimalware-machines bouwen gaat niet enkel robot tegen robot. Menselijke tussenkomst is altijd nodig geweest: we zagen dit vele jaren geleden, tot grote ergernis van ML-leveranciers die zich in de marketingstrijd begaven – terwijl ze probeerden de sporen te wissen door naar hun ML-producten te verwijzen als AI-gebruikers (referring to their ML-only products as using “AI”).

Hoewel ML-modellen gebruikt werden voor ruwe front-end tests tot meer complexe analyses, produceren ze geen “killer malware”. Malware is niet zo eenvoudig. Voor de zekerheid interviewde Camp enkele ML-goeroes van ESET.

Hoe goed zal de door ChatGPT gegenereerde malware zijn en kan dit?

We zijn niet echt “close” met de “volledig door AI gegenereerde malware”, hoewel ChatGPT behoorlijk goed is in het suggereren van codes, het genereren van voorbeeldcode en fragmenten, het debuggen en optimaliseren van code, en zelfs het automatiseren van de documentatie.

Hoe is het gesteld met meer geavanceerde functies?

We weten niet hoe goed ChatGPT is in vertroebeling. Sommige voorbeelden hebben betrekking tot scripttalen zoals Python. Maar we zagen het de betekenis “omkeren” van uiteengehaalde codes verbonden aan IDA Pro, wat interessant is. Het is dus waarschijnlijk een handig hulpmiddel voor een ​​programmeur en misschien een eerste stap naar het maken van meer complete malware, maar nu nog niet.

Hoe goed is het nu al?

ChatGPT is zeer indrukwekkend, omdat het een geweldig taalmodel is, en zijn mogelijkheden verrassen zelfs makers van dergelijke modellen. Momenteel is het nog zeer oppervlakkig, het maakt fouten, creëert meer hallucinerende antwoorden (verzonnen antwoorden) en is niet echt betrouwbaar voor serieuze zaken. Maar het lijkt snel terrein te winnen, te oordelen naar de zwerm techneuten die het schoorvoetend benaderen.

Wat kan het nu doen – wat is het “laaghangende fruit” voor het platform?

Momenteel zien we drie mogelijke gebieden van gebruik en misbruik:

  1. De phishers overtreffen

Dacht je dat phishing in het verleden overtuigend was, denk dan opnieuw. Het gaat nu van het doorzoeken van meer gegevensbronnen en ze naadloos te vermalen tot het uitspuwen van speciaal ontworpen e-mails die zeer moeilijk te detecteren zijn op basis van hun inhoud, met beloftes van betere slagingspercentages voor het genereren van klikken. Je kunt die ook niet snel verwijderen wegens domme taalfouten; ChatGPT’s kennis van je moedertaal is waarschijnlijk beter dan de jouwe. Aangezien een groot aantal van de meest kwaadaardige aanvallen begint met iemand die op een link klikt, kan je verwachten dat de gerelateerde impact super groot zal zijn.

  1. Geautomatiseerde onderhandelingen voor losgeld

Sweet-talking ransomware-operatoren zijn wellicht zeldzaam, maar het toevoegen van een beetje ChatGPT-glans aan de communicatie kan de werklast verminderen voor oplichters die tijdens onderhandelingen legitiem lijken. Dit betekent ook minder mogelijkheden voor de verdedigers die de ware identiteit en locatie van de operatoren willen achterhalen.

  1. Telefoonzwendel wordt steeds beter

Met het produceren van een steeds meer natuurlijke taal, zullen de oplichters uit je regio lijken te komen en uw belangen voor ogen hebben. Dit is een van de eerste stappen om in een zwendel vertrouwen op te bouwen: meer zelfzeker overkomen door te laten blijken dat je een van hen bent.

Als dit toekomstmuziek lijkt, let dan goed op. Het zal niet ineens gebeuren, maar criminelen staan ​​op het punt nog beter te worden. We zullen dus zien of de verdediging het aankan.

esetpartnerinfo

Gerelateerde artikelen

Volg ons

Bespaar tot 83% op Surfshark One

Bespaar tot 83% op Surfshark One

Bekijk prijzen