Nieuws

OpenAI verstoort ruim 20 cyberoperaties die ChatGPT misbruiken

chatgpt loginscherm
© photosince / Shutterstock.com
Voor kwaadwillenden is AI een tool die het schrijven van malware heel wat makkelijker maakt. Dat bevestigt ChatGPT-ontwikkelaar OpenAI nogmaals.

Sinds de introductie van AI-chatbots zoals ChatGPT in onze samenleving, wordt er gesproken over de gevaren van deze tools. ChatGPT kan namelijk malware creëren op basis van de kennis die tijdens de trainingsfase is opgedaan. Check Point ontdekte bovendien dat hackers met de AI zelfs versleutelingstools kunnen maken die ingezet worden bij ransomware-aanvallen. Hoewel AI-bedrijven zich bewust zijn van deze praktijken, zijn de gevaren nog lang niet geweken, bevestigt ChatGPT-ontwikkelaar OpenAI nu dus in een rapport.

Ruim 20 cyberoperaties verstoord

OpenAI meldt dat het meer dan 20 kwaadwillende cyberoperaties heeft verstoord waarbij ChatGPT werd gebruikt om malware te ontwikkelen en te optimaliseren. De hackersgroepen zetten de AI daarnaast in om desinformatie te verspreiden, beveiligingssystemen te omzeilen en spearphishing-aanvallen uit te voeren, aldus OpenAI. Bij de gevallen die OpenAI aanhaalt, gaat het om Chinese en Iraanse aanvallers, waaronder de Chinese groep ‘SweetSpecter’.

In het geval van SweetSpecter was OpenAI zelf ook een van de slachtoffers. Met behulp van de AI-systemen van OpenAI onderzocht de groep mogelijkheden om kwetsbaarheden uit te buiten, die vervolgens werden misbruikt via de SugarGhost RAT-malware. Hiervoor maakte de groep gebruik van een cluster van ChatGPT-accounts, zo staat in het rapport van OpenAI.

Een andere zaak die OpenAI aanhaalt, betreft de hackersgroep CyberAv3ngers, die banden heeft met de Iraanse Islamitische Revolutionaire Garde (IRGC). Zij gebruikten ChatGPT om bash- en pythonscripts te schrijven, code te verdoezelen en standaardgegevens te genereren in veelgebruikte programmeerbare logische controllers (PLC’s). Het is bekend dat CyberAv3ngers zich regelmatig bezighoudt met aanvallen op westerse infrastructuur.

Geen complexe aanvallen

Hoewel beveiligingsexperts benadrukken dat de AI-tools doorgaans geen geavanceerde malware creëren, maken ze aanvallen wel toegankelijker. Een aanvaller hoeft namelijk niet over de benodigde kennis te beschikken om malware te schrijven, kwetsbaarheden op te sporen of aanvalstechnieken te bedenken. AI helpt hackers bij alle facetten van de aanval: van idee tot uitvoering.

OpenAI verzet zich hiertegen door accounts die ChatGPT misbruiken te blokkeren. Ook geeft het bedrijf details van de aanvallers, zoals IP-adressen, door aan beveiligingsonderzoekers.

Dit voorkomt echter niet dat aanvallers ChatGPT misbruiken om hun aanvalstechnieken te vereenvoudigen. “Hoewel de tools die we nu zien vrij eenvoudig zijn, is het slechts een kwestie van tijd voordat meer geavanceerde dreigingsactoren de manier verbeteren waarop ze AI-gebaseerde tools gebruiken,” schreven onderzoekers van Check Point in januari 2023.

aiBeveiligingChatGPTmalwareOpenAIphishingransomware

Gerelateerde artikelen

Volg ons

Bespaar tot 83% op Surfshark One

Bespaar tot 83% op Surfshark One

Bekijk prijzen