Primeur: AI van Google stopt cyberaanval nog voor die kon beginnen

Vorig jaar introduceerde Google een speciale AI-agent genaamd Big Sleep, ontwikkeld door Google DeepMind en Project Zero om kwetsbaarheden in onder meer open-sourceprojecten te detecteren. De AI-agent kan autonoom miljoenen regels code controleren, wat natuurlijk een enorme winst betekent om dreigingen snel op het spoor te komen. Sinds de lancering van Big Sleep werden al meerdere reële en gevaarlijke fouten ontdekt, maar recent werd dankzij het systeem dus ook voor het eerst een op aanstaande cyberaanval gestopt.
Van reageren naar anticiperen
Concreet werd een kritiek lek (CVE-2025-6965) ontdekt in SQLite, een populaire open-source engine voor databases. De ontdekte fout werd gecombineerd met informatie van Google Threat Intelligence om zo een dreigingsanalyse te kunnen maken en al snel bleek de situatie ernstig te zijn. De kwetsbaarheid zou op dat moment al gekend zijn geweest bij cybercriminelen en een simulatie door Big Sleep wees uit dat een feitelijke exploit binnen enkele dagen al kon circuleren. Het lek moest dus snel gedicht worden, wat ook gebeurde, alvorens hackers het echt konden uitbuiten.
Zoals gezegd gaat het om een primeur in cyberbeveiliging. Volgens Google is dit de eerste keer dat een AI-systeem een redelijk acute dreiging in de kiem kon smoren. Het is ook een belangrijke mijlpaal die toont dat er momenteel een verschuiving plaatsvindt. Eerder was cyberveiligheid vaak een kwestie van snel reageren op een actuele dreiging, maar met de komst van geavanceerde AI-modellen kan er veel meer ingezet worden op proactieve risicobeheersing en kan er beter geanticipeerd worden op cyberaanvallen. Er wordt met andere woorden al ingegrepen nog voor malware verschijnt.
Menselijke controle
Hoewel het natuurlijk indrukwekkend is dat een AI-systeem in staat is om autonoom publieke code te controleren en in het geval van kwetsbaarheden ook oplossingen voor te stellen, benadrukken experten dat menselijke controle nodig is. AI is immers niet perfect en kan fouten maken, in welk geval er mogelijk net méér schade aangericht kan worden. Bovendien spelen er soms ook ethische kwesties.
Bij Google zijn ze zich bewust van die nood aan menselijk toezicht. Het AI-systeem kan dan ook niet op eigen houtje oplossingen beginnen uitrollen. Elke voorgestelde patch moet eerst een menselijke review ondergaan. Daarnaast wordt alles ook transparant bijgehouden in logs voor mochten er zich op een bepaald moment problemen stellen.











