‘AI moet veilig, verklaarbaar en soeverein zijn’: Google-topman John Abel over de toekomst van AI en cybersecurity

Google Cloud Summit
© TechPulse / Jeffrey van de Velde
Tijdens de Cloud Summit 2025 in Amsterdam sprak TechPulse met John Abel, Managing Director van het Office of the CTO bij Google Cloud. Hij gaf een helder inkijkje in hoe Google Cloud AI en cybersecurity benadert, met bijzondere aandacht voor Europese regelgeving, datasoevereiniteit en open source.

De cloudwereld is in volle transitie. Terwijl bedrijven wereldwijd massaal inzetten op generatieve AI, wordt de roep om strikte datasoevereiniteit, transparantie en controle steeds luider. Vooral in Europa is die balans tussen innovatie en regelgeving cruciaal. John Abel, technologische strateeg bij Google Cloud, ziet deze verschuiving van dichtbij. “AI moet niet alleen krachtig zijn, maar ook verklaarbaar, veilig en ethisch verantwoord.”

We spraken Abel in Amsterdam over de stand van zaken op het gebied van AI, cyberdreigingen en de rol van Europa als gidsland in data-ethiek.

Wat houdt uw rol binnen Google Cloud in?

Mijn naam is John Abel, en ik ben Managing Director binnen het Office of the CTO (OCTO). We werken nauw samen met Will Grannis, de CTO van Google Cloud. Ons team is technisch van aard en we werken horizontaal over alle onderdelen van Google Cloud heen. Dat betekent dat we betrokken zijn bij alle technologieën binnen Google Cloud. We spreken met onze engineeringafdelingen én met onze strategische klanten. Die wisselwerking is waardevol, want zo begrijpen we de uitdagingen van klanten en kunnen we die inzichten terugkoppelen naar onze technici.

Wat momenteel in Europa heel duidelijk naar voren komt – en dat is vrij consistent – zijn drie thema’s: kunstmatige intelligentie, cybersecurity en soevereiniteit.

Is cybersecurity in Europa op dit moment echt zo’n groot thema?

Absoluut. Absoluut. Wat veel mensen zich niet realiseren, is dat cybersecurity inmiddels álle lagen van een bedrijf raakt. Niet alleen de IT-afdeling, maar ook operationele processen, informatiestromen en softwareketens. Denk aan operationele-, data- en software-soevereiniteit. Je moet nadenken over hoe je jezelf als bedrijf verdedigt – operationeel, als informatieorganisatie en tegen risico’s die nu nog niet zichtbaar zijn. Cybersecurity is een overkoepelende term waar heel veel onder valt.

In 2020 verscheen er al een blog van Thomas Kurian, onze CEO, over datasoevereiniteit. Dat onderwerp hangt nauw samen met beveiliging. We beseften toen dat we drie pijlers moesten hebben: databeveiliging, operationele beveiliging en softwarebeveiliging. Als je kijkt naar softwaresoevereiniteit, dan zie je hoe belangrijk veiligheid daar is. Veel van onze technologie is gebaseerd op open source. Daarom hebben we de manier waarop wij onze software supply chain beveiligen open source gemaakt. Want in de open sourcewereld kunnen kwetsbaarheden al heel vroeg in het ontwikkelproces opduiken.

Bij Google dragen we bovendien veel bij aan open source. Het is belangrijk dat we delen hoe wij onze software beveiligen. Dat is maar één klein stukje van een enorme industrie. Maar wat je ziet: cybersecurity is zo breed geworden dat het niet langer als aparte functie kan bestaan. Het moet geïntegreerd zijn in productontwikkeling. En al in 2020 zagen we dat, met de opkomst van onderwerpen als soevereiniteit en cybersecurity, de sleutel lag in het aanbieden van tools waarmee gebruikers hun eigen risico’s kunnen managen. Want risico’s zijn het grootste aandachtspunt in cybersecurity. Dus onze technologie is er op gericht om inzicht, informatie en bescherming te bieden. Neem bijvoorbeeld onze overname van Mandiant: dat geeft ons meer zicht op dreigingen en risico’s.

Google Cloud over soevereiniteit
Google (Gabe Monroy, L) sprak tijdens de Cloud Summit uitgebreid over wetgeving en soevereiniteit – © TechPulse / Jeffrey van de Velde

Welke rol speelt AI in die ontwikkelingen?

Om dat te beantwoorden moet ik eerst iets zeggen over hoe wij AI inzetten. AI geeft je twee dingen: schaalbaarheid en consistentie. We gebruiken AI al vanaf de beginjaren van Google. Onlangs realiseerde ik me dat Google Translate al 19 jaar bestaat. De eerste AI die we hadden was spellingscontrole, en dat is bijna 24 jaar geleden. Dus ook al spreken we nu van een ‘moderne AI-tijd’, de technologie is al lang in gebruik.

AI helpt dus bij schaalvergroting, maar ook bij het wegnemen van repetitieve taken. In het boek over Site Reliability Engineering – en ik ken dat boek goed – staat op pagina 6, vier alinea’s naar beneden: ‘Als je meer dan 50% van je tijd aan terugkerend werk besteedt, ben je bevoegd dat te automatiseren en te vervangen door waardevaste engineering.’ AI helpt ons dat te realiseren. Door AI kunnen we consistentere kwaliteit leveren.

Mensen denken vaak aan AI als iets dat draait om data en analytics, maar het speelt ook een grote rol in softwareontwikkeling. Wij gebruiken AI in onze eigen engineeringprocessen. Dat stelt ons in staat om te schalen, handmatig werk te verminderen en tegelijkertijd de kwaliteit te verhogen.

Die principes van AI zitten diep in het DNA van Google. En dat zien we nu terugkomen in hoe we AI en cybersecurity combineren. Onze AI-principes staan openbaar op onze website. We hebben tools zoals ‘What If’ en ‘Facet’ open source gemaakt, waarmee je bijvoorbeeld kunt analyseren hoe een algoritme tot een resultaat is gekomen, of hoe data is samengesteld. Dat soort transparantie is cruciaal.

Hoe zorgt Google Cloud voor dataprivacy bij AI-gebruik?

We zijn daar heel duidelijk in: wij hebben geen toegang tot klantgegevens. Geen enkele Googler kan daarbij. De klant is eigenaar van zijn data, dat is glashelder. We hebben daar ook documentatie over, bijvoorbeeld onze algemene voorwaarden en compliance-pagina’s.

Wat mensen soms over het hoofd zien, is ons concept van ‘shared fate’, waarover we eerder al een blogpost schreven. Als je bijvoorbeeld met een model uit onze Model Garden content genereert, beschermen wij je tegen auteursrechtenclaims. Dat is bijzonder. Shared fate betekent dat we als Google verantwoordelijk zijn voor het gedrag van die modellen. Of je nu werkt met onze eigen modellen – zoals Gemini of Gemma – of met modellen van derden zoals Llama of Yolo: als ze in Model Garden staan, dan zijn ze gecontroleerd en veilig inzetbaar.

En nu hebben we ook agents (generatieve AI-agenten) toegevoegd. Die verschillen van modellen, maar we hanteren wel dezelfde waarborgen. Ook hebben we de ADK geïntroduceerd: de Agent Development Kit. Daarmee kun je agents bouwen en aanpassen. En ook daar zijn agents van derden beschikbaar. De kern is dat we klanten willen helpen om AI eenvoudig, veilig en verantwoord toe te passen.

Hoe verhoudt Google Cloud zich tot Europese regels zoals de AI Act en GDPR?

Als ik me goed herinner, hebben we in 2022 verschillende niveaus van soevereine mogelijkheden aangekondigd. De eerste was het implementeren van softwarematige controles, wat nu bekendstaat als Trusted Cloud. Dat bevat functies zoals transparantierapportages, klantbeheerde encryptiesleutels en dataverliespreventie. Dat laatste is een van de belangrijkste producten die we hebben voor datapijplijnen. Het stelt je in staat om kopieën van data te maken, zonder dat gevoelige data direct wordt gekopieerd. Het helpt je om gevoelige informatie te identificeren en gepast te beschermen.

Daarnaast hebben we in Europa Trusted Partner Cloud, waarbij we samenwerken met partijen zoals Thales. Zij bieden een soevereine oplossing aan in samenwerking met ons. En dan hebben we nog Google Distributed Cloud. Daarmee brengen we een subset van onze cloud (de server met GPU/TPU’s, nvdr.) naar het datacenter van de klant, al dan niet losgekoppeld van het internet.

Tijdens Google Cloud Next hebben we aangekondigd dat ook Gemini binnen Distributed Cloud draait. Zeker in Europa, met regelgeving als de AI Act en de Data Act, is dat relevant. Voor ons kwam dit niet als verrassing. Ik werkte in 2020 al mee aan de voorbereiding hierop, samen met de Europese instellingen. Wat ik de EU moet nageven, is dat ze de industrie er vroeg bij betrokken hebben. Dat werkte heel prettig.

We hebben ook iemand in ons team die zich volledig richt op deze wereld, want het gaat hier over kritieke nationale infrastructuur. Denk aan banken, telecom, de publieke sector. En de Europese Bankenautoriteit is daar sterk bij betrokken. Zeker als je kijkt naar landen als Luxemburg en België, waar de financiële sector een belangrijk deel van het BNP vormt.

Voor ons is het dan ook essentieel dat we oplossingen hebben voor dit ecosysteem en ik denk dat we daar sterk in staan.

Hebben klanten volledige controle over waar hun data wordt opgeslagen en verwerkt, inclusief EU-regio’s?

Ja, absoluut. Wat ook belangrijk is: de EBA schrijft voor dat financiële toezichthouders risico’s niet mogen uitbesteden. Wij zijn zelf geen bank, dus als een bank klant bij ons is, blijft zij zelf verantwoordelijk richting de toezichthouder. Ze mogen dat risico niet overdragen aan een derde partij.

Er is regelgeving zoals DORA (Digital Operational Resilience Act), en wij hebben gewerkt aan oplossingen die in lijn liggen met die regels, in de EU én bijvoorbeeld in het VK, waar we met de PRA samenwerken.

We hebben duidelijke principes: we hebben geen toegang tot klantdata, en klanten kunnen op elk moment vertrekken. Sinds vorig jaar rekenen we daar zelfs geen extra kosten meer voor; ook geen egresskosten. Veel van onze technologie is open source of gebaseerd op open standaarden. Neem Spanner, dat werkt met een PostgreSQL-compatibele variant. Of AlloyDB, dat is een PostgreSQL-database op enterprise-niveau. BigQuery? De data kun je gewoon exporteren.

Ook GKE (Google Kubernetes Engine) draait op open technologie. Daarmee hebben klanten de mogelijkheid om hun applicaties te migreren. Dat is uniek. We hebben geen eigen on-premises licentiesystemen of gesloten software. Wij zijn volledig cloud-native. En juist omdat ons DNA sterk leunt op open source, kunnen we voldoen aan strikte regelgeving en zelfs flexibiliteit bieden.

Is AI meer een risico of juist een hulpmiddel voor de beveiliging van bedrijven en overheden?

Als ik kijk naar AI, zou ik het opsplitsen in twee hoofdcategorieën: machine learning en generatieve AI. Veel klanten, zeker in de financiële sector, gebruiken al decennialang AI. Dat voelt misschien als iets nieuws, maar dat is het niet. Als je een lening aanvraagt bij een bank, wordt je risicoprofiel berekend door een AI-model. Bij verzekeringen werkt het net zo: een offerte is vaak gebaseerd op een zogeheten CAT-model, ook AI.

We noemden het alleen nooit zo, omdat het niet zichtbaar was. Het zat in een app. Met generatieve AI is dat anders: we stellen een vraag en krijgen direct een antwoord. Dat maakt het zichtbaarder. Maar de kern blijft: je moet weten wat je vraagt en hoe je het antwoord moet interpreteren.

Dus de vraag is niet of het meer of minder risico met zich meebrengt, het gaat erom wat je ermee doet. AI wordt al volop gebruikt. Gmail bijvoorbeeld gebruikt AI voor autocomplete. Google Maps gebruikt AI om je route te bepalen. Het verschil zit hem in bewust gebruik. Als je goede principes hebt, een ethisch kader, de juiste tooling, en je weet hoe je data eruitziet en wat je ermee doet, dan kun je AI veilig toepassen.

“Beveiliging is geen ‘kerstaankoop’. Het is geen eenmalige actie. Het is een vast onderdeel van ons DNA.”

Hoe ontwikkelt Google Cloud zijn beveiligings- en privacyaanpak naarmate AI complexer en autonomer wordt?

Dat is een brede vraag. Maar het begint allemaal bij data – want data voedt AI. Alles wat ik eerder noemde aan tooling, is gebouwd rond het beschermen van die data. En nogmaals: de data van onze klanten is niet van ons. Wij hebben er geen toegang toe. Het is eigendom van de klant.

Google Cloud is een B2B-bedrijf. En dat is belangrijk om te benadrukken. Onze klanten verwachten dat van ons. Naarmate AI complexer wordt, helpen we klanten met platforms als Model Garden, Vertex AI en andere frameworks. Daarmee kunnen ze zich focussen op het resultaat dat ze willen behalen en niet op het bouwen van het hele fundament zelf.

Dat geeft hen een veilige basis, en wij zijn dan verantwoordelijk voor dat fundament. Je kunt alles zelf bouwen, maar dan draag je ook zelf het risico. Werk je met een partij als Google Cloud, dan deel je in een gedeelde infrastructuur die ook door anderen wordt gebruikt. Dat maakt het veiliger.

Google veilige AI-assistenten
Google belooft de “meest vertrouwelijke, compliant en veilige AI-assistenten aan te bieden” – © TechPulse / Jeffrey van de Velde

Neem Gemini: dat model gebruiken we zelf ook binnen Google. Klanten profiteren dus van dezelfde schaalvoordelen. Als je alleen opereert, loop je meer risico. Maar als je deel uitmaakt van een gemeenschap, dan zie je risico’s eerder en deel je in oplossingen. Zeker bij complexe technologie is dat belangrijk.

Wat doet Google Cloud tegen deepfakes en gemanipuleerde media?

Ongeveer anderhalf jaar geleden zijn we begonnen met het watermerken van afbeeldingen die met onze modellen zijn gegenereerd. Daarmee kun je de oorsprong herleiden en dus ook de echtheid verifiëren.

Daarnaast investeren we sterk in onderzoek. Als je kijkt op Google Scholar, zie je publicaties van ons over patronen in synthetische content. Wat ik waardeer aan Google, en dat zeg ik niet alleen als werknemer, is de enorme investering in onderzoek. Dat is noodzakelijk, want er komen steeds nieuwe dreigingen bij.

Zonder Google zou generatieve AI in de huidige vorm niet bestaan. Wij hebben immers het Transformer-model ontwikkeld. Dus we voelen ook die verantwoordelijkheid om veilig gebruik te waarborgen. Onderzoeksafdelingen zoals DeepMind en Google Research zijn voor ons essentieel. Ik werk daar veel mee samen, juist om op deze dreigingen voorbereid te zijn.

Beveiliging is geen ‘kerstaankoop’. Het is geen eenmalige actie. Het is een vast onderdeel van ons DNA.

Uitgelicht artikel interview google “Uitdagingen in de positieve zin”. Interview met Céline Callewaert (Google Cloud BeLux)
aibusinessgeminigooglegoogle cloud

Gerelateerde artikelen

Volg ons

Exclusief: ruim 40% korting op de SwannBuddy4K

Exclusief: ruim 40% korting op de SwannBuddy4K

👉 Bestel nu