“AI werkt niet zoals een menselijk brein”. Dubbelinterview met Florian Ortner (Dynatrace) en Geertrui Mieke De Ketelaere
Er is geen technologie die het afgelopen jaar zo spraakmakend was als AI. AI-technologie helpt heel wat vragen te beantwoorden, maar creëert er ook nieuwe. Is het ethisch om de technologie te gebruiken? Zijn AI-systemen betrouwbaar, en zijn er valkuilen waarvoor je moet opletten? Het is een onderwerp waar Florian Ortner, Chief Product Officer bij Dynatrace, en Geertrui Mieke De Ketelaere, adjunct-professor voor de vakken Sustainable, Ethical en Trustworthy AI aan de Vlerick Business School, maar al te graag hun licht op laten schijnen.
Mieke: “Wat ik me realiseerde was dat AI, zoals ik het had bestudeerd, verkeerd werd vertaald naar de buitenwereld. Daardoor zag ik steeds meer problemen opduiken. Niet alleen over ethiek, maar ook over een aantal heel basale feiten. Bijvoorbeeld: dit zijn geen systemen die 100% correct zijn, maar ze hebben een bepaalde mate van nauwkeurigheid. Ik besloot hier een boek over te schrijven, Mens versus Machine, dat ondertussen naar drie talen vertaald werd. Hierdoor kon ik mezelf positioneren op de markt als AI-vertaler. Ik sla vooral bruggen tussen bedrijven en IT, maar ook naar overheden. Mijn werk is altijd zo geweest: ervoor zorgen dat de overheid, IT en het bedrijfsleven elkaar begrijpen en begrijpen wat ze juist proberen te doen.”
Florian: “Ja, ik ben ook een computerwetenschapper van opleiding. Ik heb gestudeerd in Oostenrijk, waar ik het geluk had een van de oprichters van Dynatrace tegen het lijf te lopen. In die tijd heette de ruimte waarin Dynatrace zich bevond APM of Application Performance Management. Dit was in 2000, dus het landschap was heel anders: je had geen mobiele telefoons, geen webapplicaties, geen publieke cloudproviders… Alles was een rich client op Windows en mensen waren gefrustreerd. Alles stond nog in zijn kinderschoenen, maar ik was altijd al geïnteresseerd in algoritmes om dingen te optimaliseren. Niet op een puur deterministische manier, maar met veel statistiek.”
“Ik ben dus voornamelijk geïnteresseerd in het optimaliseren van zaken. Als je een grootschalige prestatieanalyse doet, is het veel te duur om een juiste baseline te maken. Het is veel beter om dit met algoritmes te doen, ook omdat de geheugenvoetafdruk veel kleiner is. Ik ben zelf een performance nerd en ik hou ervan om techneuten te verbinden met de use cases van ons product: waarom is dit cool? Hoe helpt dit een normaal persoon om een betere werkdag te hebben?”
Je zei dat de manier waarop de industrie opereert is veranderd met de komst van het internet, mobiele telefoons en meer spelers die naar de cloud migreren. Hoe heeft dat Dynatrace door de jaren heen beïnvloed?
Florian: “Heb je ooit gehoord van het Cambrium? In die periode ontstond er plotseling leven op aarde en explodeerde het aantal levende wezens. We gebruiken deze analogie om over ongestructureerde gegevens te praten. 20 jaar geleden waren gegevens erg gestructureerd en moesten we ze allemaal in een database stoppen. Maar de laatste 10 jaar is de hoeveelheid ongestructureerde data enorm gegroeid. Waarschijnlijk met een factor 2 per jaar, jaar na jaar. Onze grootste klanten hadden bijvoorbeeld ongeveer 100 terabytes per dag. Nu hebben de grootste twee petabytes per dag, dus dat is een factor 20. Dat zijn voornamelijk ongestructureerde gegevens, waardoor de manier waarop observability- en beveiligingsleveranciers moesten werken veranderde. Dus het toepassen van slimme algoritmen en AI, maar ook een deterministische kosteneffectieve manier is de kern van elke observability business.”
“Mieke, je hebt het veel over de valkuilen van AI. AI zal data baseren op statistieken. Denk je dat dat proces en de gestructureerde gegevens die eruit voortkomen altijd te vertrouwen zijn?”
Mieke: “Dit zijn twee verschillende dingen. Als we het hebben over ongestructureerde gegevens, dan zijn dat gegevens zoals tekst of video. Het is het makkelijkst uit te leggen aan de hand van afbeeldingen. Mensen zien geen pixels en analyseren ze ook niet, maar we maken abstracties van de objecten die we zien. We hebben een gezond verstand met betrekking tot het object, dat tot nu toe nog niet naar AI werd omgezet. AI is extreem goed in het bekijken en analyseren van pixels, maar dat betekent niet dat het een idee heeft van de kenmerken van het object waar het naar kijkt. “
“Dus als je het hebt over de fouten, dan is dat geen fout van de ingenieurs. Het is de manier waarop de technologie werkt. Voor 95% van de mensen is het echter een fout. Hen is nooit verteld dat wanneer AI naar de wereld kijkt, het dat niet doet met gezond verstand. Het maakt geen abstracties en het redeneert niet echt, enzovoort. We hebben nooit de tijd genomen om uit te leggen hoe dit ‘brein’ eigenlijk werkt. We begonnen met het idee om het menselijk brein na te bootsen, maar we zijn verder gegaan. We hebben iets fantastisch gemaakt, maar het werkt helemaal niet als een menselijk brein. Dat is waar die “fouten” vandaan komen.”
Zou je zeggen dat AI beter dan mensen is in het structureren van gegevens, omdat het geen menselijk brein heeft en patronen ziet waar mensen dat niet kunnen?
Mieke: “Voor mij zit het niet in de structurering van de gegevens. Als gegevens multidimensionaal zijn, zoals onze gegevens tegenwoordig zijn, heeft ons menselijk brein moeite om te bevatten waar het naar kijkt. In twee dimensies kunnen mensen patronen zien. Bij drie dimensies krijgen veel mensen het moeilijk. Als je daar nog een dimensie aan toevoegt, zijn mensen simpelweg niet meer in staat om patronen te zien.”
Florian: “Het hangt allemaal af van de gegevens, ik ben het 100% eens met Mieke. Als je statistiek toepast, is er geen notie van “fouten”. Het is dan een statistisch correct antwoord om te zeggen “in deze en die dimensie horen deze stippen of pixels bij elkaar omdat ze clusteren”. Het is niets nieuws, maar we hebben nu genoeg rekenkracht om dit te berekenen.”
Als mensen niet in staat zijn om de meer multidimensionale patronen te zien die AI wel kan zien, hoe moeten ze dan eventuele “fouten” of beperkingen in de technologie corrigeren?
Florian: “Vergelijk het met MP3-compressie. Het is een abstractie van iets in de echte wereld. Voor ons, mensen, is het resultaat vrijwel hetzelfde. Maar omdat je het transformeert en terugzet, zijn er fouten. Toch klinkt de opname voor ons prima.”
Mieke: “Ik denk dat het belangrijk is om op te merken dat je anders naar de technologie kijkt als je niet uit de AI-wereld komt. We komen uit een wereld waar technologie correct was. Neem je rekenmachine: niemand schrijft een vergelijking op om te controleren of de rekenmachine gelijk heeft. Maar AI is nooit 100% correct, het komt met een nauwkeurigheid. Dat kan 99% zijn, maar ook 93%.”
“Je krijgt echter altijd een antwoord. Denk aan je ChatGPT-ervaring: elke keer als je een vraag stelt, geeft de AI antwoord. Maar dat betekent niet dat het antwoord altijd op feiten is gebaseerd en correct is. Mensen buiten de AI-wereld, in het bedrijfsleven, hebben dat nog niet begrepen. Ze gaan er gewoon van uit dat welk antwoord ze ook krijgen, het correct is. Het kan er logisch uitzien vanuit een Engels of technologisch perspectief, maar je moet nog steeds denken “dat is misschien niet juist”. Een ander aspect is de context waarin de AI is getraind. Dat is misschien niet de context waarin de gebruiker leeft. De contextspecificiteit van datagestuurde AI is niet iets dat is uitgelegd aan bedrijven.”
Maakt dit het voor bedrijven moeilijker om AI te vertrouwen? Of hebben bedrijven te veel vertrouwen in AI, zonder rekening te houden met de valkuilen die ermee gepaard gaan?
Mieke: “Er is iets wat we de Moravec-paradox noemen. Moravec deed onderzoek naar robots, maar zijn bevindingen zijn ook toepasbaar op AI. Hij zei dat dingen die heel makkelijk zijn voor mensen heel moeilijk zijn voor AI, en dat dingen die makkelijk zijn voor AI moeilijk zijn voor mensen. Ergens staat een virtuele muur. Aan de linkerkant staan taken waar AI beter in is, aan de rechterkant staan taken waar mensen in uitblinken. We zien bij bedrijven die (generatieve) AI integreren aan de linkerkant, waar AI sterker is, dat taken nauwkeuriger worden uitgevoerd. De resultaten zijn van hogere kwaliteit en het werk wordt efficiënter gedaan.”
“Aan de andere kant van de muur wordt er meer geredeneerd. Als je daar AI integreert, zal de kwaliteit van het werk afnemen. Een van de redenen daarvoor is dat mensen steeds luier worden. Ze denken dat technologie het werk voor hen zal doen, omdat ze zich niet bewust zijn van de beperkingen. Het antwoord op je vraag hangt af van de use case en waar bedrijven besluiten om AI in te zetten.”
Florian: “Het is grappig: de manier waarop je het beschrijft is zo analoog aan hoe wij met onze ingenieurs over AI praten. We hebben een soort diagram. Er is een deterministisch deel, dat je bijvoorbeeld nodig hebt voor alarmering. Stel je voor dat je om 3 uur ‘s nachts de 24/7 OPS-mensen belt. Doe je het één keer? Prima. Doe het twee keer en ze zullen je negeren.”
“Maar dan heb je ook nog het andere deel, de meer generatieve kant. Het draait allemaal om productiviteit. Het is niet zo dat een iemand met weinig kennis van zaken opeens kan toveren, maar een vaardig persoon kan veel productiever zijn als hij de juiste vragen stelt. Je moet zelf een gevoel hebben voor wat fout en wat goed is. Daarom worden de systemen copilots genoemd: ze moeten ons ondersteunen tijdens het werk. “
“We gebruiken ook generatieve AI. We hebben een Dynatrace-taal die de LLM begrijpt. Je kunt twee pagina’s van de op IQL gebaseerde query’s die we gebruiken kopiëren en het systeem vragen wat het doet. Het kan zelfs vertalen: soms krijg ik query’s in het Portugees over Amazon-services. Ik heb er nog nooit van gehoord, omdat ze de Portegese namen gebruiken. Het is niet altijd correct, maar het is verrassend behulpzaam. Het helpt me echt als professional, zodat ik efficiënter kan werken.”
Niet alle bedrijven zijn al datagestuurd of gebruiken AI. Zou je zeggen dat deze gegevens een horde zijn die genomen moet worden voordat je AI kunt implementeren? Of kan AI vanaf het begin deel uitmaken van het verhaal?
Florian: “Aan de kant van Dynatrace is het heel eenvoudig. Er bestaan al 20 jaar denoising-oplossingen, de ene al wat doortastender dan de andere. Stel dat je 1000 waarschuwingen per dag hebt en je zet ze in software. De software zal zien dat je vijf keer per dag Alert A krijgt, maar dat je hier niets mee kunt doen. Je kunt dit dempen, zodat je niet elke dag vijf keer wordt gestoord. De software zal ook echte waarschuwingen eruit halen. Maar: je verliest details, omdat je een geaggregeerde roll-up maakt.”
“Bij Dynatrace geloven we dat je altijd de granulaire, ruwe gegevens moet hebben. Dat maakt verkeerde beslissingen verklaarbaar. Je kunt er altijd naar teruggaan voor uitleg. Dat geeft je de kans om situaties opnieuw te spelen en te overdenken, en stelt je in staat om de algoritmes te sturen zodat ze hun werk beter doen.”
Mieke: “Ik wil er ook aan toevoegen dat het hebben van gegevens kosten met zich meebrengt. Bedrijven moeten eerst kijken naar hun uitdagingen. Dan moeten ze kijken welke gegevens hen kunnen helpen om die op te lossen. Van daaruit laat je de gegevens groeien en groei je met de gegevens. Het is niet zo dat je drie jaar nodig hebt om je datalaag op orde te krijgen. Dat heeft geen zin, want je groeit eigenlijk geleidelijk met je gegevens mee. Op die manier verzamel je hoogstwaarschijnlijk meer schone, correcte en bruikbare gegevens. Het is niet zoals een ERP-systeem dat je aanzet na maanden of jaren programmeren, maar iets dat groeit in een interactief proces.”
“Bovendien hebben we gezien dat AI extreem goed is in saaie en repetitieve taken. Ik krijg geen energie van documentverwerking, dus laat ik AI dat doen. AI kan zeker bepaalde taken overnemen. Maar soms zie ik dat bedrijven het digitale gedeelte overdrijven. Ze gaan volledig automatiseren omdat het technologisch mogelijk is om de mens eruit te halen. Feit is dat AI een algoritme blijft dat een getal uitspuugt. Je kunt dit getal koppelen aan een beslissing. Bijvoorbeeld: dit is spam en dit is geen spam. Maar stel je voor dat je een cv aan het AI-systeem geeft: is het een interessant profiel voor het bedrijf, ja of nee? En het systeem zal zijn geautomatiseerde beslissing baseren op patronen die het heeft gedetecteerd in profielen uit het verleden. Dat betekent dat als er menselijke fouten in die historische gegevens zitten, vooral de ethische fouten die te maken hebben met discriminatie en inclusie, de AI die fout zal repliceren. ) De fouten in de AI-gestuurde systemen zijn dus gekoppeld aan de geautomatiseerde beslissing die we hebben geïnstalleerd op basis van de uitkomst van het AI-systeem. AI op zich blijft een algoritme dat een getal uitspuugt. Er is een cruciale vraag die bedrijven zichzelf moeten stellen: hoe ver gaan we in het automatiseren van besluitvorming?”
Als er één ding is dat je zou kunnen zeggen tegen bedrijven en bedrijfsleiders over AI, wat zou dat dan zijn?
Mieke: “Dat het een blijver is en dat je er maar beter rekening mee kunt houden.”
Florian: “Zie het als een hulpmiddel.”