[Blog] Chatbots die onze taken overnemen: een bot-pocalyps?
Maar we kunnen rustig ademhalen. Want ik als Chief Architect denk dat we ons nog lang geen zorgen hoeven te maken over een bot-pocalyps.
Waar we op dit moment staan met bots en AI
In principe zijn chatbots ‘gewoon’ een andere manier om met een applicatie te communiceren. De bots kunnen op commando informatie uit meerdere bronnen ophalen en acties in werking zetten. Dit proces wordt bij de ontwikkeling van bots verpakt in een natural language interface (NLI) of in een conversationele interface. Dit maakt het echter ook makkelijker om verkeerde intenties te vermoeden wanneer een programma iets ongewoons doet. Maar dat is veelal onterecht.
Bots in context
Met de huidige mogelijkheden kunnen we alleen applicaties bouwen die of nabootsen wat we al weten, of automatiseren wat we doen. Naarmate de technologie vordert, kunnen we snellere en geavanceerdere algoritmen creëren waarmee we steeds complexere taken kunnen uitvoeren. Toch lukt het nog steeds niet om een programma te maken die deze taken volledig automatiseert.
Data en machine learning vormen de sleutel tot het creëren van zelflerende systemen. Maar net als algoritmes werken deze maar binnen een zeer smal domein. Bijvoorbeeld een algoritme dat katten leert herkennen, kan niet zonder nieuwe kennis plotseling beslissen dat een van de foto’s niet een kat was, maar een hond, om vervolgens katten van honden te kunnen onderscheiden.
De volgende stap in de ontwikkeling zou een algoritme zijn dat dit wel kan. Google’s AlphaGo – de beste schaker ter wereld – komt hier langzaam bij in de buurt, echter het gaat hierbij wel nog steeds maar om één specifieke taak.
Beveiligingssystemen in werking stellen
Bots voor bedrijfsapplicaties (enterprise bots) worden gebouwd rondom specifieke use cases en werken in een zeer nauwe context. Als ze worden versterkt met bijvoorbeeld voorspellende analytics en machine learning, kunnen ze hun woordenschat verbeteren en meer commando’s begrijpen. Onze digitale assistent kan bijvoorbeeld niet alleen vergaderingen plannen, vrije dagen aanvragen en reizen boeken – ze kan ook inzicht geven in projectstatussen, voltooiingstijden voorspellen en nog veel meer. Ze leert ook van eerdere ervaringen dat woorden zoals ‘aanschaffen’, ‘kopen’ en ‘afnemen’ hetzelfde betekenen en dus dezelfde actie vereisen. Ze is intelligent, maar niet autonoom van mensen.
Bots drijven vooralsnog op menselijke input. Dus als je onjuiste gegevens invoert, krijg je foutief gedrag. Er moeten bij data-gedreven bots dus adequate beveiligingssystemen beschikbaar zijn, drempelvoorwaarden voor wanneer een algoritme een beslissing neemt en uitgebreide registratiesystemen die elke beslissing van algoritmen inzichtelijk maken.
De meeste bedrijfsoplossingen worden geleverd met standaard beveiligingen om bijvoorbeeld te voorkomen dat menselijke gebruikers fraude plegen. Alle acties die bedrijfssoftware onderneemt, voldoen aan regels die ervoor zorgen dat alles wat een impact kan hebben op het bedrijf, specifieke goedkeuringsprocedures doorloopt. Dit zou ook voor elk te implementeren AI-systeem moeten gelden; softwareleveranciers moeten duidelijk kunnen uitleggen hoe de algoritmen werken en uitgebreide informatie verstrekken over hoe beslissingen worden genomen.
Waar moeten we voor uitkijken?
Niet alle zorgen rondom AI zijn ongegrond. Het feit dat Google’s AlphaGo slechts 24 uur nodig had om de schaakregels te leren en vervolgens de beste systemen ter wereld verslaat, zorgt logischerwijs voor opgetrokken wenkbrauwen. En aangezien de huidige algoritmes beslissingen baseren op data en patronen, is het niet ondenkbaar dat een algoritme besluit dat alle mensen vijanden zijn. Echter, we kunnen software dan uitschakelen en aanpassen, net zoals bij de ‘criminele’ Facebook bots.
Terugkijkend is het feit dat de Facebook bots begonnen te communiceren in hun eigen taal helemaal niet zo onheilspellend. De bots kregen geen prikkels om in het Engels te communiceren en begonnen daarom (voor hen efficiëntere) termen te gebruiken die doen denken aan nullen en enen. Zij vervulden dus de geprogrammeerde richtlijn ‘efficiëntie’.
Net als bij elke technologie zetten we voortdurend extra veiligheidsmechanismen in en worden bots steeds veiliger naarmate de tijd vordert. In de tussentijd moeten CIO’s echter de voordelen en mogelijke risico’s van AI- en chatbottechnologieën afwegen, hoe klein deze risico’s ook mogen zijn.
Kortom: de angst voor malafide bots is op dit moment ongegrond, omdat de mogelijkheden van machine learning nog lang niet in de buurt komen van echte AI. Totdat we dichter bij het begrijpen van het menselijk brein komen, komen we nog niet eens in de buurt van het bouwen van systemen die de mensheid bedreigen. Dus zolang de topprestatie van bots het winnen van een schaakpartijtje blijft, kunnen we allemaal rustig blijven slapen.
Claus Jepsen is Chief Architect bij Unit4