Microsoft komt met AI-tool om hallucinaties te corrigeren
De mogelijkheden van AI-tools worden met de dag groter, al zijn ze nog steeds niet helemaal betrouwbaar. Aanbieders waarschuwen er nog steeds voor dat AI-systemen het niet altijd bij het rechte eind hebben. Af en toe kunnen de taalmodellen ‘hallucineren’: ze verzinnen dan iets dat helemaal niet waar is. Microsoft ontwikkelde een nieuwe tool om dat tegen te gaan – en ook die tool maakt gebruik van AI-technologie.
Groundedness Detection
De nieuwe tool, “correction”, is een nieuw onderdeel van de Groundedness Detection-feature. Dat is een functie van Azure AI Content Safety die kan controleren of beweringen van het AI-systeem wel te staven vallen. Produceert een AI-tool hallucinaties? Dan zal de Groundedness Detection-feature dat kunnen opsporen. Door correctie aan de functie toe te voegen, kan Microsoft ervoor zorgen dat de output meteen gecorrigeerd wordt, zonder dat er menselijke tussenkomst vereist is.
Om de functie te doen werken moeten er eerst een aantal zaken in orde gebracht worden. Eerst en vooral moeten ontwikkelaars de functie aanzetten. De AI-applicatie dient daarnaast op de hoogte te zijn van “grounding documents”. Dat zijn de documenten waarop het AI-systeem zich baseert om te bepalen wat precies de waarheid is.
Spoort de Groundedness Detection hallucinaties op? Dan wordt er automatisch een nieuwe aanvraag naar het AI-systeem gestuurd. Dat zal, aan de hand van de grounding documents, controleren of een uitspraak klopt. Nadien kan het twee richtingen uitgaan. Klopt de uitspraak niet, maar staat er wel iets over in de groundingdocumenten? Dan wordt de uiting meteen aangepast. Kan het AI-systeem niets terugvinden? Dan wordt dat deel van de output volledig weggefilterd.
Evaluation
Naast een correctiefeature lanceert Microsoft ook ‘Evaluation’. Die tool moet ervoor zorgen dat gevoelige data niet in handen komen van AI-systemen. De AI-tool zal daarvoor content evalueren en aanduiden welke informatie gevoelig is. Alle gevoelige informatie wordt beveiligd tijdens het inferentieproces, waarin het AI-systeem een antwoord op je vraag probeert te vormen. Op die manier probeert Microsoft een antwoord te bieden op de privacyzorgen die de kop opsteken bij het gebruik van AI-systemen.