Onderzoekers leren AI om gedachten bloot te leggen
Wetenschappers aan het Massachussetts Institute for Technology hebben een methode ontwikkelt om de redenering van een neuraal netwerk vast te leggen. De gedachtegang van een dergelijk artificeel intelligent systeem is op dit moment grotendeels een zwart gat voor ontwikkelaars.
Zwart gat
Neurale netwerken die kunstmatige intelligentie mogelijk maken, zijn opgebouwd op basis van de structuur van het menselijk brein. Via het lezen en analyseren van enorme databases leert een algoritme bijvoorbeeld objecten op een foto te herkennen, en bouwt het een netwerk van digitale “neuronen” uit die helpen om tot een accurate beslissing te komen. Dat netwerk is na een tijdje echter zo complex, dat het onmogelijk te volgen is hoe een algoritme bij een bepaald antwoord belandt. Dit is vooral bij tekstgebaseerde systemen een probleem.
[related_article id=”187630″]Een recente krachttoer van Google is exemplarisch voor de situatie. Het bedrijf slaagde erin om verschillende AI’s een eigen encryptiemethode te laten ontwikkelen, maar omdat ze geen inzicht hebben in de gedachtegang van de artificiële machines, kunnen ze de encryptiemethode niet repliceren. Voor sommige applicaties is het waarschijnlijk niet nodig om te kunnen kijken naar waarom een computer een bepaald oordeel velde, maar in een domein als geneeskunde is dat wel cruciaal.Twee is beter dan een
Het MIT heeft een manier ontwikkelt om toch de redenering van een neuraal netwerk te achterhalen. Om het beslissingsproces bloot te leggen, splitsten de onderzoekers een netwerk op in twee modules, eentje dat de data verwerkt en eentje dat het oordeel velt. Beide modules worden op dezelfde manier getraind als een standaard neuraal netwerk, maar de gedeelde aanpak maakt het mogelijk om meer inzicht te verkrijgen in hoe het netwerk geredeneerd heeft, zoals de wetenschappers in een paper demonstreren.