Googles robot-armen leren bij zonder mensenhulp


Jij kan vermoedelijk zomaar een object met een willekeurige vorm oppikken zonder daar diep over na te denken. Onbewust gebruik je je handen om succesvol dingen vast te nemen zonder ze te laten vallen, van een glas of een mes over een smartphone en een magazine tot een deurklink of een schop. Moesten robots gevoelens hebben, ze zouden je benijden omwille van dat talent. Een robothand kan in de regel alleen vastnemen wat het kent en met andere woorden ingeprogrammeerd is.
Zelflerende machines
Wie de recentste ontwikkelingen op het vlak van machine learning een beetje volgt, kan al raden waar dit verhaal naartoe gaat. Googleprogrammeurs kunnen onmogelijk alle mogelijke scenario’s en objecten vertalen naar code dus laten ze het over aan de robot-armen zelf om te ontdekken hoe heel dat ‘vastgrijpen’-gedoe werkt.
Daartoe plaatsten onderzoeker Sergey Levine en zijn collega’s veertien robot-armen met bijhorende handen in een kamer. Ze netwerkten de dingen en verbonden ze met een artificieel neuraal netwerk. Vervolgens moesten de handen grijpen in een doos met tal van verschillende voorwerpen in, van speelgoed over tape tot kopjes.
Geen echte mislukkingen
[related_article id=”174779″]Weinig verrassend boekten de armen aanvankelijk bitter weinig succes. Soms grepen ze wel iets vast niet omwille van ervaring maar dankzij puur geluk. Een neuraal netwerk kan dergelijk geluk echter vertalen naar kennis wanneer het voldoende gegevens ter beschikking heeft. Iedere grijppoging levert immers informatie op. Lukt het om iets vast te nemen, dan ziet het neurale netwerk welk object op welke manier werd gegrepen. Lukt het niet, dan ziet wordt het netwerk ook slimmer: het weet dan immers hoe je een bepaald voorwerp zeker niet moet vastpakken. Alle informatie van alle armen wordt verder onmiddellijk gedeeld, zodat geen enkele arm dubbel werk uitvoert.
De onderzoekers lieten de output van het neuraal netwerk terugvloeien naar de robot-armen zelf. Per poging die ze ondernamen werden ze iets slimmer. Na 800.000 pogingen klom de succesratio tot 82 procent. De armen en handen leken te begrijpen waarom ze bepaalde objecten konden grijpen en gingen steeds doelgerichter te werk. Zo duwden ze na een tijd een voorwerp uit de weg om vervolgens een ander voorwerp succesvol op te pakken: een succesvolle strategie die niemand bij Google manueel had geprogrammeerd.
Zonder mensen
[related_article id=”160903″]Het onderzoek toont nog maar eens de kracht van grote datavolumes en machine learning aan. Het uitzonderlijke aan deze research is de manier waarop er geen mensen aan het leerproces te pas kwamen. Ook Google’s beeldherkenningsalgoritme maakt gebruik van machine learning om zichzelf slimmer te maken. Het denkt bijvoorbeeld een hond te herkennen, en stelt zijn herkenningsalgoritme bij wanneer die detectie fout was. Of de door Google gepercipieerde hond ook echt een hond is, dat moeten mensen aangeven.
In het geval van de armen en handen wordt die menselijke stap overbodig. De robot kan immers zelf zien of zijn poging om iets vast te grijpen succesvol was of niet. De armen zijn uitgerust met camera’s waardoor de dingen zichzelf in het oog kunnen houden. Met de opgedane kennis in het achterhoofd probeert de robot zo te voorspellen welke bewegingen tot een succesvolle grijp-actie zullen leiden: iets wat Google een soort hand-oog coördinatie noemt. De wetenschappers willen hun aanpak nu uitbreiden naar ingewikkeldere grijpmethodes. Als de grote robot-opstand er binnenkort echt van komt en een Google-terminator grijpt je succesvol bij de keel, dan weet je waar die kille precisie vandaan komt.










