The good, the bad and the ugly side of algorithms: the ugly
Alsof bevooroordeelde algoritmen nog niet genoeg zijn, wordt AI soms ook aangewend voor niet zo koosjere doeleinden. Laatst brak de hel los toen Google-werknemers lucht kregen van ‘Project Maven’. Dat was een overeenkomst tussen Google en het Pentagon waarbij Google de Amerikaanse defensie van cruciale AI-technologie zou voorzien om haar drones te optimaliseren.
Verscheidene werknemers lieten echter hun ongenoegen over de deal blijken, en tekenden een petitie voor de opschorting ervan. Google gaf uiteindelijk toe en besloot het contract niet verder te zetten na 2019.
Maven
Google zal wel tot 2019 het Pentagon bijstaan met automatische beeldherkenning boven vijandig gebied, en zal zo haar algoritmen naar eigen zeggen inzetten voor louter defensieve doeleinden. Het Pentagon heeft voor Project Maven een budget van ruim 111 miljoen euro uitgetrokken en zet zo in op de geavanceerde patroonherkenning bij dronebeelden. Daarvoor beschikt Google ook over de gratis software ‘TensorFlow’, die kan ingezet worden om algoritmen te trainen in het herkennen van objecten.
De hoge resolutiebeelden die door onbemande vliegtuigen op grote hoogte worden gemaakt, worden door TensorFlow gescand om zo mogelijke militaire dreigingen te seinen. Menselijke analisten gaan met die gegevens aan de slag en onderzoeken die dreigingen dan verder. De technologie wordt naar verluidt al toegepast op het slagveld om gebieden in het Midden-Oosten te overzien die momenteel in handen zijn van de Islamitische Staat.
Wie is aansprakelijk?
Hoewel Google zoals vermeld uiteindelijk bezweek onder de druk en besloot het controversiële contract met het Pentagon niet te zullen vernieuwen, toont de kwestie aan dat AI voor militaire doeleinden een controversieel onderwerp is. Er rijzen immers maar al te veel vragen bij de toepassingen ervan.
Vooral omtrent aansprakelijkheid heerst er nog grote onduidelijkheid. Stel nu dat de algoritmen van een drone bevooroordeeld zijn en ‘per ongeluk’ verkeerde doelwitten aanwijzen? Dat kan grote menselijke rampen teweegbrengen. En waar eindigt de toepassing van AI voor militaire doeleinden?
Momenteel wordt TensorFlow enkel gebruikt voor detectie, maar wat als wordt beslist dat de technologie ook zal worden gebruikt om doelwitten te ‘neutraliseren’? Wie kan er dan aansprakelijk gesteld worden als het verkeerde doelwit geraakt wordt? De kunstmatige intelligentie of de persoon die die ontwikkeld heeft?
Controverse
Fei-Fei Li, AI-expert van Google, geeft toe dat militaire AI erg controversieel is: “Gewapende AI is een van de gevoeligste onderwerpen binnen AI – misschien wel het allergevoeligste.” Ook al benadrukt Google dat haar AI-software niet wordt ingezet voor offensieve doeleinden, vrezen critici binnen Google toch dat de stap naar drones die op eigen houtje beslissingen kunnen nemen en doelen uitschakelen, daarmee vervaarlijk dichtbij komt.
Het Amerikaanse leger beklemtoont dat ze kunstmatige intelligentie enkel gebruiken als aanvulling op menselijke intelligentie, maar daarmee kan er nog steeds veel misgaan op het vlak van computerondersteunde militaire besluitvorming. Menselijke dronebestuurders zouden wel eens te afhankelijk kunnen worden van gebrekkige computeranalyses, en zonder een extern toezichtsorgaan dreigen dergelijke fouten onopgemerkt voorbij te gaan.
Militaire pioniers
Vorig jaar spendeerde het Pentagon volgens The Guardian zo’n 7,4 miljard dollar aan kunstmatige intelligentie en dataverwerkingstechnologie. Het wijst op een trend waarbij internationale oorlogsvoering steeds meer op afstand en met steeds meer technologische snufjes uitgevoerd wordt, en voorspelt een prominentere positie voor AI binnen het leger.
Op de grootschalige conferentie ‘The Future of War’ (ja, er bestaat echt zoiets), die in April in Washington werd georganiseerd, werd duidelijk dat AI een prominente rol zou beginnen spelen binnen de nieuwste militaire technologieën. Zo luidde een belangrijk agendapunt voor de namiddag; “Is het Pentagon klaar voor AI?” Klaar zijn ze. Ze gebruiken de technologie al een tijdje. Of kunstmatige intelligentie bij de Amerikaanse – of überhaupt bij eender welke defensie – in goede handen is, is nog maar de vraag.