Achtergrond, Blog

[Blog] Artificiële intelligentie: wanneer nemen de machines het over?

Kunstmatige intelligentie groeit zienderogen. Wat kan je er al mee, wat met het juridische kader, en wanneer kan je zo’n AI nu echt slim noemen?

 
Iets meer dan een kwarteeuw geleden moest men nog een zegel op een envelop plakken en deze in een brievenbus stoppen om een brief te sturen. Er werd getelefoneerd, van thuis of van kantoor, en als een telefoontje dringend was onderweg van de een naar de ander, moest je stoppen bij een telefooncel. Muziek kocht je in een platenwinkel. En analisten bij banken en investeringsmaatschappijen tuurden uren naar veel verschillende documenten en controleerden tientallen informatiebronnen voordat ze hun beslissingen namen, in de hoop dat ze niets gemist hadden dat op een dure manier averechts zou kunnen werken.
 
Met dank aan computertechnologie, dit zijn allemaal dingen uit het verleden en je zult grote moeite hebben om je een gemiddelde dag voor te stellen zonder iets dat nu zo triviaal is als een smartphone. Auto’s kunnen zijn nu zelfrijdend, net als het vliegtuig boven ons hoofd. Dit alles uiteraard middel menselijke gegevensinvoer. Zo ook in de financiële wereld, waar kunstmatige intelligentie vooruitgang boekt binnen de investeringsgemeenschap.
 
Dus de voor de hand liggende volgende stap is dat machines daadwerkelijk voor zichzelf kunnen denken en dienovereenkomstig beslissingen kunnen nemen, in alle facetten van de samenleving. Iets om te omhelzen of om bang voor te zijn? Zullen machines ons binnenkort vertellen waar en wanneer we moeten investeren, of dat gewoon op eigen kracht doen?
 

Snelle vooruitgang

Kunstmatige intelligentie staat nog in de kinderschoenen, maar vooruitgang wordt met rasse schreden geboekt, sneller dan ooit tevoren. Momenteel zijn het slechts een paar zwaar kwantitatieve hedgefondsen en zeer vroege nieuwe fondsproducten die gebruikmaken van kunstmatige intelligentie. Om niet alleen veelvuldig gebruikt te worden, maar ook dominant te zijn, zal bewijs van superieure prestaties moeten geleverd worden wanneer de kosten in rekening worden gebracht, d.w.z. de netto-opbrengst. Het aanvaarden van AI als een ‘ding’ in de markt zal waarschijnlijk nog twee tot drie jaar duren. Eer AI een gebruikelijke keuze wordt zijn we waarschijnlijk zo’n vier tot zes jaar verder en de werkelijke dominantie is waarschijnlijk nog een decennium veraf – ervan uitgaande dat de marktdynamiek niet fundamenteel zal veranderen, en de kunstmatige intelligentie minder gunstig positioneert.
 
Zoals met elke technologische doorbraak, zullen er onvermijdelijk positieve en negatieve kanten zijn van kunstmatige intelligentie. Data science-technologie biedt de mogelijkheid om zeer grote gegevenssets herhaaldelijk en via veel meer dimensies te analyseren dan mensen kunnen. Bovendien biedt kunstmatige intelligentie de mogelijkheid om patronen en interessante correlaties te herkennen die menselijke analisten niet zouden vinden – ofwel omdat ze er teveel tijd voor nodig hebben of omdat ze andere vooroordelen hebben. Maar kunstmatige intelligentie is maar zo goed als degenen die het ontwerpen. Het is maar al te gemakkelijk om correlatie te vinden zonder oorzaak. Ook kan kunstmatige intelligentie op een dag zo bedreven raken in de omgang met de menselijke wereld dat het toegang heeft tot min of meer alle informatie die mensen hebben. Maar we zijn er nog niet helemaal, dus ontwerpers van kunstmatige intelligentie-oplossingen moeten nederig blijven over de beperkingen van wat ze aan het bouwen zijn. Verder is er een kans op kuddegedrag dat, als we niet voorzichtig zijn, kan resulteren in nieuwe interessante marktcrashes en algemene volatiliteit.
 

Terughoudendheid

Een zekere vrees is gebruikelijk bij elke technische innovatie, en het duurt dan ook een tijdje om alle betrokkenen te overtuigen van de voordelen. Over het algemeen zijn onze klanten er nog niet helemaal. De buy-side-industrie is technologiegedreven en is dat al decennia, maar blijft wel redelijk behoudsgezind. Maar we merken wel af en toe interesse, maar het is nog steeds op het niveau van ‘wat is dit ding en wat moet ik ermee?’
 
Zoals altijd is de allesoverheersende vraag of de nauwkeurigheid van kunstmatige intelligentie ten opzichte van menselijke intelligentie wetenschappelijk en correct kan worden gekwantificeerd. In specifieke discrete domeinen kan kunstmatige intelligentie nu al  aantoonbaar beter presteren dan mensen die een taak uitvoeren wanneer de uitkomst ervan wordt gemeten met duidelijk objectieve kwantitatieve maatstaven.
 

Wet en AI

Maar hoe zit het met de juridische kant van de dingen? Zijn er wettelijke beperkingen voor het implementeren van kunstmatige intelligentie, per sector, per land, per regio? Er is natuurlijk ook een juridisch kantje aan het verhaal. In feite zullen we hoogstwaarschijnlijk toezichthouders nodig hebben om AI’s over de schouder van andere AI’s te laten kijken om stabiele en eerlijke markten te garanderen.
 
Met juridische beperkingen komen de onvermijdelijke wettelijke hindernissen van aansprakelijkheid, al zal het nog wel een paar jaar duren voordat we klaar zijn om te overwegen om van AI’s rechtspersonen te maken, omdat zo’n kunstmatige intelligentie nergens aansprakelijk voor kan zijn. Degenen die de AI’s bezitten, zijn aansprakelijk. Een deel van de nieuwigheid van kunstmatige intelligentie is dat het in wezen een complexiteitsspel is – je past machines toe om een taak te doen die steeds complexer wordt. Als gevolg daarvan worden de oplossingen ondoorzichtiger.
 
Dus de eigenaars en/of producenten van een op artificiële intelligentie gebaseerde oplossing dragen enige afgeleide of expliciete aansprakelijkheid. Hoe kunnen ze dat doen als het ding dat de aansprakelijkheid creëert, steeds ondoorzichtiger wordt? Dat is een van de vragen waar ik en mijn onderzoeksteam mee worstelen; we denken dat we kunnen zien hoe we waarde kunnen toevoegen aan een aantal real-world uitdagingen in de buy-side investment management-industrie die we bedienen. Maar het is eigenlijk in veel opzichten een moeilijkere taak om geloofwaardige en informatieve manieren te vinden om de doos voor inspectie open te stellen om geruststelling te creëren, terwijl dingen eenvoudig blijven en mogelijk zelfs IP beschermen.
 
Dit is een ruimte waar we veel regelgeving zouden moeten verwachten. Investeringsgedrag zal worden onderzocht. Maar er zijn meer brede uitdagingen van dezelfde categorie met een voor de hand liggend voorbeeld: zelfrijdende auto’s – op een dag zal een zelfrijdende auto een keuze moten maken tussen het redden van de passagiers in de auto of iemand anders.
 

AI en hackers

Vandaag de dag worden hoort men vaak in het nieuws over steeds straffere prestaties bij het hacken door kwaadwillige bedrijven, organisaties en zelfs landen. Op dit knooppunt maak ik me vooral zorgen over het opzettelijk en op een subtiele manier modificeren van gegevens om kunstmatige intelligentie naar bepaald gedrag te drijven. De algoritmen kunnen worden gehackt, maar ik denk dat we ze goed kunnen beveiligen. Het echte risico is dus dat de kunstmatige intelligentie gewoon doet wat het zelf, en zijn operatoren, verwachten, maar dat de resultaten zijn nog steeds fout omdat er met de gegevens is geknoeid voordat deze de AI bereiken. In de ruimte voor investeringsbeheer zijn er geen goede excuses om lijnen niet te coderen, certificaten te gebruiken en in het algemeen alle externe interfaces te verstevigen om te voorkomen dat gegevens in rust of in beweging worden geknoeid.
 
Vandaag de dag is machine-learning het meest opwindende gebied in de informatica dat ook ook nog eens verschillende andere disciplines raakt. We hebben het al sinds de jaren ’50 over kunstmatige intelligentie en het niveau van optimisme is gekomen en gegaan. Maar nu hebben we toegang tot capabele en eenvoudig te gebruiken tools naast een bijna oneindige rekenkracht in de cloud. Als gevolg hiervan zien we nu eindelijk echte en nuttige toepassingen zoals zelfrijdende auto’s.
 
Binnen ‘kunstmatig leren’ is ‘deep learning’ waarschijnlijk het nieuwste en snelst groeiende gebied. In wezen betekent het gewoon dat je een reeks AI-hulpmiddelen gebruikt in een keten of hiërarchie waar de ene een andere voedt. Deze gelaagde benadering voegt extra diepte toe voor het opsporen van complexe patronen in gegevens. Google heeft veel geïnvesteerd in dit specifieke gebied – het lijkt erop dat ze heel sterk geloven in onbewaakt leren en deep learning willen gebruiken om voor het niet onderwijzen van hun AI moet doen te compenseren.
 

Turingtest

Dit brengt ons bij de onvermijdelijke vraag: wanneer zullen machines zelf kunnen denken? Dat vereist een heel duidelijke definitie van wat “zelf denken” echt betekent. De klassieke Turing-test is nauwelijks een indicatie dat een computersysteem voor zichzelf zou kunnen denken. We kunnen het als volgt beschouwen: een zelfdenkend computersysteem is niet langer doelgericht en kiest zijn eigen doel in het leven. Ray Kurzweil die het concept van de singulariteit heeft gepopulariseerd – het moment waarop computers het totale gecombineerde menselijke vermogen voor intelligentie op aarde overtreffen – voorspelt dat dit rond 2045 zal gebeuren.
 
Persoonlijk vind ik dat een heel interessante gedachte, maar het helpt ons in de tussentijd niet verder. We moeten ons echter niet zoveel zorgen maken over wanneer machines voor zichzelf kunnen denken, maar ons liever concentreren op het bouwen van AI’s voor gebruiksgevallen die belangrijk zijn voor mensen. Naarmate we deze systemen vervolmaken, verwacht ik dat we uiteindelijk een niveau zullen bereiken waarop we over het algemeen tevreden zijn met de uitkomst, maar we niet meer precies begrijpen precies waarom een ​​AI zich op een bepaalde manier gedroeg. Voor mij is intelligentie een opkomend fenomeen dat zich in verschillende contexten kan voordoen, maar altijd uit complexe netwerken.
 
Anders Kirkeby is Vice-President Enterprise Architecture bij SimCorp.

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business