Nieuws

Ex-hoofdwetenschapper OpenAI richt bedrijf op voor veilige AI

© NanoStockk / iStock
Met Safe Superintelligence Inc. wil Ilya Sutskever aan veilige AI bouwen, zonder last van investeerders die andere doelen op oog hebben.

Een kleine maand geleden zag OpenAI, het bedrijf achter ChatGPT, zijn hoofdwetenschapper vertrekken. Ilya Sutskever was een van de mede-oprichters van het AI-bedrijf, en zette zich daar vooral in voor veilige AI. Ook in het verloop van zijn loopbaan zal Sutskever zich daarvoor inzetten.

De oud-OpenAI-wetenschapper start namelijk en nieuw bedrijf op, samen met ex-OpenAI’er Daniel Levy. Daar zal hij het werk verder zetten waarvoor hij zich bij OpenAI inzette. Het bedrijf heet, nietsverhullend, ‘Safe Superintelligence Inc’, kortweg SSI. De bedoeling is uiteindelijk om een AI-product op de markt te zetten met de suggestieve naam ‘Safe Superintelligence’.

Uitgelicht artikel OpenAI Hoofdwetenschapper Ilya Sutskever verlaat OpenAI

Singulaire focus

Het ontwikkelen van zo’n veilige superintelligentie wordt dan ook de enige focus van het bedrijf, dat voorlopig uit slechts drie werknemers lijkt te bestaan. Dat singulaire doel moet onenigheid zoals bij OpenAI voorkomen: niet alle investeerders en teamleden waren het daar eens over hoe zo’n veilige AI precies ontworpen moet worden. Door het bedrijf zo expliciet op één doel te richten, wil Sutskever dat voorkomen.

Wie de investeerders zijn is echter niet duidelijk. Momenteel lijkt het bedrijf drie werknemers te tellen, en dat is het dan ook. Niet alleen Sutskever, maar ook oud-OpenAI’er Daniel Levy zit mee in het bedrijf. Daniel Gross, die aan het hoofd van AI-projecten stond bij Apple van 2013 tot 2017, zit ook mee aan tafel. Het is de bedoeling dat SSI verder een team samenstelt van “’s werelds beste ingenieurs en onderzoekers, met een toegewijde focus op SSI en niets anders”. Kantoren komen er in Palo Alto, Californië, en Tel Aviv, Israël.

Veiligheid als hoogste goed

SSI laat wel blijken dat de ontwikkeling van het product wat langer kan duren dan anders. Dat komt door de toewijding aan veiligheid. SSI zou de technologie zo snel mogelijk willen uitbreiden, maar niet als de veiligheid daardoor in het gedrang komt. Het bedrijf focust zich dan ook niet op productcyclussen en regelmatige updates: dat kan pas als de veiligheid 100% gegarandeerd blijft.

Dat lijkt een beetje een steek te zijn richting OpenAI, waar heel wat kritiek kwam op de snelle ontwikkeling van systemen, maar vooral het gebrek aan veiligheid daarin. Inmiddels heeft OpenAI een Safety en Security Committee op dat alles in goede banen te leiden.

aiIlya SutskeverOpenAISafe Superintelligence

Gerelateerde artikelen

Volg ons

Korting bij Dreame!

Korting bij Dreame!

Bekijk de deals