Ex-hoofdwetenschapper OpenAI richt bedrijf op voor veilige AI
Een kleine maand geleden zag OpenAI, het bedrijf achter ChatGPT, zijn hoofdwetenschapper vertrekken. Ilya Sutskever was een van de mede-oprichters van het AI-bedrijf, en zette zich daar vooral in voor veilige AI. Ook in het verloop van zijn loopbaan zal Sutskever zich daarvoor inzetten.
De oud-OpenAI-wetenschapper start namelijk en nieuw bedrijf op, samen met ex-OpenAI’er Daniel Levy. Daar zal hij het werk verder zetten waarvoor hij zich bij OpenAI inzette. Het bedrijf heet, nietsverhullend, ‘Safe Superintelligence Inc’, kortweg SSI. De bedoeling is uiteindelijk om een AI-product op de markt te zetten met de suggestieve naam ‘Safe Superintelligence’.
Singulaire focus
Het ontwikkelen van zo’n veilige superintelligentie wordt dan ook de enige focus van het bedrijf, dat voorlopig uit slechts drie werknemers lijkt te bestaan. Dat singulaire doel moet onenigheid zoals bij OpenAI voorkomen: niet alle investeerders en teamleden waren het daar eens over hoe zo’n veilige AI precies ontworpen moet worden. Door het bedrijf zo expliciet op één doel te richten, wil Sutskever dat voorkomen.
Wie de investeerders zijn is echter niet duidelijk. Momenteel lijkt het bedrijf drie werknemers te tellen, en dat is het dan ook. Niet alleen Sutskever, maar ook oud-OpenAI’er Daniel Levy zit mee in het bedrijf. Daniel Gross, die aan het hoofd van AI-projecten stond bij Apple van 2013 tot 2017, zit ook mee aan tafel. Het is de bedoeling dat SSI verder een team samenstelt van “’s werelds beste ingenieurs en onderzoekers, met een toegewijde focus op SSI en niets anders”. Kantoren komen er in Palo Alto, Californië, en Tel Aviv, Israël.
Veiligheid als hoogste goed
SSI laat wel blijken dat de ontwikkeling van het product wat langer kan duren dan anders. Dat komt door de toewijding aan veiligheid. SSI zou de technologie zo snel mogelijk willen uitbreiden, maar niet als de veiligheid daardoor in het gedrang komt. Het bedrijf focust zich dan ook niet op productcyclussen en regelmatige updates: dat kan pas als de veiligheid 100% gegarandeerd blijft.
Dat lijkt een beetje een steek te zijn richting OpenAI, waar heel wat kritiek kwam op de snelle ontwikkeling van systemen, maar vooral het gebrek aan veiligheid daarin. Inmiddels heeft OpenAI een Safety en Security Committee op dat alles in goede banen te leiden.