Militair gebruik ChatGPT plots niet meer uitgesloten
Het was The Intercept dat de wijziging opmerkte na een update aan de beleidspagina (op 10 januari), volgens OpenAI “om duidelijkere en service-specifieke begeleiding te bieden”. De AI-ontwikkelaar verbiedt wel nog het gebruik van ChatGPT en zijn Large Language Models (LLM’s) voor welk doeleind dan ook dat menselijke schade kan aanrichten. Het techbedrijf waarschuwt ook expliciet tegen het gebruik van zijn diensten voor “de ontwikkeling of het gebruik van wapens”.
Militaire toepassing ChatGPT open houden
Technologienieuwssite Engadget kon een reactie losweken bij OpenAI. “Ons beleid staat niet toe dat onze tools gebruikt worden om mensen te raken, wapens te ontwikkelen, communicatie te surveilleren of eigendommen te beschadigen. Er zijn echter wel onderdelen van nationale veiligheid die stroken met onze missie. Zo werken we bijvoorbeeld al samen met DARPA (de technologietak van het Amerikaanse leger, nvdr.) voor de creatie van nieuwe tools om de cybersecurity te verbeteren. Die kan de opensourcesoftware beveiligen waarvan kritieke infrastructuur en industrieën afhankelijk zijn”, klinkt het.
“Het was ons niet duidelijk of die goedaardige doeleinden toegestaan zouden zijn onder de noemer ‘militaire doeleinden’ in vorige versies van ons gebruiksbeleid. Ons doel met de update is dus om duidelijkheid te brengen, alsook de mogelijkheid om discussies als deze te voeren”, besluit een woordvoerder van OpenAI.
Lucratieve contracten
Hoewel het op dit moment nog niet duidelijk is welke gevolgen de beleidsupdate in de praktijk kan hebben, is de aanpassing wellicht niet toevallig. Militaire agentschappen wereldwijd tonen grote interesse in het implementeren van artificiële intelligentie. Bij het bepalen van doelwitten in de oorlog in Gaza zou ook al AI gebruikt zijn. Gezien de lucratieve deals die techbedrijven via Defensie kunnen binnenhalen, lijkt het ondenkbaar dat de Amerikaanse Defensie een deal op het oog heeft.