ChatGPT Search blijkt zeer gevoelig voor manipulatie
Volgens een onderzoek van The Guardian kan de zoekfunctionaliteit eenvoudig worden beïnvloed door zogenaamde prompt-injecties. Deze techniek maakt gebruik van verborgen instructies op webpagina’s om de antwoorden van ChatGPT te manipuleren. Het resultaat kan variëren van valse promoties van producten tot het verspreiden van schadelijke code.
Concreet zit de kwetsbaarheid in de manier waarop ChatGPT webpagina’s samenvat. Verborgen instructies op die pagina’s kunnen ervoor zorgen dat het AI-model ongewenste of incorrecte informatie presenteert.
Risico’s voor gebruikers ChatGPT Search
De risico’s bij het gebruik van ChatGPT Search zijn er ook naar. Zo kunnen kwaadwillenden de functionaliteit misbruiken om schadelijke code te verspreiden. Dat gebeurde eerder waarbij een gebruiker van ChatGPT programmeerhulp gevraagd had aan het platform. De aangeleverde code stal inloggegevens en deed 2.500 dollar aan cryptovaluta verdwijnen.
Securityexperts benadrukken dat het risico bij het gebruik van large language models (LLM’s) al langer bestaat en er niet minder op wordt. Integendeel. Specialisten waarschuwen gebruikers om de gegenereerde antwoorden altijd met de nodige voorzichtigheid en een kritisch oog te bekijken.
Start van AI-zoekmachines
Ondanks de risico’s zien experts ChatGPT Search wel als een nieuwe, belangrijke stap in de ontwikkeling van op AI gebaseerde zoekmachines. Ze verwachten dat de beveiliging van dergelijke technologie in de toekomst zal verbeteren. OpenAI heeft niet gereageerd op de bevindingen van The Guardian.