Microsoft: Bing kan ontsporen tijdens (te) lange gesprekken
Microsoft lanceerde vorige week een beperkte bèta van zijn chatbot in Bing. Gebruikers kunnen via de chatbot vragen stellen aan de zoekmachine en krijgen daar een AI-gegenereerd antwoord op. De antwoorden zijn grotendeels afkomstig van de achterliggende GPT-technologie van OpenAI, maar er zijn wel de nodige aanpassingen gedaan om het meer Microsoft eigen te maken. Juist dat stukje uit zich nu in negatieve wijze; via verschillende media is naar buiten gekomen dat de chatbot gebruikers beledigt, tegen ze liegt en gebruikers emotioneel manipuleert.
Gebruiksdoeleinden van Bing-chatbot
In een blogpost reageert Microsoft op de toon die de chatbot tegen gebruikers aanslaat. Markant is dat de softwaregigant naar eigen zeggen verrast is dat de chatbot voor ‘entertainmentdoeleinden’ wordt gebruikt. Ook is het verbaasd dat gebruikers de AI-bot gebruiken voor een ‘algemene verkenning van de wereld’. De AI-tool van Microsoft werd hier niet voor ontwikkeld, zegt het bedrijf. Net zomin werd de chatbot ontwikkeld om lange gesprekken mee te voeren. De visie achter de chatbot, net als met ChatGPT, is dat je één of enkele vragen stelt om een specifiek antwoord te verkrijgen.
Een kort gesprek met de Bing-chatbot leidt alvast niet tot problemen. Gesprekken met 15 of meer vragen kunnen daarentegen wel tot problemen leiden, en ‘verwarren’ het AI-model. Langere gesprekken kunnen er zodoende toe leiden dat de chatbot repetitieve antwoorden geeft, die mogelijk niet in lijn liggen met de gewenste toon van de Bing-tool, meldt Microsoft.
Creativiteit versus accuraatheid
Microsoft stelt dat de chatbot niet zomaar een negatieve toon tegen gebruikers aanslaat. Tegelijk is het zich bewust van de beperking, die zich volgens het bedrijf voordoet als gebruikers veel ‘prompts’ insturen. Het bedrijf zegt continue te werken aan het verbeteren van de toon van zijn AI-tool en wil gebruikers meer opties geven om de juiste antwoorden in de juiste toonsoort te krijgen. Een van de opties die nu wordt onderzocht is een knop om de creativiteit van Bing te beperken en zodat Bing – met hulp van ChatGPT – meer accurate antwoorden op vragen kan geven. Onbekend is of het juist die vrijheid is die het de Bing-chatbot toelaat om gebruikers te beledigen. Accurater wordt het er in elk geval niet op.
Regelmatige chatbot updates
Hoe en wanneer Microsoft de toon van zijn chatbot nu werkelijk wil oplossen, blijft zodoende vaag. Het bedrijf zegt zowel op dagelijkse als wekelijkse basis updates uit te rollen voor zijn chatbot. Ook voedt Microsoft steeds meer data aan zijn AI-model om antwoorden accurater te maken. Het gaat dan onder meer om data van financiële rapporten, zodat Bing cijfers uit zulke rapporten accurater kan rapporteren. De hoeveelheid data die het model gevoegd krijgt moet met een factor vier gaan toenemen.