Grok blokkeerde resultaten rond desinformatie door Trump en Musk

Het waren gebruikers van Grok die dat konden vaststellen. Nadien kwam Igor Babuschkin, Head of Engineering bij xAI met de verklaring dat een medewerker zomaar de systeemprompt van Grok had aangepast, zonder dat die daar de toestemming voor had.
De systeemprompt omvat de interne regels die bepalen hoe Grok op vragen reageert. En het gedrag van de chatbot zou dus het gevolg zijn van een stiekeme wijziging door een voormalige OpenAI-medewerker bij xAI. Babuschkin benadrukte op X dat de wijziging niet in lijn was met de waarden van xAI en werd teruggedraaid.
Grok voor “maximale waarheid”
Musk positioneert Grok als een AI die “maximaal naar de waarheid zoekt”, met als missie om “het universum te begrijpen”. Sinds de release van het Grok-3-model heeft de chatbot echter uitspraken gedaan waarin hij onder andere beweerde dat Trump, Musk en vice-president JD Vance de meeste schade aan Amerika berokkenen. Eerder moesten Musks ingenieurs zelfs ingrijpen om te voorkomen dat Grok zou suggereren dat Musk en Trump de doodstraf verdienen.
De kwestie onderstreept de voortdurende spanning rond AI en politieke beïnvloeding, waarbij zowel openheid als moderatie een rol spelen in hoe AI-systemen informatie filteren.