Door er voor te zorgen dat de algoritmen ze niet meer aanbevelen, hoopt YouTube de verspreiding van complottheorieën tegen te gaan.


De aarde is plat, de Amerikaanse regering zat achter de aanslag van 9/11, de maanlanding is in scène gezet, de Illuminati … Je hebt deze complottheorieën ongetwijfeld al eens gehoord. Het internet is dan ook een broeihaard voor de meest gekke ideeën rond te spuien. Dat gebeurt ook nu weer volop rond de uitbraak van COVID-19. Het Franse persbureau AFP onderzocht recent nog enkele van de meest vergaande claims rond de ziekte, en kwam tot de conclusie dat er maar weinigen op enige waarheid berusten.

Je kan eens goed lachen met complottheorieën, niet iedereen doorziet ze altijd even snel. In essentie bevatten ze dan ook valse informatie met de bedoeling mensen er toch van te overtuigen. Het is dan ook de verantwoordelijkheid van websites en socialmediaplatformen om de verspreiding van misinformatie tegen te gaan. En het is geen geheim meer dat vooral die laatste het daar zeer moeilijk mee hebben.

YouTube kampt al jarenlang met het probleem dat het platform op grote schaal gebruikt wordt om complottheorieën te verspreiden. Het maakte het de samenzweerders ook een stuk makkelijker doordat de algoritmen deze video’s ook oppikte in de aanbevelingen. In januari 2019 kondigde YouTube eindelijk aan daar ook iets aan te willen doen. Het zou er voor gaan zorgen dat video met ‘valse en mogelijk misleidende informatie’ niet meer zouden aanbevolen worden.


Is dit ook gelukt?

Ongeveer een jaar later besloot The New York Times (met hulp van de University of Berkeley) eens te onderzoeken of YouTube zich ook aan deze missie weet te houden. Dat werd onderzocht op basis van 8 miljoen aanbevolen video’s bij nieuwsfragmenten op YouTube. De studie toont aan dat de maatregel inderdaad effectief lijkt te werken. Toen YouTube de maatregel aankondigde, kon ongeveer 8% van de aanbevolen video’s bij nieuwsberichten in de categorie ‘complottheorie’ geplaats worden.

In juni 2019 was dat nog maar een goede 2%. Nadat YouTube met trots aankondigde dat video’s met complottheorieën op een half jaar tijd 50% minder werden bekeken, ging het percentage opnieuw weer wat voorruit, om tegen februari dit jaar weer te dalen tot 2,5%.

Uiteraard blijft het een stukje subjectief om video’s te categoriseren als complottheorieën, waardoor de studie zeker geen perfecte representatie zal geven. Maar het toont toch aan dat YouTube er in geslaagd is om zijn algoritmen te verbeteren in het opsporen van fake news en misinformatie. Ook lijkt het te kunnen voorkomen dat de video’s die het als zodanig labelt gebruikers bereiken, ook al bepalen de algoritmen de aanbevelingen op basis van geschatte interesses. De strijd tegen misinformatie is daar nog zeker niet mee gestreden voor YouTube, maar het is in ieder geval al een kleine stap in de goede richting.