Amazon ontdekt enorme hoeveelheid beelden van seksueel kindermisbruik in AI-trainingsdata

Het is Bloomberg dat er na onderzoek op wijst dat ze bij het Amerikaanse National Center for Missing and Exploited Children (NCMEC) in 2025 heel wat meer meldingen over CSAM (child sexual abuse material) binnen hebben gekregen dan in de jaren ervoor. In 2025 kwamen er meer dan één miljoen rapporten, terwijl dat er in 2024 nog maar 67.000 waren en in 2023 slechts 4.700. Het overgrote deel van de toename zou te wijten zijn aan AI-trainingsdata van Amazon.
Bedrijven die ergens beelden van kindermisbruik tegenkomen, zijn verplicht dit te melden aan het NCMEC en dat is dus wat Amazon ook deed. Het liet weten de beelden ontdekt te hebben in AI-trainingsdata, maar kon geen specifiekere details geven over hoe het de data precies in handen kreeg. Amazon had het enkel over “externe bronnen”, maar daar kan het NCMEC weinig mee aanvangen. Bij gelijkaardige meldingen van andere bedrijven werd vaak wél voldoende informatie gegeven om mee aan de slag te gaan.
Amazon geeft sussende reactie
Amazon erkent natuurlijk de ernst van de situatie, maar geeft via een woordvoerder tegelijk ook een sussende reactie. Zo wordt benadrukt dat de beelden in kwestie tijdig ontdekt werden en dat ze uit de trainingsdata verwijderd konden worden nog voor een AI-model ermee aan de slag kon gaan.
Voorts zou Amazon in deze kwestie bewust aan overrapportering doen. Dat betekent dat men liever een melding te veel dan een melding te weinig doet. De kans is dus reëel dat niet alle meldingen van Amazon effectief betrekking hebben op seksueel kindermisbruik, maar het is onduidelijk om welke aantallen het dan ongeveer zou gaan. Bovendien kan of wil Amazon geen verdere informatie geven over de herkomst van de beelden, waardoor het voor het NCMEC sowieso al moeilijk is om er iets mee aan te vangen.













