Apple
Apple stäms för beslut att inte införa system mot barnpornografiskt material - NYT (Finwire)
Teknikjätten Apple stäms för att bolaget valt att inte implementera ett system som skulle skannat iCloud-foton efter material som innehåller sexuella övergrepp mot barn, skriver New York Times.
Stämningen hävdar att Apple inte gör tillräckligt för att förhindra spridningen av sådant material, vilket tvingar offren att återuppleva sina trauman. Apple aviserade ett nytt system som skulle skydda barn, men misslyckas med att implementera detta.
Systemet tillkännagavs systemet första gången 2021 och förklarade att det skulle använda sig av digitala signaturer från National Center for Missing and Exploited Childen och andra grupper för att upptäcka känt CSAM-innehåll i användarnas iCloud-bibliotek.
Enligt New York Times stäms bolaget av en privatperson vars släkting antastade henne som spädbarn och sedan delade bilder av henne online.
Nils Lolk
Nyhetsbyrån Finwire