Apple to scan iPhones for child sex abuse images

Apple har tillkännagivit ett nytt system för att skanna amerikanska kunders iPhones efter material som innehåller sexuella övergrepp mot barn (CSAM). Tekniken kommer att jämföra bilder med en databas av kända CSAM-hashar innan de lagras i iCloud Photos, och vid en matchning granskas det manuellt och rapporteras till brottsbekämpande myndigheter. Systemet, som ska släppas senare i år med nya versioner av iOS och iPadOS, använder kryptografi för att begränsa spridningen av CSAM online samtidigt som användarnas integritet skyddas. Trots Apples försäkringar om hög noggrannhet och integritetsfördelar, uttrycker integritetsexperter oro för att tekniken kan utvidgas för att skanna efter annat förbjudet innehåll eller politiskt tal, särskilt av auktoritära regeringar. Apple hävdar att systemet har en extremt hög noggrannhet och en minimal risk för felaktig flaggning, och att företaget endast får kännedom om användares foton om en samling känd CSAM hittas.