Apple je predstavio novi sistem u borbi protiv dječje pornografije. Na svojim serverima, ali i na uređajima korisnika. To je sistem za pronalaženje slika seksualnog zlostavljanja djece (CSAM) pohranjenih na servisu iCloud u SAD -u.
Novi sistem će detektovati CSAM na uređajima korisnika u SAD-u koristeći tzv. kriptografski hashing. Riječ je o pretvaranju slika u jedinstvene brojeve koji korespondiraju s određenom slikom. To je tehnologija koja traži podudaranja sa već poznatim materijalom seksualnog iskorištavanja djece.
Sistem funkcioniše tako što upoređuje fotografije sa bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i eksploatisanu djecu (NCMEC) i druge organizacije za zaštitu djece - piše index.hr
Apple tvrdi da je ovaj sistem privatniji za korisnike od drugih načina uklanjanja ilegalnog sadržaja dječije pornografije. On koristi sofisticiraniju kriptografiju na Appleovim serverima i na uređajima korisnika.
Appleova najava da će skenirati američke iPhone telefone za fotografije seksualnog zlostavljanja djece naišla je na odobrenje organizacija za zaštitu djece, ali i zabrinutost da bi vlade mogle zloupotrijebiti tehnologiju za praćenje svojih građana.