2021 m. pradžioje „Apple“ paskelbė funkcijų rinkinį, skirtą apsaugoti vaikus nuo seksualinio išnaudojimo internete. Kai kurie yra įrenginyje, pvz., tėvų kontrolė, neleidžianti vaikų paskyroms matyti ar siųsti seksualinių nuotraukų Messages, tačiau labiausiai prieštaringa priemonė buvo nuotraukų nuskaitymo sistema, kai jos buvo įkeltos į „iCloud“.
Sistema buvo skirta apsaugoti privatumą, lygindama tik unikalias vaizdų maišas, kad sužinotų, ar jos atitinka unikalias žinomos CSAM (Child Sexual Abuse Material) maišos. Vis dėlto, privatumo gynėjai ją griežtai kritikavo kaip sistemą, kurią galėtų išnaudoti, pavyzdžiui, valstybės veikėjai, verčiantys „Apple“ ieškoti disidentų atvaizdų. Kai kurie vaikų saugos ekspertai taip pat manė, kad sistema nėra pakankamai tvirta, nes gali atitikti tik vaizdus iš žinomos duomenų bazės, o ne naujai sukurtą CSAM.
„Apple“ atidėjo tą dalį savo vaikų saugos funkcijų, o praėjusį gruodį patvirtino, kad tyliai užmušė projektą. Vietoj to, „Apple“ teigimu, bendrovė daugiausia dėmesio skirs saugos funkcijoms, kurios veikia įrenginyje ir apsaugo vaikus nuo plėšrūnų, o ne kurs „iCloud“ vaizdus nuskaitančios sistemos.
Dabar „Apple“ gina šį sprendimą, pakartodama savo ankstesnį pagrindimą.
Vaikų saugos grupė „Heat Initiative“ teigia, kad ji organizuoja kampaniją, kuria siekiama spausti „Apple“ „aptikti, pranešti ir pašalinti“ vaikų seksualinės prievartos vaizdus iš „iCloud“. „Apple“ sureagavo į šią raidą pranešime „Wired“.. Bendrovė iš esmės pateikė tą patį argumentą, kaip ir praėjusį gruodį: CSAM yra baisus ir turi būti kovojama, tačiau nuskaitant internetines nuotraukas sukuriamos sistemos, kuriomis galima piktnaudžiauti ir pažeisti visų privatumą vartotojų.
Kiekvieno vartotojo privačiai saugomų „iCloud“ duomenų nuskaitymas sukurtų naujus grėsmės vektorius duomenų vagims rasti ir išnaudoti… Tai taip pat sukeltų galimybę nuslysti ir nuslysti pasekmes. Pavyzdžiui, vieno tipo turinio nuskaitymas atveria duris masiniam stebėjimui ir gali sukelti norą ieškoti kitų šifruotų pranešimų sistemose įvairių tipų turinio.
Erikas Neuenschwanderis, „Apple“ vartotojų privatumo ir vaikų saugos direktorius
Trumpai tariant, „Apple“ (vėl) pripažįsta, ką pasakė privatumo gynėjų bendruomenė, kai pirmą kartą buvo įdiegta „iCloud CSAM“ nuskaitymo funkcija. Paskelbta: Nėra jokio būdo priversti jį veikti, jei taip pat nesukuriama sistemų, kurios gali kelti pavojų saugumui ir privatumui Visi.
Tai tik naujausia raukšlė senose diskusijose dėl šifravimo. Vienintelis būdas visiškai apsaugoti vartotojų privatumą yra užšifruoti duomenis tokiu būdu niekas gali „pažvelgti“ į jį ne vartotojas ar numatytas gavėjas. Taip apsaugomi ir nekalti, ir nusikaltėliai, todėl tam, žinoma, prieštarauja teisėsaugos grupės, žvalgybos agentūroms ir kitoms organizacijoms, kurių kiekviena turi savo priežasčių, kodėl nori ieškoti vartotojo duomenis.
„Apple“ mano, kad labai svarbu užkirsti kelią CSAM ir kitoms prievartos prieš vaikus formoms, tačiau tai turi būti daroma taip, kad „Apple“ (ar kitoms grupėms) nebūtų galima peržiūrėti vartotojo duomenų. Nuogų vaizdų aptikimas įrenginyje ir slėpimas yra viena iš tokių funkcijų, kurią „Apple“ atnaujino OS per pastaruosius kelerius metus.