Tidlig i 2021 kunngjorde Apple en rekke funksjoner ment å beskytte barn mot å bli seksuelt utnyttet på nettet. Noen er på enheten, som foreldrekontroll som forhindrer barnekontoer fra å se eller sende seksuelle bilder i Meldinger, men det mest kontroversielle tiltaket var et system for å skanne bilder etter hvert som de ble lastet opp til iCloud.
Systemet var ment å beskytte personvernet ved kun å sammenligne unike hashes av bilder for å se om de samsvarte med de unike hashene til kjent CSAM (Child Sexual Abuse Material). Likevel ble det kraftig kritisert av personvernforkjempere som et system som kunne utnyttes, for eksempel av statlige aktører som tvang Apple til å finne bilder av dissidenter. Noen barnesikkerhetseksperter mente også at systemet ikke var robust nok, da det bare kunne matche bilder fra en kjent database og ikke nyopprettet CSAM.
Apple forsinket den delen av barnesikkerhetsfunksjonene, og i desember i fjor, bekreftet at det i det stille hadde drept prosjektet. I stedet, sa Apple, vil selskapet fokusere på sikkerhetsfunksjoner som kjører på enheten og beskytter barn mot rovdyr, i stedet for å utvikle et system som skanner iCloud-bilder.
Nå finner Apple seg i å forsvare den avgjørelsen, og gjentar sin tidligere begrunnelse.
En barnesikkerhetsgruppe kalt Heat Initiative sier at de organiserer en kampanje for å presse Apple til å "oppdage, rapportere og fjerne" bilder av seksuelle overgrep mot barn fra iCloud. Apple reagerte på denne utviklingen i en uttalelse til Wired. Selskapet kom med det samme argumentet det gjorde i desember i fjor: CSAM er forferdelig og må være det bekjempet, men skanning av bilder på nettet skaper systemer som kan misbrukes til å krenke personvernet til alle brukere.
Skanning av hver brukers privat lagrede iCloud-data vil skape nye trusselvektorer for datatyver å finne og utnytte... Det ville også injisere potensialet for en glatt skråning av utilsiktede konsekvenser. Skanning etter én type innhold, for eksempel, åpner døren for bulkovervåking og kan skape et ønske om å søke i andre krypterte meldingssystemer på tvers av innholdstyper.
Erik Neuenschwander, Apples direktør for brukerpersonvern og barnesikkerhet
Kort sagt, Apple innrømmer (igjen) hva personvernadvokatsamfunnet sa da iCloud CSAM-skannefunksjonen først var annonsert: Det er bare ingen måte å få det til å fungere uten også å lage systemer som kan sette sikkerheten og personvernet i fare alle.
Dette er bare den siste rynken i den eldgamle krypteringsdebatten. Den eneste måten å beskytte brukernes personvern fullt ut er å kryptere data på en måte som ingen kan "se på" det andre enn brukeren eller den tiltenkte mottakeren. Dette beskytter både uskyldige og kriminelle, så det blir naturlig nok motarbeidet av rettshåndhevelsesgrupper, etterretningsbyråer, og andre organisasjoner som har hver sine grunner til å ville søke gjennom brukerdata.
Apple mener at det å forhindre CSAM og andre former for barnemishandling er kritisk viktig, men må gjøres på en måte som ikke tillater Apple (eller andre grupper) noen måte å se brukerdata. Deteksjon og skjuling av nakenbilder på enheten er en slik funksjon som Apple har utvidet med OS-oppdateringer de siste par årene.