2021 elején az Apple bemutatott egy olyan funkciócsomagot, amely megvédi a gyermekeket az online szexuális kizsákmányolástól. Egyesek az eszközön vannak, például a szülői felügyelet, amely megakadályozza, hogy a gyermekfiókok szexuális fotókat lássanak vagy küldjenek Az Üzenetek alkalmazásban, de a legvitatottabb intézkedés egy olyan rendszer volt, amely a fényképeket az iCloudba feltöltött állapotban szkennelte.
A rendszer célja a magánélet védelme volt azáltal, hogy csak a képek egyedi kivonatait hasonlította össze, hogy megnézze, megegyeznek-e az ismert CSAM (Child Sexual Abuse Material) egyedi hash-eivel. Ennek ellenére az adatvédelmi jogvédők élesen kritizálták, mint egy olyan rendszert, amelyet kihasználhatnak például az állami szereplők, amelyek arra kényszerítik az Apple-t, hogy másként gondolkodókról készült képeket találjon. Egyes gyermekbiztonsági szakértők úgy vélték, hogy a rendszer nem elég robusztus, mivel csak egy ismert adatbázisból származó képeket tudott egyeztetni, az újonnan létrehozott CSAM-ot nem.
Az Apple elhalasztotta gyermekbiztonsági funkcióinak ezt a részét, majd tavaly decemberben megerősítette, hogy csendben megölte a projektet. Ehelyett az Apple azt mondta, hogy a vállalat az eszközön futó biztonsági funkciókra összpontosít, és megvédi a gyerekeket a ragadozóktól, nem pedig egy olyan rendszer kifejlesztésére, amely szkenneli az iCloud-képeket.
Az Apple most azon kapja magát, hogy megvédi ezt a döntést, és megismétli korábbi indokait.
A Heat Initiative nevű gyermekbiztonsági csoport azt állítja, hogy kampányt szervez, hogy nyomást gyakoroljon az Apple-re, hogy „felderítse, jelentse és távolítsa el” a gyermekek szexuális zaklatását ábrázoló képeket az iCloudból. Az Apple reagált erre a fejleményre a Wirednek adott nyilatkozatában. A cég lényegében ugyanazt az érvet hozta fel, mint tavaly decemberben: a CSAM szörnyű, és annak is kell lennie ellen küzdenek, de az online fényképek beolvasása olyan rendszereket hoz létre, amelyekkel visszaélve mindenki magánéletét megsértheti felhasználókat.
Minden felhasználó magántulajdonban tárolt iCloud-adatainak átvizsgálása új fenyegetési vektorokat hozna létre az adattolvajok számára megtalálni és kiaknázni… Ez a nem szándékos csúszós lejtő lehetőségét is magában hordozza következményei. Például egy típusú tartalom keresése megnyitja a kaput a tömeges megfigyelés előtt, és felkeltheti a vágyat, hogy más titkosított üzenetküldő rendszereket keressenek a tartalomtípusok között.
Erik Neuenschwander, az Apple felhasználói adatvédelmi és gyermekbiztonsági igazgatója
Röviden, az Apple (ismét) elismeri, amit az adatvédelmi jogvédő közösség mondott, amikor az iCloud CSAM szkennelési funkciója először megjelent. bejelentette: Egyszerűen nincs mód arra, hogy működjön anélkül, hogy olyan rendszereket hoznánk létre, amelyek veszélyeztethetik a biztonságot és a magánélet védelmét mindenki.
Ez csak a legújabb ránc az ősrégi titkosítási vitában. A felhasználók magánéletének teljes védelmének egyetlen módja az adatok titkosítása olyan módon senki más „belenézhet”, mint a felhasználó vagy a címzett. Ez az ártatlanokat és a bûnözõket egyaránt védi, így természetesen a rendvédelmi csoportok is ellenzik, hírszerző ügynökségek és más szervezetek, amelyek mindegyikének megvan a maga oka a keresésnek felhasználói adat.
Az Apple úgy véli, hogy a CSAM és a gyermekbántalmazás egyéb formáinak megelőzése kritikus fontosságú, de ezt úgy kell megtenni, hogy az Apple (vagy más csoportok) semmilyen módon ne tekintse meg a felhasználói adatokat. A meztelen képek eszközön történő észlelése és elrejtése az egyik ilyen funkció, amelyet az Apple operációs rendszer-frissítésekkel bővített az elmúlt néhány évben.