Apple difende ancora una volta le ragioni per cui ha abbandonato la scansione CSAM di iCloud

All’inizio del 2021, Apple ha annunciato una suite di funzionalità pensate per proteggere i bambini dallo sfruttamento sessuale online. Alcuni sono sul dispositivo, come il controllo genitori che impedisce agli account dei bambini di vedere o inviare foto di natura sessuale in Messaggi, ma la misura più controversa era un sistema per scansionare le foto mentre venivano caricate su iCloud.

Il sistema aveva lo scopo di proteggere la privacy confrontando solo gli hash univoci delle immagini per vedere se corrispondevano agli hash univoci del noto CSAM (Child Sexual Abuse Material). Tuttavia, è stato aspramente criticato dai difensori della privacy in quanto sistema che potrebbe essere sfruttato, ad esempio, da attori statali per costringere Apple a trovare immagini di dissidenti. Alcuni esperti di sicurezza infantile ritenevano inoltre che il sistema non fosse sufficientemente robusto, poiché poteva abbinare solo immagini provenienti da un database noto e non immagini CSAM di nuova creazione.

Apple ha ritardato quella parte delle sue funzionalità di sicurezza per bambini e poi, lo scorso dicembre, ha confermato di aver tranquillamente ucciso il progetto. Invece, ha affermato Apple, la società si concentrerà sulle funzionalità di sicurezza che funzionano sul dispositivo e proteggono i bambini dai predatori, piuttosto che sviluppare un sistema che scansiona le immagini di iCloud.

Ora Apple si trova a difendere quella decisione, ribadendo la logica precedente.

Un gruppo per la sicurezza dei bambini chiamato Heat Initiative afferma che sta organizzando una campagna per fare pressione su Apple affinché “rilevi, segnali e rimuova” le immagini di abusi sessuali su minori da iCloud. Apple ha risposto a questo sviluppo in una dichiarazione a Wired. La società ha sostanzialmente sostenuto la stessa argomentazione dello scorso dicembre: il CSAM è terribile e deve esserlo combattuta, ma la scansione di foto online crea sistemi di cui si può abusare per violare la privacy di tutti utenti.

La scansione dei dati iCloud archiviati privatamente di ogni utente creerebbe nuovi vettori di minaccia per i ladri di dati da trovare e sfruttare… Inietterebbe anche il potenziale per una china scivolosa di eventi non intenzionali conseguenze. La scansione di un tipo di contenuto, ad esempio, apre le porte alla sorveglianza di massa e potrebbe creare il desiderio di cercare altri sistemi di messaggistica crittografati attraverso tipi di contenuto.

Erik Neuenschwander, direttore della privacy degli utenti e della sicurezza dei bambini di Apple

In breve, Apple sta ammettendo (di nuovo) ciò che ha detto la comunità dei sostenitori della privacy quando è stata lanciata per la prima volta la funzionalità di scansione CSAM di iCloud annunciato: Non c’è modo di farlo funzionare senza creare anche sistemi che possano mettere in pericolo la sicurezza e la privacy tutti.

Questa è solo l’ultima novità nell’annoso dibattito sulla crittografia. L’unico modo per proteggere completamente la privacy degli utenti è crittografare i dati in questo modo nessuno può "esaminarlo" diversamente dall'utente o dal destinatario previsto. Questo protegge sia gli innocenti che i criminali, quindi è naturalmente osteggiato dalle forze dell'ordine, agenzie di intelligence e altre organizzazioni, ciascuna con le proprie ragioni per voler effettuare ricerche dati utente.

Apple ritiene che prevenire materiale pedopornografico e altre forme di abuso sui minori sia di fondamentale importanza, ma debba essere fatto in modo da non consentire ad Apple (o ad altri gruppi) in alcun modo di visualizzare i dati degli utenti. Il rilevamento e l'occultamento sul dispositivo di immagini di nudo è una di queste funzionalità che Apple ha ampliato con gli aggiornamenti del sistema operativo negli ultimi due anni.

  • Sep 02, 2023
  • 61
  • 0