Apple ponownie broni powodów rezygnacji ze skanowania iCloud CSAM

Na początku 2021 roku Apple ogłosiło pakiet funkcji mających chronić dzieci przed wykorzystywaniem seksualnym w Internecie. Niektóre z nich są dostępne na urządzeniu, np. kontrola rodzicielska, która uniemożliwia kontom dzieci oglądanie lub wysyłanie zdjęć o charakterze seksualnym w Wiadomościach, ale najbardziej kontrowersyjnym rozwiązaniem był system skanowania zdjęć podczas przesyłania ich do iCloud.

System miał chronić prywatność poprzez porównywanie jedynie unikalnych skrótów obrazów, aby sprawdzić, czy pasują one do unikalnych skrótów znanych CSAM (materiałów przedstawiających wykorzystywanie seksualne dzieci). Mimo to został ostro skrytykowany przez zwolenników prywatności jako system, który mógłby zostać wykorzystany na przykład przez podmioty państwowe, zmuszające Apple do wyszukiwania zdjęć dysydentów. Niektórzy eksperci ds. bezpieczeństwa dzieci również uważali, że system nie jest wystarczająco solidny, ponieważ może dopasowywać jedynie obrazy ze znanej bazy danych, a nie nowo utworzonego CSAM.

Apple opóźniło wprowadzenie tej części funkcji bezpieczeństwa dzieci, a następnie w grudniu ubiegłego roku potwierdził, że po cichu zabił projekt. Zamiast tego, jak powiedział Apple, firma skoncentruje się na funkcjach bezpieczeństwa działających na urządzeniu i chroniących dzieci przed drapieżnikami, zamiast opracowywać system skanujący obrazy iCloud.

Teraz Apple broni tej decyzji, powtarzając swoje poprzednie uzasadnienie.

Grupa zajmująca się ochroną dzieci o nazwie Heat Initiative twierdzi, że organizuje kampanię mającą na celu wywarcie nacisku na Apple, aby „wykrywał, zgłaszał i usuwał” z iCloud obrazy przedstawiające wykorzystywanie seksualne dzieci. Apple zareagowało na ten rozwój w oświadczeniu dla Wired. Firma zasadniczo przedstawiła ten sam argument, co w grudniu ubiegłego roku: CSAM jest okropny i musi taki być zwalczane, ale skanowanie zdjęć w Internecie tworzy systemy, które można wykorzystać w celu naruszenia prywatności wszystkich osób użytkownicy.

Skanowanie prywatnie przechowywanych danych każdego użytkownika w usłudze iCloud stworzyłoby nowe wektory zagrożeń dla złodziei danych znaleźć i wykorzystać… Mogłoby to również spowodować niezamierzone pogorszenie sytuacji konsekwencje. Na przykład skanowanie w poszukiwaniu jednego rodzaju treści otwiera drzwi do masowego nadzoru i może wywołać potrzebę przeszukiwania innych zaszyfrowanych systemów przesyłania wiadomości pod kątem różnych typów treści.

Erik Neuenschwander, dyrektor Apple ds. prywatności użytkowników i bezpieczeństwa dzieci

Krótko mówiąc, Apple (ponownie) przyznaje, co powiedziała społeczność obrońców prywatności, gdy po raz pierwszy wprowadzono funkcję skanowania iCloud CSAM ogłoszono: Po prostu nie da się tego uruchomić bez stworzenia systemów, które mogą zagrozić bezpieczeństwu i prywatności wszyscy.

To tylko najnowszy szczegół w odwiecznej debacie na temat szyfrowania. Jedynym sposobem na pełną ochronę prywatności użytkowników jest takie szyfrowanie danych nikt może „zajrzeć” do niego w inny sposób niż użytkownik lub zamierzony odbiorca. Chroni to zarówno niewinnych, jak i przestępców, więc naturalnie sprzeciwiają się temu grupy organów ścigania, agencje wywiadowcze i inne organizacje, z których każda ma swoje własne powody, aby chcieć przeszukiwać dane użytkownika.

Apple uważa, że ​​zapobieganie CSAM i innym formom wykorzystywania dzieci jest niezwykle ważne, należy jednak postępować w sposób uniemożliwiający Apple (lub innym grupom) w jakikolwiek sposób przeglądanie danych użytkowników. Wykrywanie i ukrywanie nagich zdjęć na urządzeniu to jedna z takich funkcji, którą Apple rozwijał w ciągu ostatnich kilku lat poprzez aktualizacje systemu operacyjnego.

  • Sep 02, 2023
  • 39
  • 0