2021 की शुरुआत में, Apple ने बच्चों को ऑनलाइन यौन शोषण से बचाने के लिए सुविधाओं के एक सूट की घोषणा की। कुछ ऑन-डिवाइस हैं, जैसे माता-पिता के नियंत्रण जो बच्चों के खातों को यौन तस्वीरें देखने या भेजने से रोकते हैं संदेशों में, लेकिन सबसे विवादास्पद उपाय फ़ोटो को स्कैन करने की एक प्रणाली थी क्योंकि उन्हें iCloud पर अपलोड किया गया था।
सिस्टम का उद्देश्य केवल छवियों के अद्वितीय हैश की तुलना करके गोपनीयता की रक्षा करना था, यह देखने के लिए कि क्या वे ज्ञात सीएसएएम (बाल यौन दुर्व्यवहार सामग्री) के अद्वितीय हैश से मेल खाते हैं। फिर भी, गोपनीयता समर्थकों द्वारा एक ऐसी प्रणाली के रूप में इसकी चौतरफा आलोचना की गई जिसका शोषण किया जा सकता है, उदाहरण के लिए, राज्य अभिनेताओं द्वारा Apple को असंतुष्टों की छवियां खोजने के लिए मजबूर करना। कुछ बाल सुरक्षा विशेषज्ञों ने यह भी सोचा कि सिस्टम पर्याप्त मजबूत नहीं था, क्योंकि यह केवल ज्ञात डेटाबेस से छवियों का मिलान कर सकता था, न कि नव निर्मित सीएसएएम से।
Apple ने अपने बाल सुरक्षा सुविधाओं के उस हिस्से में देरी की, और फिर पिछले दिसंबर में, पुष्टि की गई कि इसने परियोजना को चुपचाप ख़त्म कर दिया था
. इसके बजाय, Apple ने कहा, कंपनी उन सुरक्षा सुविधाओं पर ध्यान केंद्रित करेगी जो डिवाइस पर चलती हैं और बच्चों को शिकारियों से बचाती हैं, बजाय इसके कि एक ऐसी प्रणाली विकसित की जाए जो iCloud छवियों को स्कैन करे।अब Apple अपने पिछले तर्क को दोहराते हुए, उस निर्णय का बचाव कर रहा है।
हीट इनिशिएटिव नामक एक बाल सुरक्षा समूह का कहना है कि वह Apple पर iCloud से बाल यौन शोषण की छवि का "पता लगाने, रिपोर्ट करने और हटाने" के लिए दबाव डालने के लिए एक अभियान का आयोजन कर रहा है। Apple ने इस विकास पर प्रतिक्रिया दी वायर्ड को दिए एक बयान में. कंपनी ने अनिवार्य रूप से वही तर्क दिया जो उसने पिछले दिसंबर में दिया था: सीएसएएम भयानक है और होना ही चाहिए मुकाबला किया गया, लेकिन ऑनलाइन फ़ोटो स्कैन करने से ऐसी प्रणालियाँ बनती हैं जिनका दुरुपयोग करके सभी की गोपनीयता का उल्लंघन किया जा सकता है उपयोगकर्ता.
प्रत्येक उपयोगकर्ता के निजी तौर पर संग्रहीत iCloud डेटा को स्कैन करने से डेटा चोरों के लिए नए खतरे वाले वेक्टर तैयार होंगे खोजने और उसका दोहन करने के लिए...यह अनायास ही फिसलन भरी ढलान की संभावना भी पैदा कर देगा नतीजे। उदाहरण के लिए, एक प्रकार की सामग्री को स्कैन करने से बड़े पैमाने पर निगरानी का द्वार खुल जाता है और सामग्री प्रकारों में अन्य एन्क्रिप्टेड मैसेजिंग सिस्टम को खोजने की इच्छा पैदा हो सकती है।
एरिक न्युएन्सच्वांडर, एप्पल के उपयोगकर्ता गोपनीयता और बाल सुरक्षा निदेशक
संक्षेप में, Apple (फिर से) वही स्वीकार कर रहा है जो गोपनीयता अधिवक्ता समुदाय ने तब कहा था जब iCloud CSAM स्कैनिंग सुविधा पहली बार आई थी घोषणा की गई: ऐसे सिस्टम बनाए बिना इसे कार्यान्वित करने का कोई तरीका नहीं है जो सुरक्षा और गोपनीयता को खतरे में डाल सकता है सब लोग।
यह सदियों पुरानी एन्क्रिप्शन बहस में नवीनतम समस्या है। उपयोगकर्ताओं की गोपनीयता को पूरी तरह से सुरक्षित रखने का एकमात्र तरीका डेटा को एन्क्रिप्ट करना है कोई नहीं उपयोगकर्ता या उनके इच्छित प्राप्तकर्ता के अलावा अन्य लोग भी इस पर "देख" सकते हैं। यह निर्दोषों और अपराधियों को समान रूप से बचाता है, इसलिए स्वाभाविक रूप से कानून प्रवर्तन समूहों द्वारा इसका विरोध किया जाता है, ख़ुफ़िया एजेंसियाँ, और अन्य संगठन जिनके पास खोज करने की इच्छा के अपने-अपने कारण हैं उपयोगकर्ता का डेटा।
Apple का मानना है कि CSAM और बाल दुर्व्यवहार के अन्य रूपों को रोकना अत्यंत महत्वपूर्ण है, लेकिन इसे इस तरह से किया जाना चाहिए कि Apple (या अन्य समूहों) को किसी भी तरह से उपयोगकर्ता डेटा देखने की अनुमति न मिले। डिवाइस पर नग्न इमेजरी का पता लगाना और छिपाना एक ऐसी सुविधा है जिसका ऐप्पल पिछले कुछ वर्षों में ओएस अपडेट के साथ विस्तार कर रहा है।