असे दिसते की Appleपलने ते थांबविण्याचा निर्णय घेतला आहे CSAM योजना चाइल्ड पोर्नोग्राफी शोधणार्या वापरकर्त्यांच्या छायाचित्रांची अंमलबजावणी करण्याची योजना आखली आहे. अॅपलच्या वेबसाइटवर यापुढे वादग्रस्त योजनेचा मागमूसही नाही.
या क्षणी ही तात्पुरती माघार आहे, सिस्टमची अंमलबजावणी करण्याचा सर्वोत्तम मार्ग शोधत आहे किंवा फक्त प्रकल्प रद्द करतो हे आम्हाला माहित नाही. वस्तुस्थिती अशी आहे की CSAM योजना मुलांच्या सुरक्षा पृष्ठावरून गायब झाली आहे अधिकृत वेबसाइट ऍपलचा
आम्ही काही महिन्यांपासून ऍपलच्या मनात असलेल्या वादग्रस्त प्रकल्पाबद्दल बोलत आहोत, त्याच्या उपकरणांच्या डिजिटल सामग्रीची सुरक्षा वाढवण्यासाठी. असे म्हणतात CSAM योजना ऍपलचा
या योजनेला प्रथम स्वयंचलित आणि नंतर मॅन्युअल प्रणाली नावाची एकत्रित प्रणाली वापरायची होती neuralMatch iCloud मध्ये ठेवणाऱ्या वापरकर्त्यांच्या खाजगी फोटो लायब्ररीमध्ये बाल शोषणाच्या संशयास्पद प्रतिमा शोधण्यासाठी.
वापरकर्त्याने त्यांच्या iCloud खात्यात सेव्ह केलेल्या सर्व फोटोंचे स्वयंचलित डिजिटल स्कॅन करण्याचा या प्रणालीचा हेतू आहे. जर सर्व्हर सॉफ्टवेअरला चाइल्ड पोर्नोग्राफी असलेले संभाव्य "संशयास्पद" छायाचित्र आढळले, तर त्यांनी त्यांच्या टीमला सतर्क केले. मानवी समीक्षक त्यांना तपासण्यासाठी.
समीक्षकाने प्रतिमेमध्ये संभाव्य बाल शोषण पाहिल्यास, Apple मी ते स्थानिक अधिकाऱ्यांना कळवीन संबंधित कंपनीचा हेतू साहजिकच चांगला होता, पण कंपनीचे गोपनीयता लोकांची.
Apple ने CSAM योजना जाहीर केल्यानंतर लगेचच, त्याला गोपनीयता गट, अधिकार गट आणि गोपनीयता संस्थांकडून टीकेचा सामना करावा लागला. गोपनीयतेचा अधिकार. कंपनीच्या कर्मचार्यांचे काही गट देखील त्यांच्या कंपनीच्या प्रकल्पाच्या नकारात्मक प्रतिक्रियांमध्ये सामील झाले.
प्रकल्प थांबला, टाकून दिला नाही
आता सफरचंद पुसून टाकले आहे आपल्या पृष्ठावरून मुलाची सुरक्षा त्याच्या अधिकृत वेबसाइटवरून CSAM प्रकल्पाचे कोणतेही संकेत, च्या भविष्यातील आवृत्तीमध्ये लॉन्च करण्याची योजना आहे iOS 15. नुकत्याच प्रकाशित नुसार कडाApple ने CSAM प्रकल्प सोडला नाही, परंतु तो त्यामध्ये कसा बदल करू शकतो ते पाहू इच्छित आहे जेणेकरून ते सर्व नकारकर्त्यांनी स्वीकारले जाईल. अवघड आहे.