أبل تحذف كل ما يشير إلى نظام حماية الأطفال (CSAM) من موقعها
أعلنت أبل بشكل مفاجئ قبل عدة أشهر أنها ستطلق ميزة جديدة لحماية الأطفال تُعرف اختصارًا باسم CSAM، تهدف من خلالها إلى فحص جميع الصور التي يتم رفعها على iCloud للتأكّد من عدم وجود أي صور اعتداء على الأطفال أو التحرّش الجنسي بهم. وعلى الرغم من نُبل الفكرة إلّا أنها أثارت الكثير من مخاوف الخصوصية، وشعر عدد هائل من المستخدمين بعدم الارتياح لفكرة أن تقوم أبل بفحص صورهم عند رفعها على iCloud. لذا قررت أبل مؤخرًا حذف كل ما يشير إلى CSAM من موقعها الإلكتروني.
وكانت أبل كشفت عن الميزة لأول مرة في أغسطس الماضي، ثم أعلنت بعدها بشهر عن تأخير إطلاق الميزة المثيرة للجدل بعد الانتقادات الكبيرة التي طالتها، خاصةً من الجهات الحقوقية ونشطاء الخصوصية. ويبدو أن تراجع أبل عن الفكرة لازال مستمرًا بعدما أشارت بعض المصادر إلى حذف كل ما يشير إلى نظام CSAM من موقع أبل الإلكتروني تمامًا.
وفقًا للمصدر، كانت الإشارات إلى نظام CSAM لا تزال موجودة على موقع أبل الإلكتروني حتى يوم الجمعة الماضي، ولكن تمت إزالتها الآن. ومع ذلك، هذا لا يعني بالتأكيد أن أبل توقفت عن تطوير الميزة، فمن الممكن أن تكون أبل أزالت المراجع الخاصة بالميزة من موقعها لتعديلها بالشكل الذي يُرضي المستخدمين ثم تُعيد نشرها فيما بعد.
وكما أشرنا سابقًا، يُعد نظام فحص الصور وحماية الأطفال CSAM أمرًا جيدًا في فكرته، ولكن هناك بعض المخاوف بشأن الآثار المترتبة على هذه التكنولوجيا. ذلك لأن أبل ستعتمد على استخدام التجزئة للبحث عن البيانات ذات الصلة، ويعتقد البعض أنه من المحتمل أن يتم إساءة استخدامها من قِبل الحكومات التي تحاول التسلل إلى بيانات أخرى للبحث عن المعلومات، أو تحديد مجموعات الأقليات والمعارضة السياسية، وغيرها.