أثارت شركة ابل ردود فعل على تقنية CSAM (مواد الاعتداء الجنسي على الأطفال) الجديدة ، حيث قالت الشركة إنها آمنة للمستخدمين والنقاد، لكن البعض اعلن عن تخوفه أن تعني تلك التقنية نهاية الخصوصية.
لكن بعيدًا عن التصريحات الافتراضية، لدينا الآن وجهة نظر أكاديمية. حيث كشف باحثان من جامعة برينستون، أنه بعد سنوات من تطوير نظام يشبه ابل تقريبًا، خلصوا إلى أنه يمكن للمرء بسهولة إساءة استخدام تلك الميزة.
وفي التقاصيل، بحسب مواقع تقنية، طور علماء في جامعة برينستون (الولايات المتحدة الأمريكية) منذ عدة سنوات نظامًا مشابهًا للنظام الذي ستكتشف به شركة أبل عن صور إساءة معاملة الأطفال على هواتف المستخدمين. في رأيهم، يمكن أن تكون التقنية خطيرة. وفقًا لموقع engadget
يعمل الأستاذ المساعد جوناثان ماير وطالب الدراسات العليا أنوناي كولشرستا على فكرة نظام الكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) لعدة سنوات. مثل ابل، أرادوا تقييد توزيع مثل هذا المحتوى مع الحفاظ على خصوصية المستخدم. بعبارة أخرى، كان الهدف هو تحليل المحتوى في الخدمات عبر الإنترنت باستخدام التشفير من طرف إلى طرف.
وبعد دراسة تحليلية للنظام، ابتكر العالمان نموذجًا أوليًا عمليًا. وسرعان ما توصلا إلى استنتاج مفاده أنه مهما كانت النتيجة، فإن هذه التقنية تترك "مشكلة صارخة" دون حل.
وشددا أنه يمكن إعادة توجيه النظام بسهولة لمهام تتبع المستخدمين والرقابة. على المستوى التقني، لا يمكن بأي حال من الأحوال أن يقتصر الأمر على نوع واحد فقط من المحتوى، حيث يخضع تمامًا لمحتوى قاعدة البيانات، مع العناصر التي تتم مقارنة المحتوى بها على أجهزة العميل.
يوضح مؤلفا المشروع أن هذه المشكلة ليست سيناريوهات افتراضية بحتة، لأنهم استشهدوا بـ WeChat الصيني كمثال ، حيث تم العثور على خوارزميات تكشف عن مواد لمنشقين.
على سبيل المثال، اكتشف باحثون في Citizen Lab بجامعة تورنتو نظام تحليل مماثل في برنامج المراسلة الصيني WeChat، والذي يستخدم خوارزمية مماثلة للكشف عن المواد ضد السياسات الحكومية.
وأوضح التقرير أنه بالنظر إلى أن الصين تعد ثاني أكبر سوق لمنتجات شركة ابل، فلا شيء يمكن أن يوقف الحكومة الصينية إذا قررت أن تطلب من آبل إعادة استخدام النظام لأغراض سياسية. وهو ما استجابت إليه -من قبل- الشركة المصنعة الأمريكية مرارًا وتكرارًا لمتطلبات بكين المختلفة.
أخيرًا، هناك العديد من الصعوبات ذات الطبيعة التقنية البحتة. على سبيل المثال، يمكن أن يعطي النظام إيجابيات خاطئة. وبمهارات معينة، يمكن لبعض المستخدمين خداع النظام من خلال توجيه إجراءاته ضد أي مستخدم بريء.