لماذا يشعر الخبراء بالقلق بشأن خطة Apple لعمل مسح لصور آيفون؟

أعلنت شركة آبل بأنها ستفحص أجهزة iPhone في الولايات المتحدة بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM). كجزء من هذه المبادرة ، تشارك الشركة مع الحكومة وإجراء تغييرات على iCloud و iMessage و Siri و searsh وفقا لما نقله موقع TheNextWeb. ومع ذلك فإن خبراء الأمن قلقون بشأن المراقبة ومخاطر تسرب البيانات. ولكن قبل إلقاء نظرة على هذه المخاوف ، دعنا نفهم ما الذي تفعله Apple بالضبط؟. كيف تخطط Apple لفحص أجهزة iPhone بحثًا عن صور CSAM؟ تعتمد مجموعة كبيرة من الميزات لفحص CSAM على الصور التي تحمل بصمات الأصابع التي يوفرها المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). ستقوم Apple بفحص صور iCloud الخاصة بك ومشاهدتها باستخدام قاعدة بيانات NCMEC لاكتشاف ما إذا كانت هناك أي صور CSAM ، ولا تقوم الشركة بهذا فعلاً على السحابة ، لكنها تنفذ هذه الإجراءات على جهازك. تقول أنه قبل إرسال الصورة إلى وحدة تخزين iCloud ، ستقوم الخوارزمية بإجراء فحص ضد تجزئات CSAM المعروفة. عندما يتم تحميل صورة على iCloud ، تنشئ Apple قسيمة أمان مشفرة مخزنة معها. يحتوي الإيصال على تفاصيل لتحديد ما إذا كانت الصورة تتطابق مع تجزئات CSAM المعروفة ، لن يعرف عملاق التكنولوجيا هذه التفاصيل ، ما لم يتجاوز عدد صور CSAM على حسابك على iCloud عددا معينًا. ضع في اعتبارك أنه إذا أوقفت مزامنة iCloud على هاتفك فلن يعمل المسح بالنسبة إلى iMessage ستقوم Apple بإجراء مسح ضوئي وتشويش لصور CSAM بالإضافة إلى ذلك عندما يشاهد الطفل مثل هذه الصورة ، سيتلقى الوالدان إشعارًا بشأنها ، حتى يتمكنوا من اتخاذ الإجراء المناسب. إذا كان الطفل يحاول إرسال مثل هذه الصور فسيتم تحذيره وإذا استمر فسيتم إرسال إشعار إلى الوالدين. من المهم ملاحظة أنه لن يتم إرسال إشعار الوالدين إلا إذا كان الطفل أقل من 13 عامًا، سيتلقى المراهقون الذين تتراوح أعمارهم بين 13 و 17 عامًا إشعارًا تحذيريًا فقط على هواتفهم الخاصة. تقوم الشركة أيضًا بتعديل Siri و Search لتوفير موارد إضافية متعلقة بـ CSAM للآباء والأطفال. بالإضافة إلى ذلك ، إذا أجرى شخص ما عمليات بحث متعلقة بـ CSAM ، فيمكن لـ Siri التدخل وإعطائه تحذيرًا بشأن المحتوى. ما الذي يقلق الخبراء؟ تبدو جميع ميزات Apple وكأنها تهدف إلى المساعدة في إيقاف CSAM ويبدو أنها شيء جيد على الورق. ومع ذلك انتقدت منظمة الحقوق الرقمية Electronic Frontier Foundation (EFF) شركة Apple في منشور لها وأشارت إلى أن تطبيق الشركة يفتح أبواب خلفية محتملة في نظام تشفير قوي بخلاف ذلك. وأضافت EFF: "إن القول بأننا نشعر بخيبة أمل من خطط Apple هو بخس." وأشارت المنظمة إلى أن المسح بحثًا عن المحتوى باستخدام قاعدة بيانات محددة مسبقًا يمكن أن يؤدي إلى حالات استخدام خطيرة. جادل إدوارد سنودن بأن شركة Apple بصدد طرح أداة مراقبة جماعية ، ويمكنهم البحث عن أي شيء على هاتفك غدًا. ستتوفر ميزات Apple لـ CSAM في وقت لاحق من هذا العام في تحديثات iOS 15 و iPadOS 15 و watchOS 8 و macOS Montereyومع ذلك سيكون من مصلحة الشركة معالجة مختلف المخاوف التي طرحها الباحثون الأمنيون والخبراء القانونيون. تلتف الشركة حول موقفها القوي بشأن الخصوصية لسنوات ، بعد أن تعرضت الشركة لضغوط لاتخاذ خطوة مزعومة مناهضة للخصوصية ، فإنها بحاجة إلى إجراء مناقشات مع الخبراء وإصلاح هذا النظام. بالإضافة إلى ذلك يجب أن تكون شركة Apple شفافة بشأن كيفية أداء هذه الأنظمة.



الاكثر مشاهده

كبار فقهاء الأمة الإسلامية يجتمعون تحت مظلة المجمع الفقهي الإسلامي

بدعوة من دولة رئيس الوزراء الباكستاني.. العيسى خطيباً للعيد بجامع الملك فيصل فى إسلام آباد

علماء العالم الإسلامي يُرشحون مركز الحماية الفكرية لإعداد موسوعة عن "المؤتلف الفكري الإسلامي"

رابطة العالم الإسلامى تنظم غداً مؤتمر "بناء الجسور بين المذاهب الإسلامية" فى مكة

د.العيسى يلتقي رئيس جمعيات الصليب الأحمر والهلال الأحمر على متن سفينة "أوشن فايكينغ"

10 أسئلة وإجابات حول تعديلات قانون تملك الأجانب للأراضى الصحراوية.. برلماني

;