كشفت دراسة جديدة من مرصد الإنترنت فى ستانفورد (عبر واشنطن بوست) أن ماستودون Mastodon وهى الشبكة اللامركزية التي يُنظر إليها على أنها بديل عملي لتويتر، مليئة بمواد الاعتداء الجنسى على الأطفال (CSAM) .
وفي غضون يومين فقط وجد الباحثون 112 حالة معروفة من CSAM عبر 325000 مشاركة على المنصة مع ظهور الحالة الأولى بعد خمس دقائق فقط من البحث.
ولإجراء بحثه، قام مرصد الإنترنت بفحص أكثر 25 حالة شائعة من Mastodon لـ CSAM واستخدم الباحثون أيضًا واجهة برمجة تطبيقات البحث الآمن من Google لتحديد الصور الصريحة، جنبًا إلى جنب مع PhotoDNA، وهي أداة تساعد في العثور على CSAM التي تم الإبلاغ عنها.
وخلال البحث وجد الفريق 554 قطعة من المحتوى تطابق علامات التصنيف أو الكلمات الرئيسية التي تستخدمها مجموعات الاعتداء الجنسي على الأطفال عبر الإنترنت، والتي تم تحديدها جميعًا على أنها صريحة في "أعلى ثقة" بواسطة البحث الآمن من Google.
وكان هناك أيضًا 713 استخدامًا لأهم 20 علامة تصنيف متعلقة بـ CSAM عبر Fediverse في المنشورات التي تحتوي على وسائط، بالإضافة إلى 1217 مشاركة نصية فقط تشير إلى "تداول CSAM خارج الموقع أو الاستمالة للقصر"، تشير الدراسة إلى أن النشر المفتوح لـ CSAM "منتشر بشكل مزعج، وفقا لتقرير theverge.
وأشار أحد الأمثلة إلى انقطاع خادم ماستودون إكس واى زد، الممتد الذي لاحظناه في وقت سابق من هذا الشهر، والذي كان حادثة حدثت بسبب إرسال CSAM إلى Mastodon وفي منشور حول الحادث، ذكر المشرف الوحيد على الخادم أنه تم تنبيههم إلى المحتوى الذي يحتوي على CSAM، لكنه أشار إلى أن الاعتدال يتم في أوقات فراغه ويمكن أن يستغرق الأمر ما يصل إلى بضعة أيام حتى تحدث وهذه ليست عملية عملاقة مثل Meta مع فريق عالمي من المقاولين، إنها مجرد شخص واحد.
بينما قالوا إنهم اتخذوا إجراءً ضد المحتوى المعني، وقام مضيف النطاق ماستودون إكس واى زد، بتعليقه على أي حال، مما جعل الخادم غير متاح للمستخدمين حتى يتمكنوا من الوصول إلى شخص ما لاستعادة قائمته.
وبعد حل المشكلة، قال مسؤول ماستودون دوت إكس واى زد، أن أمين السجل أضاف النطاق إلى قائمة "إيجابية كاذبة" لمنع عمليات الإزالة المستقبلية، ومع ذلك، كما يشير الباحثون ما تسبب في هذا الإجراء لم يكن نتيجة إيجابية خاطئة".
وقال ديفيد ثيل، أحد الباحثين في التقرير، في تصريح لصحيفة واشنطن بوست: "لقد حصلنا على عدد أكبر من نتائج تحليل الحمض النووي في غضون يومين أكثر مما حصلنا عليه في تاريخ منظمتنا بأكمله في إجراء أي نوع من تحليل وسائل التواصل الاجتماعي ، وهو ليس قريبًا". " الكثير منها هو مجرد نتيجة لما يبدو أنه نقص في الأدوات التي تستخدمها منصات الوسائط الاجتماعية المركزية لمعالجة مخاوف سلامة الأطفال."
ونظرًا لتزايد شعبية الشبكات اللامركزية مثل Mastodon ، فلديك مخاوف بشأن السلامة لا تستخدم الشبكات اللامركزية نفس النهج في الاعتدال مثل المواقع الرئيسية مثل Facebook و Instagram و Reddit، بدلاً من ذلك، يُمنح كل مثيل لامركزي التحكم في الاعتدال ، مما قد يؤدي إلى عدم اتساق في جميع أنحاء الفيدرالية.
ولهذا السبب يقترح الباحثون أن شبكات مثل Mastodon تستخدم أدوات أكثر قوة للمشرفين، جنبًا إلى جنب مع تكامل PhotoDNA وتقارير CyberTipline.