كثيرون يفضلون الحفاظ على خصوصية معتقداتهم وآرائهم السياسية، لكن يحذر باحثون أن هذه السرية أغلب الظن لن تستمر لاسيما مع وجود برنامج على أجهزة الكومبيوتر يمكنه تخمين ما إذا كان الشخص محافظ أو ليبرالى فى غضون لحظة، وذلك من خلال صور وجهه.
وتقول صحيفة "الجارديان" البريطانية إن مايكل كوسينسكى، أستاذ بجامعة ستانفورد أرجح من خلال بحث له أن الذكاء الاصطناعى يمكن أن يحدد ما إذا كان الشخص مثلى الجنس من خلال صوره، مؤكدا أن الميل الجنسى أحد الخصائص العديدة التى يمكن التنبؤ بها من خلال التعرف على الوجه.
وتضيف الصحيفة أنه باستخدام الصور يمكن للذكاء الاصطناعى أن يحدد وجهات نظر الشخص السياسية، وما إذا يملك درجات ذكاء عالية، وما إذا كان ميالا إلى السلوك الإجرامى، أو إذا كان لديه صفات شخصية محددة، بالإضافة إلى العديد من التفاصيل الخاصة والشخصية الأخرى التى يمكن أن يكون لها عواقب اجتماعية ضخمة.
وفى مقابلة معه عرض كوسينسكى تطبيقات غير عادية - إن لم تكن مثيرة للقلق فى بعض الأحيان - لتكنولوجيا الكشف عن الوجه التى يتوقع أن تكون موجودة في المستقبل القريب، ما يثير أسئلة أخلاقية معقدة حول الخصوصية واحتمال إساءة استخدام الذكاء الاصطناعي لاستهداف الأشخاص الضعفاء.
وقال "يمكن من خلال الوجه ملاحظة مجموعة واسعة من العوامل مثل تاريخ حياتك وعوامل التنمية الخاصة بك، وإذا كنت تتمتع بصحة جيدة".
وتحتوى الوجوه على قدر كبير من المعلومات، وباستخدام مجموعات بيانات كبيرة من الصور، يمكن للبرامج الحاسوبية المتطورة كشف الاتجاهات ومعرفة كيفية تمييز السمات الرئيسية بمعدل عال من الدقة.
وقالت "الجارديان" إن أبحاث كوسينسكى مثيرة للجدل إلى حد كبير واستقطبت رد فعل هائل من جماعات حقوق المثليات والمثليين ومزدوجى الميل الجنسى ومغايرى الهوية الجنسية، الذين قالوا إن منظمة الذكاء الاصطناعى معطوب، وأن الحكومات المناهضة للمثليين والمتحولين جنسيا يمكن أن تستخدم هذا النوع من البرمجيات لاستهداف مثليى الجنس واضطهادهم.
ويزعم كوسينسكى وغيره من الباحثين أن الحكومات والشركات القوية تمتلك بالفعل هذه القدرات التكنولوجية، وأنه من الحيوى الكشف عن المخاطر المحتملة فى محاولة لحماية الخصوصية والضمانات التنظيمية التى لم تواكب الذكاء الاصطناعى.