حذر خبراء من أن تقنية الذكاء الاصطناعي تغذي انفجارًا في عمليات احتيال باستنساخ الصوت.
ويمكن للمحتالين الآن تقليد صوت الضحية باستخدام مقتطف صوتي مدته ثلاث ثوان فقط، وغالبا ما يتم سرقته من ملفات تعريف الوسائط الاجتماعية، وفقا لتقرير RT .
ثم يتم استخدامه للاتصال بصديق أو أحد أفراد الأسرة لإقناعهم بأنهم في مأزق وبحاجة ماسة إلى المال.
ويقول واحد من كل أربعة بريطانيين إنه أو شخصا يعرفه قد استُهدف بعملية الاحتيال هذه، وفقا للمتخصصين في الأمن السيبراني McAfee.
ومن المقبول تصديق أن غالبية المتضررين اعترفوا بأنهم فقدوا أموالا نتيجة لذلك، مع تكبد حوالي ثلث الضحايا أكثر من 1000 جنيه إسترليني.
وقال تقرير صادر عن الشركة إن الذكاء الاصطناعي قد "غير اللعبة بالفعل لمجرمي الإنترنت''، مع توفر الأدوات اللازمة لتنفيذ عملية الاحتيال مجانا عبر الإنترنت.
ويقود الخبراء والأكاديميون والرؤساء من جميع أنحاء صناعة التكنولوجيا الدعوات لتشديد التنظيم على الذكاء الاصطناعي لأنهم يخشون أن يخرج القطاع عن السيطرة.
وقال تقرير McAfee عن "الدجال الاصطناعي" إن استنساخ صوت شخص ما أصبح "أداة قوية في ترسانة مجرمي الإنترنت'' - وليس من الصعب العثور على الضحايا.
ووجدت دراسة استقصائية أجريت على أكثر من 1000 بالغ في المملكة المتحدة أن نصفهم شاركوا بياناتهم الصوتية عبر الإنترنت مرة واحدة على الأقل في الأسبوع على وسائل التواصل الاجتماعي أو الملاحظات الصوتية.
وكشف التحقيق عن أكثر من اثنتي عشرة أداة لاستنساخ الصوت بالذكاء الاصطناعي متاحة علنا على الإنترنت، والعديد منها مجاني ولا تحتاج إلا إلى مستوى أساسي من الخبرة لاستخدامها.
وفي إحدى الحالات، كانت ثلاث ثوان فقط من الصوت كافية لإنتاج تطابق بنسبة 85%، بينما لم تواجه مشكلة في تكرار اللهجات من جميع أنحاء العالم.
ومع صوت الجميع المعادل المنطوق لبصمة الإصبع الحيوية، اعترف 65% من المستجيبين بأنهم غير واثقين من قدرتهم على تحديد النسخة المستنسخة من الشيء الحقيقي.
وقال أكثر من ثلاثة من كل 10 إنهم سيردون على بريد صوتي أو رسالة صوتية يزعم أنها من صديق أو شخص عزيز في حاجة إلى المال - لا سيما إذا اعتقدوا أنها من شريك أو طفل أو أحد الوالدين. والرسائل التي من المرجح أن تستدعي الرد هي تلك التي تدعي أن المرسل قد تورط في حادث سيارة أو تعرض للسرقة أو فقد هاتفه أو محفظته أو احتاج إلى المساعدة أثناء السفر إلى الخارج.
وقال واحد من كل 12 شخصا إنهم استُهدفوا شخصيا من خلال نوع من الاحتيال الصوتي بالذكاء الاصطناعي، وقال 16% آخر إنه حدث لشخص يعرفونه.
ويمكن أن تكون تكلفة الوقوع في عملية احتيال الصوت بالذكاء الاصطناعي كبيرة، حيث يعترف 78% من الأشخاص بأنهم فقدوا أموالا لهم.