الأمن الإلكتروني

الجانب المظلم للذكاء الاصطناعي: كيف تُستخدَم تقنية تقليد الأصوات في عمليات الاحتيال

تسببت التطورات في مجال الذكاء الاصطناعي في بروز شكلٍ جديد من أشكال النصب والاحتيال، إذ يلجأ المجرمون -وفقًا لتقريرٍ نشرته صحيفة الواشنطن بوست- إلى خدمات تقليد الأصوات المعتمدة على الذكاء الاصطناعي لتضليل الأشخاص عبر تقليد أصوات أحبائهم وإرسالها في رسائل صوتية يشتكي صاحبها الوقوع في أزمة والحاجة المستعجلة إلى المال.

وقد ازداد انتشار عدد عمليات الاحتيال القائمة على انتحال الشخصية بشكلٍ كبير في الولايات المتحدة في عام 2022، وفقًا لبيانات اللجنة التجارية الفيدرالية، إذ تلقت اللجنة أكثر من 36,000 تقرير عن عمليات انتحال، منها أكثر من 5000 عملية احتيال عبر الهاتف تسببت بخسائر تُقدر بأكثر من 11 مليون دولار.

وتحدثت الصحيفة عن إحدى الضحايا التي وصلها اتصال من رجل يبدو أنه حفيدها، مدعيًا أنه في السجن ولا يملك محفظته أو هاتفه المحمول، ويحتاج نقودًا لدفع كفالة الإفراج عنه. وقامت الضحية وزوجها بسحب 3,000 دولار وكانوا في طريقهم لسحب المزيد من المال، عندما تواصل معهم مدير المصرف وأبلغهم أن زبونًا آخر تلقى مكالمةً مماثلة، ليكتشفوا أن الصوت المشابه لحفيدهم هو صوتٌ مزوّر. وأدركوا حينها أنهم سقطوا ضحايا الاحتيال.

ويُعد الاحتيال بتقنية الذكاء الاصطناعي هذه أكثر إقناعًا وفعالية بالنسبة للمجرمين، إذ يمكن لمن يمتلك عينةً صوتية لشخصٍ ما، استخدام أدوات تحويل النص إلى صوت لكتابة رسائل استغاثة مزيفة ثم إدخالها في برامج توليد الصوت بواسطة الذكاء الاصطناعي كي تظهر بأصواتٍ تُشبه أصوات معارف الضحايا. ويمكن لهذه الأدوات تحليل العينات الصوتية القصيرة، التي يمكن أن تأتي من مصادر مثل يوتيوب أو إنستاجرام أو فيسبوك. ويمكن لهذه الأدوات إعادة إنشاء الصوت بناءً على العوامل الفريدة لكل شخص، مثل العمر والجنس واللهجة والنغمة الصوتية، لتوليد صوت يشبه الأصل.

وقالت الصحيفة إن الضحايا غالبًا ما يكونون من كبار السن والأشخاص الذين يعيشون وحدهم ويشعرون بالقلق والخوف على أحبائهم، ويشعرون بالفزع عند سماع صوت يشبه صوت أحد أفراد عائلتهم يدعي أنه في وضع خطير.

ولا تقدّم تلك الأدوات أية أدلة للتعرف على المتسببين بهذه الجرائم. وقد أوضح خبراء أن الجهات الرسمية المسؤولة عن التحقيق في هذه الجرائم غير مجهزة بشكل جيد للتعامل معها، إضافةً إلى صعوبة تتبع المكالمات والأموال من قبل المحتالين الذين يعملون في مختلف أنحاء العالم.

وأضافت الصحيفة أنه من الصعب تطبيق العقوبات القانونية على الشركات التي تقدم برامج توليد الصوت باستخدام الذكاء الاصطناعي، لعدم وجود سابقة قانونية في هذا المجال، وهذا يعني أن الضحايا لا يملكون الكثير من الخيارات لمعرفة المسؤولين واتخاذ إجراءات قانونية ضدهم.

ويعتقد الخبراء أن المشكلة ستزداد تعقيدًا مع تطور التكنولوجيا والذكاء الاصطناعي، ولا يمكن تحديد مدى قدرة الجهات الرسمية على مواجهة هذا التحدي المتزايد.

وتنصح الجهات المعنية الأفراد بالحذر وعدم الاستجابة لأي طلب يأتي من أحد أفراد العائلة، وأن يحاولوا الاتصال بهم عبر وسائل الاتصال الأخرى للتحقق من صحة الطلب. وينبغي ألا تُدفَع الأموال بطرق غير مؤمنة مثل بطاقات الهدايا، وينبغي الحذر من أية طلبات نقدية غير مبررة.

وفي الوقت نفسه، يؤكد الخبراء على أهمية تحميل الشركات المصنعة لهذه الأدوات المسؤولية القانونية عن استخدامها في جرائم الاحتيال، ويتطلب ذلك تغيير النظام القانوني الحالي لتحديد المسؤوليات وتنظيم هذا القطاع بشكل أفضل.

زر الذهاب إلى الأعلى