الاحتيال عبر استنساخ الصوت بالذكاء الاصطناعي يثير قلقاً متزايداً 

Illustration shows AI Artificial Intelligence words - REUTERS
Illustration shows AI Artificial Intelligence words - REUTERS
واشنطن- أ ف ب

انتاب امرأة قلق بعدما سمعت صوت كريمتها وهي تبكي في مكالمة هاتفية، يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية، إلا أن نبرة صوت الابنة لم تكن حقيقية بل مبتكرة بواسطة تقنية الذكاء الاصطناعي في محاولة للقيام بعملية احتيال، وهي مسألة مقلقة تبرز مع هذه التكنولوجيا التي تشهد ازدهاراً في المرحلة الراهنة.

ويشير الخبراء إلى أن الخطر الأبرز للذكاء الاصطناعي يتمثل في قدرة هذه التقنية على تبديدها تقريباً الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة.

وتثير عمليات احتيال هاتفية حديثة باستخدام أدوات النسخ الصوتي المستندة إلى الذكاء الاصطناعي، والمتاحة بسهولة عبر الإنترنت، قلق السلطات الأميركية.

تسمع جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتاً يقول "ساعديني يا أمي، أرجوكِ ساعديني".

صدّقت الوالدة أن الصوت يعود لابنتها البالغة 15 عاماً والتي خرجت لممارسة التزلج.

وتقول لمحطة تلفزيونية محلية في حديث يعود إلى أبريل "كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها"، مضيفةً "لم أشك لحظة في أنها قد لا تكون هي".

وطلب المحتال الذي اتصل بالوالدة من رقم مجهول الحصول على مليون دولار لقاء إطلاق سراح الفتاة.

وحالياً، تخضع هذه الحادثة التي وصلت إلى نهايتها سريعاً، بعدما تمكنت ديستيفانو من التواصل مع ابنتها، إلى تحقيق من السلطات المختصة، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.

"عمليات تزييف عميق مقنعة"

ويؤكد المدير التنفيذي لشركة "بلاكبيرد. ايه آي" وسيم خالد، في حديث إلى وكالة فرانس برس، أن "النسخ الصوتي عبر الذكاء الاصطناعي والذي بات شبه مستحيل تمييزه عن الصوت البشري، يتيح لأشخاص سيئي النية كالمحتالين الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية مما يعتمدون في العادة".

وتتيح تطبيقات كثيرة مجانية ومتوفرة عبر الإنترنت بدرجة كبيرة استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص، ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.

ويقول خالد "من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استناداً إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يُزعم أنها للضحية، وقد يُستخدم الصوت المستنسخ أيضاً كصوت مُعدَّل أثناء المكالمات الحية".

ويضيف أن "المحتالين يستخدمون لهجات متنوّعة ويقلّدون الطريقة التي تتحدث بها الضحية"، مؤكداً أن هذه التكنولوجيا "تتيح إنشاء عمليات تزييف عميق مقنع".

وأظهر استطلاع شمل نحو 7 آلاف شخص في 9 دول بينها الولايات المتحدة، أن شخصاً واحداً من كل 4 استُهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو يعرف شخصاً تعرّض لعملية مماثلة.

وأشار 70% ممن شملهم الاستطلاع إلى أنهم لم يكونوا أكيدين من قدرتهم على التمييز بين الصوت الحقيقي والمستنسخ، وفق الاستطلاع الذي نشرته شركة "ماك أفي لابز" الشهر الفائت.

وحذّرت السلطات الأميركية أخيراً من تزايد "عمليات الاحتيال التي تطال الأجداد".

وقالت لجنة التجارة الفيدرالية في تحذيرها "تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرّضه لحادث سير واحتجازه من الشرطة، لكنكم قادرون على مساعدته من خلال إرسال الأموال له".

وفي التعليقات التي كُتبت تحت تحذير اللجنة الأميركية، يشير عدد كبير من المسنين إلى أنهم خُدعوا بهذه الطريقة.

عمليات احتيال متزايدة   

اقتنع جدٌّ تعرّض لعملية احتيال بما سمعه لدرجة أنه بدأ يجمع الأموال وفكّر في رهن منزله، قبل أن يتبيّن أن ما يحصل ليس سوى احتيال.

وفي حديث إلى وكالة فرانس برس، يقول الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي، هاني فريد، إن السهولة التي يتسم بها استنساخ الصوت تعني أن "كل مستخدم للإنترنت معرّض للخطر".

ويشير إلى أن "عمليات الاحتيال هذه آخذة في الازدياد".

وتعيّن على شركة "إيليفن لابس" الناشئة الاعتراف بأن أداتها الناسخة للصوت من خلال الذكاء الاصطناعي يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الإنترنت مقطعاً مزيفاً للممثلة إيما واتسون وهي تقرأ مقاطع من كتاب "كفاحي" لأدولف هتلر.

اقرأ أيضاً:

تصنيفات