الذكاء الاصطناعي في أيدي الجماعات المسلحة.. تحذيرات من مخاطر متصاعدة

time reading iconدقائق القراءة - 6
مقاتلون من تنظيم داعش إبان سيطرة التنظيم على الموصل في العراق 13 يونيو 2014 - REUTERS
مقاتلون من تنظيم داعش إبان سيطرة التنظيم على الموصل في العراق 13 يونيو 2014 - REUTERS
دبي-الشرق

في وقتٍ يسارع فيه العالم إلى تسخير قدرات الذكاء الاصطناعي، بدأت الجماعات المسلحة بدورها تجربة هذه التكنولوجيا، حتى وإن لم تكن متأكدة تماماً بعد من كيفية توظيفها، وفق وكالة "أسوشيتد برس".

وحذّر خبراء الأمن القومي وأجهزة الاستخبارات من أن الذكاء الاصطناعي قد يشكّل أداة بالغة الخطورة في أيدي التنظيمات المتطرفة، لا سيما فيما يتعلق بتجنيد عناصر جدد، وإنتاج صور "تزييف عميق" (Deepfake)، فضلاً عن تعزيز قدراتها على تنفيذ الهجمات السيبرانية.

وأوضحت الوكالة أن تنظيم "داعش" أدرك منذ وقت مبكر أن منصات التواصل الاجتماعي يمكن أن تُمثّل أداة فعَّالة للتجنيد ونشر التضليل، وهو ما يجعل لجوءه إلى تجربة تقنيات الذكاء الاصطناعي أمراً غير مفاجئ، بحسب خبراء في الأمن القومي.

وبحسب التقرير، يتيح الذكاء الاصطناعي للجماعات المتطرفة ذات البنية المفككة وشحيحة الموارد، أو حتى لفاعل منفرد يمتلك اتصالاً بالإنترنت، إنتاج كميات هائلة من الدعاية أو مواد Deepfake، بما يوسّع نطاق وصولها ويعزّز نفوذها وتأثيرها.

اقرأ أيضاً

كيف نميّز فيديوهات الذكاء الاصطناعي؟

في ظل تصاعد استخدام تقنيات الذكاء الاصطناعي، يكشف خبراء موقع ZDNET عن مؤشرات تساعد في التعرف على المقاطع المزيفة.

ونقلت الوكالة عن جون لاليبرت، الباحث السابق في مجال الثغرات لدى وكالة الأمن القومي الأميركية، الرئيس التنفيذي الحالي لشركة الأمن السيبراني ClearVector، قوله: "الذكاء الاصطناعي يجعل تنفيذ الأمور أسهل بكثير بالنسبة لأي خصم".

وأضاف لاليبرت: "مع الذكاء الاصطناعي، تصبح حتى المجموعات الصغيرة التي لا تملك الكثير من المال قادرة على إحداث تأثير".

وأفاد التقرير بأن الجماعات المسلحة بدأت استخدام الذكاء الاصطناعي فور إتاحة برامج مثل ChatGPT على نطاق واسع، ومع مرور الوقت ازدادت وتيرة اعتمادها على أدوات الذكاء الاصطناعي التوليدي لإنتاج صور ومقاطع فيديو تبدو شديدة الواقعية.

وعند ربط هذا المحتوى المزيف بخوارزميات منصات التواصل الاجتماعي، فإنه يمكن، بحسب "أسوشيتد برس"، أن يسهم في تجنيد عناصر جدد، وإرباك الخصوم أو بث الرعب في نفوسهم، فضلاً عن نشر الدعاية على نطاق لم يكن متصوراً قبل سنوات قليلة.

وشهد العام الماضي حوادث "تزييف عميق"، عقب هجوم أعلن أحد فروع تنظيم "داعش مسؤوليته عنه، وأسفر عن سقوط نحو 140 شخصاً في قاعة حفلات موسيقية في روسيا.

اقرأ أيضاً

بعد هجوم قاعة الحفلات.. لماذا يستهدف "داعش خراسان" روسيا؟

أعلن تنظيم "داعش خراسان" مسؤوليته عن هجوم قاعة الحفلات الموسيقية في موسكو، والذي أسفر عن سقوط عشات الضحايا والمصابين.. فما هي دوافع هذا التنظيم؟

وفي الأيام التي أعقبت إطلاق النار، جرى تداول مقاطع دعائية صُممت باستخدام الذكاء الاصطناعي على نطاق واسع عبر المنتديات ومنصات التواصل الاجتماعي، في محاولة لاستقطاب عناصر جدد، وفق "أسوشيتد برس".

مخاطر مرتفعة

وبحسب باحثين في مؤسسة SITE Intelligence Group، المتخصصة في تتبع أنشطة الجماعات المتطرفة والتحقيق في تطور استخدام تنظيم "داعش" للذكاء الاصطناعي، فإن التنظيم أنشأ كذلك تسجيلات صوتية مزيفة لقادته وهم يتلون نصوصاً دينية، كما استخدم الذكاء الاصطناعي لترجمة رسائله بسرعة إلى لغات متعددة.

ونقلت الوكالة عن ماركوس فاولر، العميل السابق في وكالة الاستخبارات المركزية الأميركية (CIA)، والرئيس التنفيذي الحالي لشركة Darktrace Federal المتخصصة في الأمن السيبراني والمتعاونة مع الحكومة الفيدرالية، قوله إن هذه الجماعات تنظر إلى الاستخدامات الأكثر تقدماً للذكاء الاصطناعي على أنها "طموحات مستقبلية" في الوقت الراهن.

وأضاف فاولر أن المخاطر، رغم ذلك، مرتفعة للغاية ولا يمكن تجاهلها، ومن المرجح أن تتصاعد مع اتساع نطاق استخدام أدوات الذكاء الاصطناعي "الرخيصة والقوية".

وأوضح التقرير أن القراصنة يستخدمون بالفعل مقاطع صوتية ومرئية اصطناعية في حملات التصيّد الإلكتروني، إذ يحاولون من خلالها انتحال صفة قيادات بارزة في الشركات أو الحكومات للوصول إلى شبكات حساسة. كما يمكنهم الاستعانة بالذكاء الاصطناعي لكتابة شيفرات خبيثة أو أتمتة بعض جوانب الهجمات السيبرانية.

لكن الأخطر، بحسب التقرير، هو احتمال أن تحاول الجماعات المسلحة توظيف الذكاء الاصطناعي للمساعدة في إنتاج أسلحة بيولوجية أو كيميائية. وقد ورد هذا الخطر ضمن التقييم المحدّث للتهديدات الداخلية الصادر عن وزارة الأمن الداخلي الأميركية في وقت سابق من العام الجاري.

وقال فاولر: "تنظيم داعش دخل إلى منصة تويتر (إكس) في وقت مبكر، ووجد طرقاً لتوظيف منصات التواصل الاجتماعي لصالحه. وهم يبحثون دائماً عن الشيء التالي لإضافته إلى أسلحتهم".

وأشارت الوكالة إلى أن مشرّعين أميركيين طرحوا عدة مقترحات، مؤكدين وجود حاجة مُلحّة إلى التحرك. وقال السيناتور مارك وارنر، وهو الديمقراطي الأبرز في لجنة الاستخبارات بمجلس الشيوخ، إن الولايات المتحدة يجب أن تسهّل على مطوري الذكاء الاصطناعي تبادل المعلومات بشأن كيفية استخدام منتجاتهم من قِبَل الجهات الخبيثة، سواء كانت جماعات متطرفة، أو قراصنة إجراميين، أو جواسيس أجانب.

وأضاف وارنر: "كان واضحاً منذ أواخر عام 2022، مع الإطلاق الرسمي لـChatGPT، أن الفضول والتجريب اللذين أبداهما الجمهور تجاه الذكاء الاصطناعي التوليدي سينتقل أيضاً إلى جهات خبيثة".

وخلال جلسة استماع حديثة بشأن التهديدات المتطرفة، اطّلع مشرّعو مجلس النواب الأميركي على معلومات تفيد بأن تنظيمَي "داعش" و"القاعدة" عقدا ورش تدريب لمساعدة أنصارهما على تعلّم استخدام الذكاء الاصطناعي.

وبحسب التقرير، فإن تشريعاً أقرّه مجلس النواب الأميركي الشهر الماضي يُلزم مسؤولي الأمن الداخلي بإجراء تقييم سنوي للمخاطر التي يشكلها الذكاء الاصطناعي من قبل هذه الجماعات.

وقال النائب الجمهوري أوجست بفلوجر، وهو مقدّم مشروع القانون، إن التحوّط ضد الاستخدام الخبيث للذكاء الاصطناعي لا يختلف عن الاستعداد للهجمات التقليدية. وأضاف: "يجب أن تواكب سياساتنا وقدراتنا تهديدات الغد".

تصنيفات

قصص قد تهمك