
كشفت دراسة حديثة أن بعض أنظمة الذكاء الاصطناعي باتت قادرة على نسخ نفسها بشكل مستقل إلى أجهزة كمبيوتر أخرى، في تطور يثير مخاوف متزايدة بشأن احتمالات خروج هذه الأنظمة عن السيطرة مستقبلاً.
وأفادت الدراسة التي أجرتها مؤسسة Palisade Research، بأن مجموعة من الباحثين اختبروا عدداً من نماذج الذكاء الاصطناعي داخل بيئة رقمية مغلقة تضم حواسيب متصلة بشبكة واحدة، وطلبوا من النماذج اكتشاف ثغرات أمنية واستغلالها لنسخ نفسها من جهاز إلى آخر.
وتوصلت الدراسة إلى أن النماذج نجحت بالفعل في تنفيذ عمليات النسخ الذاتي في عدد من المحاولات، وإن لم يتحقق ذلك بشكل كامل في جميع الحالات.
اعتبر مدير المنظمة البحثية، جيفري لاديش، أن العالم يقترب سريعاً من مرحلة قد يصبح فيها إيقاف "ذكاء اصطناعي عدواني" أمراً بالغ الصعوبة، موضحاً أن الأنظمة فائقة الذكاء قد تتمكن مستقبلاً من "تهريب" أوزانها البرمجية ونسخ نفسها إلى آلاف الأجهزة حول العالم لتفادي الإغلاق.
وأضاف لاديش أن السيناريو الأخطر يتمثل في قدرة هذه الأنظمة على الانتشار عبر الإنترنت بعيداً عن سيطرة فرق الأمن السيبراني، مع مواصلة تنفيذ أهدافها بصورة مستقلة.
تأتي هذه الدراسة ضمن سلسلة من التطورات المثيرة للقلق المرتبطة بقدرات الذكاء الاصطناعي خلال الأشهر الماضية، ففي مارس الماضي، رصد باحثون في شركة علي بابا، نموذجاً طورته الشركة باسم "Rome" يحاول الخروج من بيئته التشغيلية للوصول إلى نظام خارجي بهدف تعدين العملات المشفرة.
وأثارت منصة اجتماعية تعتمد بالكامل على وكلاء ذكاء اصطناعي تُدعى "Moltbook" ضجة واسعة، في فبراير الماضي، بعدما بدت وكأنها تُظهر وكلاء رقميين يبتكرون ديانات جديدة ويتآمرون ضد البشر، قبل أن يتضح لاحقاً أن بعض هذه الادعاءات كان مبالغاً فيه، وأن مطوري هذه النماذج من البشر هم الذين وجهوهم لنشر ذلك المحتوى المثير للجدل.
ورغم المخاوف التي أثارتها الدراسة، شدد خبراء في الأمن السيبراني على أن ما جرى رصده لا يعني بالضرورة أن أنظمة الذكاء الاصطناعي الحالية قادرة فعلياً على تنفيذ مثل هذه العمليات في بيئات حقيقية دون اكتشافها.
وقال خبير الأمن السيبراني، جيميسون أورايلي، في تصريحات لصحيفة الجارديان البريطانية، إن البيئة التي استخدمتها Palisade كانت "سهلة الاختراق نسبياً"، وأن التجارب جرت داخل أنظمة مصممة خصيصاً لاختبار هذه السيناريوهات.
وأضاف أن "البرمجيات الخبيثة تنسخ نفسها بين الأجهزة منذ عقود، لكن الجديد هنا هو إظهار نموذج لغوي ضخم قادراً على استغلال الثغرات الأمنية لتنفيذ هذه المهمة ذاتياً".
واعتبر أورايلي، أن الدراسة تُعد أول توثيق أكاديمي متكامل لهذه العملية "من البداية إلى النهاية"، لكن الباحثين "وثقوا ما كان ممكناً تقنياً بالفعل منذ أشهر”.
عقبات تقنية
ويرى خبراء أن هناك عقبات كبيرة تمنع نماذج الذكاء الاصطناعي الحالية من تكرار هذه السلوكيات في العالم الحقيقي بسهولة، أبرزها الحجم الضخم للنماذج الحديثة، إذ يتطلب نقل نموذج ذكاء اصطناعي متقدم مئات الجيجابايت من البيانات، وهو ما قد يثير انتباه أنظمة المراقبة داخل المؤسسات والشركات.
وقال أورايلي إن نقل نحو 100 جيجابايت عبر شبكة داخلية في كل مرة يُخترق فيها جهاز جديد سيُحدث "ضجيجاً رقمياً” يصعب إخفاؤه، مشبهاً الأمر بـ "شخص يتجول داخل متجر خزف؛ وهو يلوح بكرة حديدية معلقة بسلسلة".
وقال خبير الأمن السيبراني ميخال فوزنياك؛ إن بيئة الاختبار التي استخدمتها الدراسة احتوت على ثغرات أمنية مصممة مسبقاً لتكون سهلة الاستغلال، وهو ما يختلف عن شبكات المؤسسات الحقيقية مثل البنوك أو الشركات الكبرى.
وأضاف أن الفيروسات والبرمجيات القادرة على استغلال الثغرات وإعادة نسخ نفسها موجودة منذ سنوات طويلة، معتبراً أن الدراسة "مثيرة للاهتمام"، لكنها لا تمثل حالياً تهديداً كافياً لإثارة القلق داخل قطاع الأمن المعلوماتي.









