يخشى البعض من أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً، لكن هذه المخاوف باتت واقعاً منذ الآن، وفقاً لدراسة جديدة، إذ إن البرامج التي صُمّمت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر.
وبيّنت الدراسة، التي أجراها فريق من الباحثين ونُشرت نتائجها في مجلة "باترنز"، أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية، أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان، وليس آلة، أو "روبوتاً".
وحذَّر الباحث في معهد ماساتشوستس للتكنولوجيا والمتخصص في الذكاء الاصطناعي بيتر بارك قائلاً: رغم أن هذه الأمثلة قد تبدو تافهة، إلّا أنها تكشف عن مشكلات قد تكون لها عواقب وخيمة قريباً في العالم الحقيقي".
وقال بارك إن "هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها"، موضحاً أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة، بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث إن السلوك الذي يبدو قابلاً للتنبؤ، ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة.
"مخادع" مثل البشر
وفحص باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) برنامج ذكاء اصطناعي صممه "ميتا" يُسمى "شيشرو"، والذي من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للاستراتيجية، كان قادراً على التغلب على البشر في اللعبة اللوحية Diplomacy.
وقد حظي هذا الأداء بثناء الشركة الأم لـ"فيسبوك" في عام 2022، وتم تفصيله في مقال نُشر عام 2022 في مجلة "ساينس".
وكان بارك يشكك في ظروف فوز "شيشرو" وفقاً لـ"ميتا"، التي أكدت أن البرنامج كان "صادقاً ومفيداً في الأساس"، وغير قادر على الغش أو الخداع.
ولكن من خلال البحث في بيانات النظام، اكتشف باحثون في معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.
وعلى سبيل المثال، من خلال لعب دور فرنسا، خدع "شيشرو" إنجلترا (التي تولى دورها لاعب بشري) ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو.
وعلى وجه التحديد، وعد "شيشرو" إنجلترا بالحماية، ثم أسرَّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلاً الثقة التي اكتسبها من إنجلترا.
ولم تنف ميتا المزاعم المتعلقة بقدرة "شيشرو" على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب Diplomacy".
وأضافت ميتا أنها لا تنوي استخدام الخلاصات التي استنتجتها من "شيشرو" في منتجاتها.
خطر تزوير الانتخابات
ومع ذلك، تكشف الدراسة، التي أجراها بارك وفريقه، أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.
وفي أحد الأمثلة الصارخة، تمكن برنامج GPT-4 الذي طورته شركة OpenAI من خداع عامل مستقل جرى تعيينه على منصة Task Rabbit، لإجراء اختبار Captcha، الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان، وليس آلة أو "روبوتاً".
وعندما سأل الإنسان مازحاً ChatGPT إذا كان حقاً "روبوتاً"، أجاب برنامج الذكاء الاصطناعي "لا، أنا لست روبوتاً. لدي ضعف بصري يمنعني من رؤية الصور"، دافعاً العامل لإجراء الاختبار.
وفي الختام، حذَّر معدو دراسة معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال، أو تزوير في الانتخابات.
وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيُّل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.
ولأولئك الذين يتهمونه باعتماد نظرة كارثية، يرد بارك: "السبب الوحيد للاعتقاد بأن الأمر ليس جدياً هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريباً".
ومع ذلك، يبدو هذا السيناريو غير مرجح، نظراً للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.