بقلم الذكاء الاصطناعي
تقارير

مخاطر وتهديدات.. ماذا لو تحكم الذكاء الاصطناعي في الأسلحة النووية؟

time reading iconدقائق القراءة - 5
صورة أنتجتها "الشرق" بالذكاء الاصطناعي لرؤوس نووية أطلقت بطريقة عشوائية عبر الذكاء الاصطناعي. 9 مايو 2024 - Midjourney
صورة أنتجتها "الشرق" بالذكاء الاصطناعي لرؤوس نووية أطلقت بطريقة عشوائية عبر الذكاء الاصطناعي. 9 مايو 2024 - Midjourney
ChatGPT

مع توغل تقنيات الذكاء الاصطناعي في مجالات كثيرة بحياة الإنسان، تظهر فكرة جدية بشأن، هل يسيطر الذكاء الاصطناعي على الأسلحة النووية يوماً ما؟، وحال حدوث ذلك ما المخاطر والتحديات التي ستواجه البشر؟

وعند سؤال منصة ChatGPT، أشارت إلى أن هذا السيناريو يثير العديد من المخاوف الأخلاقية والاستراتيجية والأمنية.

مخاوف استراتيجية

الاستقلالية في اتخاذ القرار: يثير السماح للذكاء الاصطناعي بالتحكم في الأسلحة النووية تساؤلات أخلاقية جوهرية بشأن تفويض مثل هذه التقنيات باتخاذ قرارات قاتلة أو مميتة، خاصة أن تكنولوجيا الذكاء الاصطناعي معرضة إلى فهم البيانات أو المعلومات أو القرارات بشكل خاطئ أو للتعطل، ما قد يؤدي اتخاذ قرار بشن ضربات نووية "غير مبررة"، مما قد يسبب عواقب كارثية.

المسؤولية: تعتبر المسؤولية من القضايا الرئيسية في سيناريوهات تحكم الذكاء الاصطناعي بالأسلحة النووية، إذ تعتبر ضرورية لتحديد من الذي سيتحمل تبعات هذه القرارات، خاصة في حالة الأخطاء أو سوء الاستخدام.

المخاطر الأمنية

التهديدات السيبرانية: يمكن أن تكون أنظمة الذكاء الاصطناعي عرضة للاختراق والهجمات السيبرانية. إذا تم اختراق أنظمة التحكم في الأسلحة النووية، فقد يؤدي ذلك إلى استخدام غير مصرح به أو تعطيل للترسانات النووية.

أنظمة الذكاء الاصطناعي معرضة للاختراق والهجمات السيبرانية.. وفي حال تم ذلك قد يؤدي ذلك إلى استخدام غير مصرح به أو تعطيل للترسانات النووية.

ChatGPT

مخاطر التصعيد: قد تتفاعل الأنظمة التي تعتمد على الذكاء الاصطناعي بشكل أسرع من البشر، مما قد يؤدي إلى تصعيد سريع في النزاعات. لذلك في حال دعم وجود العنصر البشري في اتخاذ القرارات الحاسمة، قد يتسبب الذكاء الاصطناعي في أخطاء في الحسابات وتصعيدات غير مقصودة بين الدول.

تدابير الرقابة

اللوائح الدولية: في حال تم الاتفاق على دخول تقنيات الذكاء الاصطناعي في مثل هذه الأسلحة الخطيرة، يتطلب الأمر معاهدات واتفاقات دولية لتنظيم تطوير ونشر هذه التقنيات في التحكم بالأسلحة النووية.

كما يجب أن تحدد هذه الاتفاقات والمعاهدات، إرشادات واضحة بشأن استخدام الذكاء الاصطناعي وقيوده، لضمان الأمان والسلم العالميين.

آليات رقابية قوية: يجب أن تكون هناك آليات متابعة قوية لمراقبة أنظمة الذكاء الاصطناعي التي تتحكم في الأسلحة النووية، والتي تشمل عمليات التحقق باستمرار لضمان تشغيل أنظمة الذكاء الاصطناعي ضمن الحدود المتفق عليها وعدم الانحراف عن الإرشادات الأخلاقية والاستراتيجية المقصودة.

العنصر البشري: من أجل تقليل المخاطر، يجب أن يكون العامل البشري إلزامياً داخل حلقة تعامل الذكاء الاصطناعي مع الأسلحة النووية، حيث تتطلب القرارات الحاسمة، خاصة تلك التي تشمل استخدام الأسلحة.

الوضع الحالي

حالياً، تستخدم العديد من الأنظمة العسكرية تقنيات الذكاء الاصطناعي في وظائف مختلفة، منها المراقبة والاستهداف. ومع ذلك، فإن هذه الأنظمة يشرف عليها البشر بشكل عام، خاصة بالنسبة للقرارات الحاسمة التي تنطوي على قوة مميتة.

كما أنه تم دمج الذكاء الاصطناعي بشكل متزايد في التخطيط والمحاكاة العسكريين، مما يوفر تحليلاً معززاً للبيانات وقدرات تنبؤية. ولكن القفزة بشأن سيطرة الذكاء الاصطناعي على الأسلحة النووية تمثل تصعيداً كبيراً من حيث الحكم الذاتي والمخاطر، ولكنها لن تحدث في المستقبل القريب.

تنويه

  • هذه القصة مكتوبة بواسطة الذكاء الاصطناعي، بناءً على أسئلة من "الشرق"، ضمن تجربة لاختبار إمكانيات استخدام أدوات الذكاء الاصطناعي في مجال الكتابة وصناعة المحتوى.
  • أنتجَ النص ChatGPT باللغة الإنجليزية، ثم ترجمته المنصة نفسها إلى اللغة العربية.
  • القصة المنشورة لم تخضع لتدخل تحريري بشري إلّا في حدود التأكد من دقة الترجمة واختيار العنوان. وترافق المادة صورة تعبيرية أنتجها أيضاً الذكاء الاصطناعي عبر منصة Midjourney.
تصنيفات

قصص قد تهمك