خبراء يحذرون من "انقراض البشرية" بسبب الذكاء الاصطناعي | الشرق للأخبار

خبراء يحذرون من "انقراض البشرية" بسبب الذكاء الاصطناعي

time reading iconدقائق القراءة - 4
صورة تعبيرية لدمية وفي الخلفية كلمة "ذكاء اصطناعي" - REUTERS
صورة تعبيرية لدمية وفي الخلفية كلمة "ذكاء اصطناعي" - REUTERS
القاهرة-

حذر مئات الباحثين في مجال الذكاء الاصطناعي والرؤساء التنفيذيين لعدد من الشركات الكبرى العاملة في القطاع، من أن الذكاء الاصطناعي لديه القدرة على التسبب في "انقراض الجنس البشري"، مثل الأوبئة والحروب النووية، فيما اعتبر آخرون أن البيان يبتعد عن "المشكلات الحقيقة" للذكاء الاصطناعي.

ودعا الباحثون في بيان إلى ضرورة أن تكون مواجهة خطر الانقراض جراء تطور الذكاء الاصطناعي "أولوية عالمية إلى جانب المخاطر الأخرى على نطاق المجتمع مثل الأوبئة والحرب النووية".

وضمت قائمة الموقعين مديرين تنفيذيين للشركات الرائدة في مجال تطوير تقنيات الذكاء الاصطناعي، منهم سام ألتمان الرئيس التنفيذي لشركة "OpenAI" المطورة لـ"ChatGPT"، وإيليا سوتسكيفر المؤسس المشارك للشركة وكبير العلماء فيها، وديميس هاسابيس الرئيس التنفيذي لشركة "ديب مايند" المملوكة لـ"جوجل"، والرئيس التنفيذي لشركة "Anthropic" داريو أمودي.

ومن أبرز الموقعين أيضاً، الأب الروحي للذكاء الاصطناعي جيفري هينتون، ويوشوا بينجيو الأستاذ في جامعة مونتريال، والذي كان من أوائل الموقعين على رسالة مفتوحة، نهاية مارس الماضي، دعت إلى التوقف عن تطوير الذكاء الاصطناعي لمدة 6 أشهر.

وكان من بين الموقعين على الرسالة المفتوحة في مارس الماضي، الملياردير الأميركي إيلون ماسك، والذي دعا إلى "وقف التطور السريع الذي تشهده هذه الساحة التقنية مؤقتاً" من أجل "تفادي مخاطر على البشرية"، رغم أنه أظهر لاحقاً اهتماماً متزايداً بدخول "تويتر" إلى سوق أنظمة الذكاء الاصطناعي.

وأشار البيان إلى أن الوضع الراهن يشهد اهتماماً واسعاً من خبراء الذكاء الاصطناعي والصحافيين وصانعي السياسات والجمهور بشكل متزايد، بالمخاطر الناجمة عن الذكاء الاصطناعي، إلا أنه مع ذلك قد يكون من الصعب التعبير عن المخاوف بشأن بعض المخاطر الأكبر.

وشدد الموقعون على البيان، على ضرورة بدء نقاش وخلق معرفة مشتركة بين الخبراء والشخصيات العامة بشأن مخاطر الذكاء الاصطناعي التي قد تؤدي في النهاية إلى انقراض البشرية.

"محاولة إلهاء"

في المقابل، اعتبر عدد من الباحثين المتخصصين في الذكاء الاصطناعي، أن البيان يعمق خوفاً وجودياً غير حقيقي، في محاولة للتقليل من شأن مشكلات الذكاء الاصطناعي الحقيقية، موضحين أن ما يدعم هذه المخاوف هو أن أغلبية الموقعين على البيان من المؤسسين والعاملين بالشركات المطورة والتي تحقق حالياً مليارات الدولارات من تطوير النماذج الذكية.

وقالت الباحثة في مجال الذكاء الاصطناعي بشركة "هاجينج فيس"، ساشا لوسيوني، إن وضع مخاطر الذكاء الاصطناعي في نفس المرتبة من حيث التأثير والخطورة مع تأثيرات تغير المناخ والأوبئة أمر مضلل، لأن كلاهما له مخاطر ملموسة ويتأثر بها بالفعل ملايين البشر، معتبرة أن ذلك محاولة لإلهاء الرأي العام عن المخاطر الحقيقية.

واعتبرت في تصريحات لموقع "فايس"، أن مخاطر النماذج الذكية التي يجب الالتفات إليها والتركيز عليها هي ضرورة موافقة صناع المحتوى والشركات على استخدام البيانات الخاصة بهم لتدريب تلك النماذج، وكذلك مواجهة دور تلك النماذج في إنتاج وترويج المعلومات الخاطئة والمضللة التي من الممكن أن تؤثر بشكل سلبي على حياة البشر.

ووصفت الباحثة في علوم الحاسوب والموظفة السابقة بشركة "موزيلا"، ديبوراه راجي، النبرة التي استخدمها البيان بضرورة التركيز على إنقاذ العالم، بأنها محيرة، خاصة أن العديد من مخاطر الذكاء الاصطناعي ملموسة الآن بالفعل، لكن "يتم إهمالها بشكل متعمد".

اقرأ أيضاً:

تصنيفات