بعد عقد البنتاجون.. OpenAI في دوامة من الاضطرابات | الشرق للأخبار

بعد عقد البنتاجون.. OpenAI في دوامة من الاضطرابات الداخلية والخارجية

time reading iconدقائق القراءة - 8
سام ألتمان، الرئيس التنفيذي لشركة OpenAI يتحدث خلال يوم كاكاو الإعلامي في سول، كوريا الجنوبية، الثلاثاء 4 فبراير 2025 - Bloomberg - Bloomberg
سام ألتمان، الرئيس التنفيذي لشركة OpenAI يتحدث خلال يوم كاكاو الإعلامي في سول، كوريا الجنوبية، الثلاثاء 4 فبراير 2025 - Bloomberg - Bloomberg
القاهرة-

أثارت صفقة OpenAI المطورة لـChatGPT، مع وزارة الدفاع الأميركية موجة واسعة من الانتقادات داخل الشركة وخارجها، بعدما عبّر موظفون حاليون وسابقون عن مخاوفهم من إمكانية استخدام تقنيات الذكاء الاصطناعي في تطبيقات عسكرية أو أنظمة مراقبة واسعة النطاق، في حين بدأ بعض المستخدمين بالتخلي عن ChatGPT لصالح خدمات منافسة.

وأعلن الرئيس التنفيذي لـOpenAI سام ألتمان في 28 فبراير، عن اتفاق يمنح البنتاجون، إمكانية الوصول إلى نماذج الذكاء الاصطناعي التابعة للشركة، وذلك بعد أيام قليلة من رفض شركة Anthropic المنافسة المطورة لـClaude السماح للوزارة باستخدام برنامجها في المراقبة الجماعية، أو الأسلحة الروبوتية.

وقال الرئيس التنفيذي لشركة Anthropic داريو أمودي آنذاك إن شركته لا يمكنها الموافقة على أي اتفاق دون ضمانات واضحة تمنع استخدام التكنولوجيا في تشغيل الأسلحة المستقلة، أو أنظمة المراقبة المحلية واسعة النطاق، مضيفاً أن الشركة "لا يمكنها الموافقة على هذا الطلب بضمير مرتاح".

وبالنسبة إلى OpenAI، كان من المتوقع أن يشكل الحصول على عقد بارز مع البنتاجون إنجازاً مهماً للشركة، غير أن الاتفاق سرعان ما تحول إلى مصدر أزمة داخلية وخارجية، إذ واجهت الشركة موجة انتقادات متزايدة تهدد سمعتها ومكانتها كأكثر الشركات شعبية في مجال روبوتات الدردشة المعتمدة على الذكاء الاصطناعي.

وفي ظل تصاعد الانتقادات، أعلن ألتمان إدخال تعديلات على الاتفاق، في محاولة لاحتواء الجدل المتزايد، إلا أن هذه الخطوة لم تكن كافية لتهدئة ردود الفعل الغاضبة التي جاءت سريعاً من موظفين ومستخدمين على حد سواء.

وكان ألتمان قد قال لدى الإعلان عن الصفقة، إن وزارة الدفاع الأميركية وافقت على أهم مبدأين لدى الشركة في مجال السلامة، وهما حظر المراقبة الجماعية داخل البلاد، وتولي البشر مسؤولية واضحة عن استخدام القوة، بما في ذلك ما يتعلق بأنظمة الأسلحة ذاتية التشغيل. وقال إن الوزارة وافقت على هذه المبادئ، وأدرجتها في الاتفاق بين الطرفين.

استقالات داخلية 

ومن أبرز تداعيات الأزمة إعلان كايتلين كالينوفسكي، رئيسة قسم الروبوتات في OpenAI، استقالتها من منصبها. وكانت كالينوفسكي قد انضمت إلى الشركة في عام 2024 قادمة من شركة ميتا لتولي قيادة قسم الروبوتات وتطوير الأجهزة داخل OpenAI.

وفي منشور نشرته عبر منصة لينكد إن، انتقدت كالينوفسكي صفقة الشركة مع البنتاجون، مشيرة إلى أن الذكاء الاصطناعي يمكن أن يؤدي دوراً مهماً في مجال الأمن القومي، لكنها حذّرت في الوقت نفسه من المخاطر المرتبطة باستخدامه في المراقبة الداخلية أو الأنظمة القتالية المستقلة.

وقالت إن مراقبة الأميركيين دون إشراف قضائي، أو تطوير أنظمة قتالية مستقلة قادرة على اتخاذ قرارات قاتلة دون موافقة بشرية، "خطوط حمراء تستحق نقاشاً أعمق بكثير مما حدث".

وأكد متحدث باسم OpenAI مغادرة كالينوفسكي للشركة، لكنه دافع في الوقت نفسه عن الاتفاق مع وزارة الدفاع الأميركية، قائلاً إن الشركة تعتقد أن الاتفاق يوفر مساراً عملياً لاستخدام الذكاء الاصطناعي بشكل مسؤول في مجالات الأمن القومي، مع وضع خطوط واضحة تمنع استخدام التكنولوجيا في المراقبة الداخلية داخل الولايات المتحدة أو في الأسلحة المستقلة.

وأضاف المتحدث أن هذه القضايا تثير آراء قوية ومتباينة، مشيراً إلى أن الشركة ستواصل الحوار مع الموظفين والحكومة ومنظمات المجتمع المدني والمجتمعات المختلفة حول العالم بشأن الاستخدامات المحتملة للذكاء الاصطناعي.

ولم تكن استقالة كالينوفسكي الحدث الوحيد الذي كشف حجم التوتر داخل OpenAI، إذ عبّر عدد من موظفي الشركة علناً عن معارضتهم للصفقة.

فقد كتب الباحث في OpenAI أيدان ماكلولين عبر "إكس"، أنه شخصياً لا يعتقد أن هذه الصفقة كانت تستحق المخاطرة.

كما نقلت شبكة CNN عن أحد موظفي الشركة قوله إن العديد من العاملين داخل OpenAI يحترمون بشدة، قرار شركة Anthropic رفض الاتفاق مع البنتاجون.

وفي سياق متصل، أوضح الموظف التقني في الشركة كلايف تشان في منشور عبر منصة "إكس"، أنه يعتقد أن العقد المبرم مع وزارة الدفاع يمنع استخدام نماذج OpenAI في تطوير أسلحة روبوتية، أو أنظمة مراقبة واسعة النطاق داخل الولايات المتحدة، لكنه شدد على ضرورة أن تكشف الشركة مزيداً من التفاصيل حول الاتفاق.

وأشار تشان إلى أنه سيدعو داخل الشركة إلى إنهاء العقد إذا اتضح لاحقاً أن هذه القيود غير موجودة.

وكان الجدل حول استخدام الذكاء الاصطناعي في التطبيقات العسكرية قد بدأ قبل إعلان الصفقة، إذ وقّع نحو 900 موظف حالي وسابق في شركتي OpenAI وجوجل عريضة مشتركة أعربوا فيها عن دعمهم لموقف Anthropic الرافض لاستخدام التكنولوجيا في تطوير أسلحة يمكنها القتل دون إشراف بشري أو في أنظمة المراقبة الجماعية.

وجاء في نص العريضة أن البنتاجون يجري مفاوضات مع جوجل وOpenAI في محاولة لإقناعهما بالموافقة على ما رفضته شركة Anthropic.

تصاعد الطلب على Claude

ولم تقتصر تداعيات الصفقة على داخل الشركة، بل امتدت أيضاً إلى المستخدمين، فبعد الإعلان عن الاتفاق، شهدت منصات التواصل الاجتماعي موجة انتقادات حادة لقرار سام ألتمان، في حين انتشرت على منصة Reddit منشورات تدعو المستخدمين إلى وقف استخدام ChatGPT.

وأظهرت البيانات أن عمليات حذف تطبيق ChatGPT ارتفعت بنسبة تزيد على 295% في 28 فبراير، وهو اليوم الذي أعقب الإعلان عن الصفقة.

وفي المقابل، توجه عدد كبير من المستخدمين إلى تطبيق Claude التابع لشركة Anthropic، ما دفعه إلى تصدر قائمة التطبيقات المجانية الأكثر تحميلاً في متجر Apple App Store داخل الولايات المتحدة بحلول الاثنين، وظل التطبيق في المركز الأول حتى السبت.

كما تصدر Claude أيضاً قائمة التطبيقات الأكثر تحميلاً ضمن فئة تطبيقات الإنتاجية في متجر التطبيقات، متقدماً على ChatGPT وتطبيق جيميناي التابع لشركة جوجل، إضافة إلى تطبيق جروك الذي تطوره شركة xAI.

كما تحولت الأزمة إلى احتجاجات على أرض الواقع، إذ تجمع ناشطون أمام مقر OpenAI في مدينة سان فرانسيسكو الثلاثاء، مطالبين بإطلاق حملة أطلقوا عليها اسم QuitGPT.

وقالت إحدى المشاركات في الاحتجاج، وتدعى سارة جاو، إن غضب المتظاهرين لا يرتبط فقط بصفقة البنتاجون، بل يمتد إلى مخاوف أوسع تتعلق بنفوذ شركات التكنولوجيا الكبرى.

الجدل يصل إلى الكونجرس

كما جذب الجدل انتباه المشرعين في الولايات المتحدة، فقد قدم عضو مجلس النواب الديمقراطي عن ولاية كاليفورنيا سام ليكاردو تعديلاً على قانون الإنتاج الدفاعي يهدف إلى منع وزارة الدفاع من اتخاذ إجراءات انتقامية ضد الشركات التي تفرض قيوداً على استخدام التقنيات عالية المخاطر.

لكن التعديل لم يمر، إذ فشل في لجنة الخدمات المالية بمجلس النواب بعد تصويت بلغ 25 صوتاً مقابل 16.

وخلال جلسة اللجنة، قال ليكاردو إنه مشترك في خدمة Claude، مضيفاً مازحاً أنه لا يمكنه الادعاء بأنه استخدمه لصناعة روبوتات قاتلة.

وأضاف أنه ينبغي الاستماع إلى تحذيرات الشركات التي تطور التكنولوجيا بشأن مخاطر استخدامها، مشبهاً الأمر بشركة تصمم طائرة مقاتلة وتخبر الطيار متى يجب استخدام المكابح، في حين يعتقد البيروقراطيون في البنتاجون أنهم قادرون على "قيادة الطائرة دون مكابح".

وفي سياق متصل، أعلن السيناتور الديمقراطي عن ولاية هاواي براين شاتز عبر منصة "إكس"، أنه قام بتحميل تطبيق Claude.

احتواء الأزمة

ومع تصاعد الانتقادات، حاول سام ألتمان احتواء الأزمة عبر سلسلة من الخطوات.

ففي اليوم التالي للإعلان عن الصفقة، فتح ألتمان جلسة أسئلة مباشرة مع المستخدمين عبر منصة "إكس"، وأقر خلالها بأن عملية الإعلان عن الاتفاق كانت متسرعة، قائلاً إن العملية "تمت بسرعة بالتأكيد، والانطباع الذي أعطته لم يكن جيداً".

وفي مذكرة داخلية أرسلها في 2 مارس، وشاركها لاحقاً على منصة إكس، أوضح ألتمان أن OpenAI قامت بمراجعة بنود العقد لإضافة ضمانات أوضح تمنع استخدام نماذجها في المراقبة الداخلية واسعة النطاق داخل الولايات المتحدة.

كما أشار إلى أنه سيعيد صياغة الاتفاق بحيث يتضمن حظراً صريحاً لاستخدام تكنولوجيا OpenAI على البيانات "المشتراة تجارياً"، وهو بند لم يكن مشمولاً في الصيغة الأصلية للعقد.

واعترف ألتمان في المذكرة بأنه لم يكن ينبغي له التسرع في إعلان الصفقة، قائلاً إن الأمر بدا وكأنه خطوة "انتهازية وغير منظمة".

تصنيفات

قصص قد تهمك