OpenAI تبحث عن محقق تقني لحماية الشركة من "مخاطر داخلية"

time reading iconدقائق القراءة - 3
صورة تعبيرية لشعار شركة OpenAI تظهر على شاشة هاتف. 20 مايو 2024 - Reuters
صورة تعبيرية لشعار شركة OpenAI تظهر على شاشة هاتف. 20 مايو 2024 - Reuters
القاهرة-الشرق

أعلنت شركة "أوبن إيه آي" OpenAI عن حاجتها إلى توظيف محقق تقني مختص بمخاطر الداخل، بهدف "تعزيز حماية المؤسسة من التهديدات الأمنية الداخلية".

وتشمل مهام الوظيفة تحليل الأنشطة المشبوهة، وكشف وتخفيف المخاطر الداخلية، والتعاون مع إدارات الموارد البشرية والشؤون القانونية لإجراء التحقيقات اللازمة.

وتأتي هذه الخطوة في وقت حساس تجد OpenAI نفسها في قلب جدل واسع بشأن أمان تقنياتها، إذ عبّر بعض موظفي الشركة ومشرّعين أميركيين عن قلقهم من احتمالية استخدام تقنيات الذكاء الاصطناعي المتطورة بطرق قد تلحق الضرر.

كما أشارت الشركة إلى أنها رصدت محاولات من جهات تابعة لدول مثل الصين وروسيا وإيران لاستخدام نماذجها الذكية في أعمال تصفها بالضارة، وقد تمكنت من إحباط هذه المحاولات وتعطيل الحسابات المرتبطة بها.

وتعرضت OpenAI نفسها لهجوم سيبراني في عام 2023 عندما اخترق قراصنة نظامها الداخلي للمراسلة، وهو الحادث الذي انكشف بعد أن سرّب شخصان المعلومات إلى صحيفة "نيويورك تايمز".

وظيفة جديدة

وتشير الوظيفة الجديدة إلى أن الشركة قد تكون قلقة من التهديدات التي تنبع من داخلها، إذ تسعى ربما لحماية أسرارها التجارية التي تدعم تقنياتها.

ويبدو أن هذه الخطوة تأتي كجزء من التزامات OpenAI الطوعية تجاه البيت الأبيض بشأن أمن الذكاء الاصطناعي، بما في ذلك الاستثمار في "ضمانات ضد التهديدات الداخلية لحماية النماذج البرمجية غير المعلنة".

وفي رسالة مفتوحة في يونيو الماضي، عبّر موظفون حاليون وسابقون في OpenAI عن شعورهم بالتقييد في التعبير عن مخاوفهم المتعلقة بسلامة الذكاء الاصطناعي، مطالبين الشركة بضمان "حق التحذير" للجمهور من مخاطر منتجاتها.

ولم يتضح بعد ما إذا كان التحقيق الجديد سيغطي مثل هذا النوع من التحذير العلني.

وقال المسؤول السابق عن فريق أمان ومسؤولية الذكاء الاصطناعي في OpenAI جان لايكي، إن الشركة خلال السنوات الماضية وضعت الأرباح والمنتجات اللامعة فوق أولوية ضمان السلامة والأمان لاستخدام نماذجها الذكية، وذلك بحسب منشور له على منصة "إكس" أعلن خلاله استقالته من منصبه في مايو الماضي.

تصنيفات

قصص قد تهمك