ميتا تنافس "ChatGPT" بنسختها الخاصة للذكاء الاصطناعي

time reading iconدقائق القراءة - 3
شعار Meta المعروض على اللوحة الأم للكمبيوتر في رسم توضيحي. 23 فبراير 2023 - REUTERS
شعار Meta المعروض على اللوحة الأم للكمبيوتر في رسم توضيحي. 23 فبراير 2023 - REUTERS
سان فرانسيسكو-أ ف ب

كشفت ميتا، المالكة لفيسبوك، الجمعة، عن نسختها الخاصة من الذكاء الاصطناعي المستخدم في تطبيقات مثل "ChatGPT"، قائلة إنها ستتيح للباحثين إيجاد حلول للمخاطر المحتملة لهذه التكنولوجيا.

ووصفت ميتا برنامج الذكاء الاصطناعي الخاص بها، والمسمى LLaMA (لاما)، بأنه نموذج "أصغر وأفضل أداءً"،" صُمم "لمساعدة الباحثين على تطوير عملهم"، في ما يمكن اعتباره انتقاداً مبطّناً لقرار مايكروسوفت بإصدار التكنولوجيا على نطاق واسع، مع الاحتفاظ برمز البرمجة سرّياً.

وقد أثارت برمجية "ChatGPT" المدعومة من مايكروسوفت ضجة كبيرة في العالم بفعل قدرتها على إنشاء نصوص متقنة مثل المقالات أو القصائد، في ثوانٍ فقط باستخدام تقنية تُعرف باسم نماذج اللغات الكبيرة (LLM).

وتعد تكنولوجيا LLM جزءاً من مجال يُعرف باسم الذكاء الاصطناعي التوليدي، والذي يتضمن أيضاً القدرة على التصرف بالصور أو التصميمات أو كود البرمجة بشكل فوري تقريباً بناءً على طلب بسيط.

عقبات 

وعمقت مايكروسوفت شراكتها مع شركة "أوبن إيه آي"، مبتكرة "ChatGPT"، إذ أعلنت في وقت سابق من هذا الشهر أن التكنولوجيا ستُدمج في محرك بحث بينج الخاص بها وكذلك متصفح إيدج.

وأعلنت جوجل، التي ترى تهديداً مفاجئاً لهيمنة محرك البحث الخاص بها، أنها ستطلق قريباً لغتها الخاصة في مجال الذكاء الاصطناعي، وتحمل اسم "بارد"، لكنّ تقارير عن ثغرات شابت عمليات تواصل مع روبوت المحادثة الخاص بمحرك بينج التابع لمايكروسوفت، بينها توجيه تهديدات وحديث عن رغبة في سرقة رمز نووي، انتشرت على نطاق واسع، ما أعطى انطباعاً بأن التكنولوجيا ليست جاهزة بعد.

وأشارت ميتا إلى أن هذه المشكلات التي أظهرها الذكاء الاصطناعي عبر روبوتات المحادثة، والتي شبّهها البعض بالهلوسات، يمكن علاجها بشكل أفضل إذا تمكّن الباحثون من تحسين الوصول إلى هذه التكنولوجيا باهظة الثمن.

وقالت الشركة إن البحث الشامل "لا يزال محدوداً بسبب الموارد المطلوبة لتدريب مثل هذه النماذج الكبيرة وتشغيلها".

وأوضحت ميتا أن هذا الأمر يعوق الجهود "لتحسين قدرات" هذه التكنولوجيا، و"تخفيف المشكلات المعروفة، مثل التحيز" و"إمكانية توليد معلومات مضللة".

اقرأ أيضاً:

تصنيفات