أقرب لإدراك البشر.. "OpenAI" تطلق النموذج الثوري "GPT-4"

time reading iconدقائق القراءة - 5
علامة شركة OpenAI التجارية وشعار منصة ChatGPT - AFP
علامة شركة OpenAI التجارية وشعار منصة ChatGPT - AFP
القاهرة- الشرق

أطلقت شركة OpenAI الجيل الرابع من نموذجها اللغوي العملاق GPT-4، والذي من المتوقع أن يحدث طفرة كبرى في قدرات منصات الذكاء الاصطناعي، لأنه يقدم لأول مرة نموذج متعدد الإمكانات Multi-Modal LLM، حسب تأكيدات الشركة.

ووفقاً لبيان رسمي، فإن الإصدار الجديد يسمح باستخدام مدخلات في هيئة نصوص وصور. ويعد ذلك تطوراً كبيراً مقارنة بالجيل الماضي GPT-3.5، والذي كان يسمح باستخدام النصوص فقط في التواصل مع مختلف المنصات العاملة به، مثل ChatGPT وDALL-E 2.

وقالت الشركة إن نسخة "GPT-4 هي نموذج رائع للوسائط المتعددة أقل مهارة من البشر في العديد من سيناريوهات الحياة الواقعية، ولكنها جيدة مثل البشر في أداء العديد من المهام المهنية والأكاديمية".

فيمكنه "على سبيل المثال، اجتياز الامتحان ليصبح محامياً بدرجة جيدة مثل أعلى 10% من الناجحين.

وأشارت الشركة إلى انها قضت 6 أشهر في عمليات ضبط وتجهيز الإصدار الجديد من نموذجها اللغوي، وذلك باستخدام الدروس المستفادة من برنامج تحديات متعددة Adversarial Tests وكذلك منصة ChatGPT، وقد أثبت النموذج الجديد قدرته الفائقة على الالتزام بتقديم الحقائق والمعلومات الصحيحة، إلى جانب مواجهة محاولات المستخدمين لإخراجه عن سياق الحوار أو تقديم ردود مخالفة لمعايير الشركة.

وأشارت الشركة إلى أنه يمكن التمييز بين GPT-3.5 و GPT-4، عند وصول تعقيد المهمة إلى أقصاها، حيث أن GPT-4 هو أكثر موثوقية وإبداعاً وقدرة على التعامل مع التعليمات أكثر دقة مقارنة بالجيل السابق.

فهم الصور

النموذج الجديد GPT-4 قادر على فهم الصور بشكل جيد، حتى مع الصور المعقدة، فالنموذج بإمكانه وصف الصور بشكل دقيق، مثل التفرقة بين سلك بطرف USB-C، وبين هاتف آيفون متصل بالشاحن الخاص به.

وكي تتمكن من تأكيد جاهزية ميزة إدخال الصور للنموذج الجديد، تعاونت الشركة مع تطبيق مساعدة ضعاف وفاقدي البصري Be My Eyes، والذي سيحصل مع التحديث الجديد على ميزة Virtual Volunteer، والتي تستخدم قدرات النموذج الذكي الجديد لاستقراء وتحليل الصور، ووصفها بدقة للمستخدمين، إضافة إلى ما يمكنهم إنجازه بواسطة مكونات تلك الصور.

كما أن تلك الميزة تسمح للمستخدم بإدخال أسئلة أو أمر نصي مع إرفاق صور بحيث تكون الأوامر النصية تطلب من النموذج GPT-4 أداء مهام أو إجابة تساؤلات تتعلق بمحتوى الصور.

توجيه الإرشادات

وتأتي ميزة التوجيه Steerability من بين القدرات الفائقة التي يقدمها النموذج الجديد، فيمكن للمستخدم توجيه النموذج ووضع قائمة بالإرشادات التي لابد أن يلتوم بها، في طريقة إجاباته على التساؤلات وتقديمه للمعلومات المختلفة، وهي ميزة تعرف باسم System Messages.

وضربت الشركة مثالاً لتلك الميزة تتمثل في وضع مجموعة من التوجيهات والإرشادات للنموذج الجديد كي يتحول إلى مُعلم لطالب، بحيث تقوم تلك الإرشادات بشرح طريقة التعليم التي يجب أن يتبعها النموذج وعملية تبسيط المعلومات، حتى تصل إلى مستوى إدراك الطالب بشكل سهل وواضح.

وأشارت الشركة إلى أن تلك الميزة ستسمح للمطورين أيضاً بالتحكم في طريقة عمل خدماتهم التي تقدم تفاعل ذكي مع المستخدمين، من خلال وضع لائحة بضوابط وسمات شخصية النموذج التي تعتمد عليه خدماتهم وأسلوب تعاملها مع المستخدمين.

اعتراف بالقصور

على الرغم من كافة التحديثات الجديدة، فإن "OpenAI" اعترفت بأن GPT-4 ليس معصوماً من الخطأ، كما أشارت الشركة إلى أن نموذجها اللغوي الذكي ما زال غير قادر على تقديم معلومات بشأن تطورات الأحداث بعد سبتمبر 2021، كما أنه لا يتعلم من تجاربه السابقة مع أسئلة المستخدمين.

وأضافت الشركة بأن GPT-4 من الممكن أن يرتكب في بعض الأحيان أخطاء منطقية بسيطة وساذجة لا يبدو أنها تتماشى مع كفاءة أدائه، مثل قبول عبارات خاطئة واضحة من المستخدم. وأحيانًا يمكن أن يفشل في المشكلات الصعبة بالطريقة نفسها التي يفشل بها البشر، مثل اكتساف ثغرات أمنية في الأكواد البرمجية التي ينتجها بنفسه.

وعلى الرغم من ذلك، فقد أكدت "OpenAI" على أنها طورت النموذج الجديد ليكون قادر على رفض نسبة 82% من محاولات وتساؤلات المستخدمين الساعية نحو الحصول على إجابات تتعلق بموضوعات خطرة، مثل تصنيع كيماويات مضرة أو محاولة إيذاء النفس، مقارنة بالجيل السابق GPT-3.5.

اقرأ أيضاً:

تصنيفات