روبوت الدردشة ChatGPT.. يفهم لغات البشر وأفكارهم

time reading iconدقائق القراءة - 5
أكواد برمجية على أحد الأبواب الزجاجية في العاصمة الروسية موسكو  - AFP
أكواد برمجية على أحد الأبواب الزجاجية في العاصمة الروسية موسكو - AFP
القاهرة -محمد عادل

قدم برنامج ذكاء اصطناعي تجريبي يشارك في محادثات تفاعلية مع الإنسان إجابات "مذهلة" بسبب قدرته على التعمق في مجالات متنوعة بشكل قريب من طريقة البشر، لكن النظام الذي أطلقته شركة OpenAI المتخصصة في تقنيات وأبحاث الذكاء الاصطناعي، قبل أيام، ويسمى ChatGPT واجه مشاكل مرتبطة بواقعية الإجابات التي بدت "غبية" في بعض الأحيان.

يستطيع النظام البرمجي الجديد الإجابة على أسئلة المستخدمين في مجالات مختلفة، بداية من الأفكار الإبداعية والتصميم والديكور، مروراً بكتابة لغات العالم المختلفة بما في ذلك العربية، وصولاً إلى مجالات أكثر تعقيداً مثل كتابة الأكواد البرمجية وتصحيحها، والمعزوفات الموسيقية، على نمط أشهر مؤلفيها، فضلاً عن الإجابة على تساؤلات تقنية وتسويقية وتجارية.

تجارب متعددة

وأطلق مستخدمون العنان لخيالهم بشأن كيفية استغلال مثل هذا النظام الجديد، وقارن البعض قدراته المعرفية بمحرك البحث جوجل، لترجح كفة ChatGPT.

وراجع أحد المطورين كوداً برمجياً قام بكتابته ليكتشف ChatGPT الثغرات الموجودة به مع تقديم شرح لها، بل وصل الأمر إلى تقديم النظام حلول برمجية.

مستخدم آخر استغل النظام الذكي في طلب تخيل تصميم مميز لغرفة، ثم أدخل رد نظام ChatGPT في نظام MidJourney الذكي الذي يقوم بتحويل الوصف النصي من المستخدمين إلى صور عالية الدقة، ليصل المستخدم في النهاية إلى ما اعتبره "تصميم خرافي للغرفة".

مشاكل متنوعة

ومع ذلك، اعترف مطورو OpenAI بأن نظامهم الجديد تتخلله أوجه قصور في طريقة تعليمهم إياه، مشيرين إلى أن ذلك انعكس في بعض المشاكل خلال حواراته مع المستخدمين.

وكانت المشكلة الرئيسية التي واجهت بعض المستخدمين هي عدم صحة المعلومات التي يلجأ النظام إليها خلال بعض إجاباته، وأرجع الباحثون ذلك إلى أن النظام الجديد لا يحتوي على مكون مخصص للتأكد من مدى صحة المعلومات التي يتم الاعتماد عليها في الإجابات.

واتضح ذلك مع أحد مستخدمي النظام الجديد، حيث سأله: "هل تعرف قصة علي بابا والأربعين حرامي؟"، وتضمنت إجابة ChatGPT أخطاء فادحة، حيث وصف الأربعين حرامي بأنهم من عظماء الإسلام، وأن علي بابا كان صغيراً يدعو الله أن يجعله منهم.

كما أشار الباحثون إلى أن عملية تدريب نظام ChatGPT اعتمدت على جعله حذراً بدرجة كبيرة عند الإجابة، مما انعكس سلباً عليه، حيث دفعه هذا الاتجاه نحو تفضيل عدم الإجابة على عدد كبير من الأسئلة، حتى تلك التي تعلم طريقة الإجابة عليها.

كذلك أقر الباحثون بأن من أوجه القصور في طريقة تعليمهم للنظام الجديد، هو أن التعليم تحت الإشراف البشري "ضلّل" النظام، لأن الإجابة المثالية تعتمد على مدى معرفة النظام، وليس على مدى دراية ومعلومات المشرف البشري.

وطور باحثو OpenAI النظام البرمجي من خلال استخدام أسلوب التعليم RLHF، وهو اختصار لتسمية نظام التعليم المعزز المعتمد على ردود فعل البشر Reinforcement Learning from Human Feedback، بحسب الموقع الرسمي للنظام.

واعتمد الباحثون نموذج ذكاء اصطناعي، يستند إلى بيانات منقحة قادمة من محادثات نقاشية يلعب خلالها مدربو الذكاء الاصطناعي البشريين دورين، دور المستخدم وكذلك دور المساعد الذكي.

طريقة تعليم نظام ChatGPT الجديد جعلته أيضاً حساساً للغاية من أي تغيير يتم إجرائه على المدخلات النصية، إذ يقول أحياناً إنه غير قادر على الإجابة على سؤال ما، لكن بعد تغيير كلمة واحدة أو أكثر عبر إعادة الصياغة، يتمكن من الإجابة.

كما ظهر قصور آخر مرتبط بالاستخدام المبالغ فيه، والمتكرر لبعض العبارات والكلمات، ما أثر سلبياً على طريقة حديث النظام الذكي الجديد، وهو ما أرجعه الباحثون إلى أن نظام التدريب اعتمد على استخدام عبارات وجُمل طويلة في الإجابات والأحاديث.

وواجه النظام مشكلة أخرى ظهرت عند طرح المستخدم سؤال غير واضح أو عبارة مبهمة، إذ يبادر النظام بتخمين المقصود، وهو ما يبعد النقاش أحياناً عن هدفه.

اقرأ أيضاً:

تصنيفات