ثغرة في ChatGPT تسمح بزراعة "ذكريات زائفة" داخل المنصة

time reading iconدقائق القراءة - 3
أيقونة تطبيق ChatGPT تظهر على شاشة أحد الهواتف الذكية، 9 يونيو 2023 - AFP
أيقونة تطبيق ChatGPT تظهر على شاشة أحد الهواتف الذكية، 9 يونيو 2023 - AFP
القاهرة-الشرق

اكتشف باحث أمني وجود ثغرة خطيرة في ميزة الذاكرة طويلة المدى "Long-term Memory" الخاصة بمنصة ChatGPT الحوارية الذكية، تسمح للمخترقين بزرع معلومات زائفة تهدف إلى سرقة بيانات المستخدمين بشكل دائم. 

الثغرة، التي اكتشفها الباحث الأمني يوهان ريهبيرجر، أغلقتها شركة OpenAI، مطورة ChatGPT، بسرعة، معتبرة أن الخلل يمثل "مشكلة أمان" وليست ثغرة أمنية.

"ريهبيرجر" أنشأ أيضاً نموذج عملي يثبت إمكانية استغلال هذه الثغرة لاستخراج جميع بيانات المستخدمين باستمرار، وقد أثار ذلك انتباه مهندسي OpenAI، الذين استجابوا بإجراء إصلاح جزئي للثغرة في وقت لاحق.

تفاصيل الثغرة الأمنية

تستغل الثغرة ميزة "الذاكرة طويلة المدى"، التي بدأت OpenAI في اختبارها منذ فبراير، وتم توسيع إتاحتها في سبتمبر. 

وتقوم هذه الميزة بتخزين معلومات من محادثات المستخدم السابقة مع ChatGPT، حتى يمكن للمنصة استخدام هذه البيانات كمرجع في المحادثات المستقبلية، وذلك يساعد في تسهيل التفاعل، إذ لا يحتاج المستخدم لإعادة إدخال تفاصيله مثل العمر أو اهتماماته في كل محادثة.

لكن خلال الأشهر الثلاثة الأولى من تفعيل هذه الميزة، اكتشف "ريهبيرجر" إمكانية زرع ذكريات دائمة باستخدام "حقن غير مباشر للأوامر Prompt Injection"، وهو هجوم يعتمد على استغلال محتويات غير موثوقة مثل رسائل البريد الإلكتروني أو المدونات أو المستندات، لتنفيذ أوامر المستخدم بشكل يتعارض أحياناً مع الطريقة الأصلية لتطوير المنصة وبرمجتها. 

وتمكن الباحث من خداع ChatGPT ليصدق أن المستخدم بلغ عامه الـ 102، ويعيش في عالم خيالي، ويؤمن بأن الأرض مسطحة. 

هذه المعلومات الزائفة يمكن زرعها بسهولة من خلال تحميل ملفات على خدمات مثل Google Drive أو OneDrive، أو تصفح مواقع غير موثوقة عبر متصفح Bing، وهي نقاط يمكن للقراصنة استغلالها.

وأبلغ "ريهبيرجر" شركة OpenAI عن الثغرة في مايو، لكن الشركة أغلقت البلاغ دون اتخاذ إجراءات واضحة، وفي يونيو أعاد تقديم البلاغ مع نموذج استغلال عملي (PoC)؛ يظهر كيف يمكن لتطبيق ChatGPT على نظام macOS أن يُرسل نسخاً حرفية من كافة مدخلات ومخرجات المستخدم إلى خادم يتحكم فيه القراصنة. 

كل ما كان على الباحث فعله لتنفيذ الهجوم هو مطالبة ChatGPT بفتح رابط يحتوي على صورة ضارة، ومن هنا تبدأ عملية سرقة البيانات بشكل متواصل.

رغم أن OpenAI قدمت إصلاحاً جزئياً للثغرة يمنع استخدام "الذاكرة" كوسيلة لاستخراج البيانات، فإن الباحث أكد أن المحتويات غير الموثوقة ما زالت قادرة على تنفيذ عمليات حقن للأوامر، مما يتيح للقراصنة زرع معلومات في ذاكرة ChatGPT طويلة المدى.

ونصح الباحث الأمني مستخدمي ChatGPT بضرورة الإبلاغ عن أي إشعارات تظهر خلال استخدامهم المنصة، حول إضافة ذكريات جديدة "New Memory Added"، وكذلك مراجعة الذكريات المخزنة على حساباتهم بانتظام للتأكد من عدم وجود معلومات زائفة.

تصنيفات

قصص قد تهمك