الاتحاد الأوروبي يبحث ملف تصنيف محتوى الذكاء الاصطناعي المُزيّف

time reading iconدقائق القراءة - 4
صورة توضيحية لعلم الاتحاد الأوروبي إلى جانب عبارة "الذكاء الاصطناعي". 21 مايو 2024 - Reuters
صورة توضيحية لعلم الاتحاد الأوروبي إلى جانب عبارة "الذكاء الاصطناعي". 21 مايو 2024 - Reuters
دبي -الشرق

أطلق الاتحاد الأوروبي، الأربعاء، عملية من المرتقب أن تستمر لعدة أشهر تهدف إلى تسهيل عملية التعرف على المحتوى المُنتج باستخدام الذكاء الاصطناعي عبر الإنترنت، حسب ما أوردت مجلة "بوليتيكو".

وستجتمع المفوضية الأوروبية مع مجموعات من قطاع التكنولوجيا لإجراء أول نقاش حول تصنيف المحتوى المعروف بـ"Deepfake"، وهي المرة الأولى التي تُبدي فيها الجهات التنظيمية رأيها قبل تطبيق المتطلبات الجديدة العام المقبل.

وأثار انتشار مقاطع الفيديو والصور المُزيّفة باستخدام الذكاء الاصطناعي، بما في ذلك في حملتين انتخابيتين حديثتين، مخاوف من أن الإنترنت أصبح منصة تنتشر فيها الصور المُتلاعب بها، والتي تخدع المستخدمين، وتُشكل خطراً على الانتخابات، والديمقراطيات الأوروبية.

ولكن وسط دعوات لمعالجة هذه المشكلة، تُحذر الصناعة بالفعل من الإفراط في التوجيه من قبل السلطات، وسط انتقادات أوسع نطاقاً لنهج الاتحاد الأوروبي في تنظيم الذكاء الاصطناعي.

قانون الذكاء الاصطناعي للاتحاد الأوروبي

ويُحدد قانون الذكاء الاصطناعي للاتحاد الأوروبي المُعتمد عام 2024، متطلبات عامة تُلزم بوضع علامات على النصوص، ومقاطع الفيديو، والصور المُنتجة باستخدام الذكاء الاصطناعي، وإبلاغ المستخدمين عند التفاعل مع الذكاء الاصطناعي. ويبدأ تطبيق ما يُسمى "بمتطلبات الشفافية" في أغسطس من العام المقبل.

وقبل ذلك، تحتاج المفوضية إلى موافقة قطاع الصناعة على مجموعة قواعد طوعية، تُعرف باسم "مدونة قواعد الممارسة"، تشرح كيفية امتثال الشركات للقانون.

ويُمثل "اجتماع الأربعاء" بداية ثمانية أشهر من المفاوضات حول المدونة. ومن بين جماعات الضغط المشاركة منظمة "ديجيتال يوروب"، التي تُمثل العديد من شركات التكنولوجيا الكبرى في بروكسل، ومجلس صناعة تكنولوجيا المعلومات (ITI).

وقال ماركو ليتو باروني، مدير السياسات في ITI Europe: "لا تزال تقنيات وضع علامات على السياق المُولّد بواسطة الذكاء الاصطناعي في مراحلها الأولى، ولها حدودها"، مُجادلاً بأنه ينبغي أن يكون القطاع قادراً على "استخدام ودمج حلول مختلفة" للامتثال للقانون.

وتُجري العديد من شركات الذكاء الاصطناعي بالفعل تجارب على وضع العلامات، ويُضيف مُولّد الفيديو الجديد Sora 2 من OpenAI علامة مائية مرئية (Watermark) على أي محتوى، وهو تطور صاحبه أيضاً ظهور مواقع إلكترونية يُمكنها إزالة العلامات.

وانضمت شركات، منها OpenAI، وMicrosoft، وGoogle وMeta، إلى تحالف منشأ المحتوى وأصالته (C2PA)، الذي طوّر تقنيةً لتشفير المعلومات حول أصل المحتوى، وما إذا كان مُولّداً بواسطة الذكاء الاصطناعي في البيانات الوصفية.

وعلى الرغم من هذه الجهود، وجدت الأبحاث أن غالبية المنشورات المُولّدة بواسطة الذكاء الاصطناعي في الحملة الانتخابية في هولندا تفتقر إلى أي إشارة من هذا القبيل.

وصرح سيمون كروشينسكي، الباحث في الحملات السياسية بجامعة ماينز في ألمانيا، قائلاً: "معظم محتوى الذكاء الاصطناعي غير مُصنّف، وهذه مسألة تتعلق بالشفافية والتنظيم".

مخاوف وانتقادات

وتعتزم المفوضية نشر مسودة أولى من مدونة قواعد الممارسة المتعلقة بالتصنيف بحلول ديسمبر المقبل، وفقاً لعرض تقديمي قدّمه مكتب الذكاء الاصطناعي التابع للمفوضية في أكتوبر، واطلعت عليه "بوليتيكو"، ومن المقرر إصدار المسودة الثانية في مارس المقبل، والنسخة النهائية في يونيو.

وبالإضافة إلى تحذيرها من أن المدونة مُفرطة في التقييد، يقول قطاع الإعلام أيضاً إن الجدول الزمني ضيق للغاية، وأشار العرض التقديمي إلى "مخاوف" بشأن "استعداد" الصناعة لقواعد الشفافية.

وقد يتأخر تطبيق مجموعة مهمة أخرى من متطلبات شهر أغسطس بموجب قانون الذكاء الاصطناعي، والتي تغطي أنظمة الذكاء الاصطناعي عالية المخاطر، نظراً لعدم جاهزية المعايير الفنية ذات الصلة بعد.

وفي مذكرة حديثة قدمتها جوجل إلى الاتحاد الأوروبي، قالت الشركة إن قواعد التصنيف والشفافية يجب أن تُطبّق "في غضون ستة أشهر على الأكثر" من الانتهاء من مدونة الممارسات.

كما حذّر ليتو باروني من تكرار تجربة المستخدمين مع ملفات تعريف الارتباط، والتي غالباً ما ينقر عليها المستخدمون دون انتباه.

وقال: "اتباع نهج غير مرن في تصنيف المحتوى، مثل التزييف العميق، قد يؤدي إلى تدهور تجربة المستخدمين على الإنترنت، بسبب التنبيهات والتصنيفات المفرطة، والتي غالباً ما يتم تجاهلها".

تصنيفات

قصص قد تهمك