اعتبر الاتحاد الأوروبي الاتفاق الأولي الذي تم التوصل إليه بشأن تنظيم الذكاء الاصطناعي، خطوة "غير مسبوقة"، تهدف إلى ضمان أن تكون هذه الأنظمة التي تُطرح في السوق الأوروبية "آمنة".
ويهدف هذا الاتفاق أيضاً إلى تحفيز الاستثمار والابتكار في مجال الذكاء الاصطناعي في أوروبا، وتسهيل تطويره.
وبالمقارنة مع الاقتراح الأولي للمفوضية، وضع المجلس الأوروبي تلخيصاً للعناصر الرئيسية الجديدة للاتفاق المؤقت، والتي جاءت كالتالي:
العناصر الرئيسية لاتفاقية الذكاء الاصطناعي المؤقتة
- قواعد بشأن نماذج الذكاء الاصطناعي العامة عالية التأثير التي قد تسبب خطراً نظامياً في المستقبل، فضلاً عن النظام العالي الخطورة لأنظمة الذكاء الاصطناعي.
- نظام معدل للحوكمة مع بعض الصلاحيات التنفيذية على مستوى الاتحاد الأوروبي.
- توسيع قائمة المحظورات، ولكن مع إمكانية استخدام التعرف البيومتري عن بُعد من قبل السلطات الأمنية في الأماكن العامة، بشرط وجود ضمانات.
- تعزيز حماية الحقوق من خلال إلزام القائمين على نشر أنظمة الذكاء الاصطناعي عالية المخاطر بإجراء تقييم بشأن تأثير الحقوق الأساسية، قبل وضع نظام الذكاء الاصطناعي قيد الاستخدام.
وبحسب وثيقة صادرة عن الاتحاد الأوروبي، نشرتها "بلومبرغ"، فإنه يجب على جميع مطوري أنظمة الذكاء الاصطناعي للأغراض العامة، وهي النماذج القوية التي لديها مجموعة واسعة من الاستخدامات المحتملة، تلبية متطلبات الشفافية الأساسية، ما لم تكن مجانية ومفتوحة المصدر.
متطلبات الشفافية الأساسية للذكاء الاصطناعي:
- تبني سياسة الاستخدام المقبول.
- الاحتفاظ بمعلومات محدثة حول كيفية تدريب النماذج.
- تقديم ملخص تفصيلي للبيانات المُستخدمة لتدريب النماذج.
- تبني سياسة لاحترام قانون حقوق الملكية.
وفيما ستخضع النماذج التي تُشكل "خطراً نظامياً" لقواعد إضافية، بحسب الوثيقة، سيقوم الاتحاد الأوروبي بتحديد هذا الخطر استناداً إلى حجم الطاقة الحاسوبية المستخدمة في تدريب النموذج. وتم وضع عتبة على تلك النماذج التي تستخدم أكثر من 10 تريليونات تريليون (أو سيبتليون) عملية في الثانية الواحدة.
وأشارت "بلومبرغ" إلى أن النموذج الوحيد الذي يتجاوز هذه العتبة حالياً هو "GPT-4" التابع لشركة "OpenAI". ومع ذلك، يمكن للذراع التنفيذية للاتحاد الأوروبي تحديد نماذج أخرى بناءً على معايير مختلفة، مثل وجود لديها ما لا يقل عن 10 آلاف مستخدم تجاري مسجل في الاتحاد الأوروبي، أو عدد المستخدمين المسجلين، وغيرها من المقاييس المحتملة.
وتتطلب الشركات المطورة لنماذج ذات القدرة العالية الالتزام بمدونة سلوك، في حين ستقوم المفوضية الأوروبية بتطوير ضوابط طويلة المدى ومتسقة أكثر. بالإضافة إلى ذلك، سيكون على الشركات التي لا توقع على الوثيقة إثبات الامتثال لقانون الذكاء الاصطناعي. ومع ذلك، لن يتم تطبيق استثناء النماذج مفتوحة المصدر على تلك التي يُعتبر أنها تشكل خطراً نظامياً.
متطلبات النماذج ذات القدرة العالية:
- الإبلاغ عن استهلاك الطاقة.
- تقييم وتخفيف المخاطر النظامية المحتملة، والإبلاغ عن أي حوادث.
- التأكد من استخدام ضوابط الأمن السيبراني المناسبة.
- الإبلاغ عن المعلومات المستخدمة لضبط النموذج وبنية النظام الخاصة به.
- الالتزام بمعايير أكثر كفاءة في استخدام الطاقة.
ولا يزال الاتفاق المبدئي بحاجة إلى الحصول على موافقة البرلمان الأوروبي والدول الأعضاء الـ27 في الاتحاد الأوروبي.
وكانت فرنسا وألمانيا قد أعربتا في السابق عن مخاوفهما بشأن تطبيق الكثير من القواعد على استخدام نماذج الذكاء الاصطناعي ذات الأغراض العامة، والمخاطرة بالقضاء على المنافسين الأوروبيين، مثل شركتي "ميسترال" للذكاء الاصطناعي الفرنسية أو شركة "ألف ألفا" الألمانية.
ومن المحتمل في الوقت الحالي ألا تحتاج "ميسترال" إلى تلبية ضوابط نماذج الذكاء الاصطناعي المستخدمة في الأغراض العامة، وذلك لأن الشركة لا تزال في مرحلة البحث والتطوير.