أعلنت إدارة الرئيس الأميركي جو بايدن، الجمعة، أن كبرى شركات الذكاء الاصطناعي ومن بينها OpenAI وAlphabet مالكة جوجل وMeta Platforms مالكة فيسبوك، قطعت تعهدات طوعية للبيت الأبيض بتنفيذ تدابير مثل وضع علامة مائية على محتواها الذي ينتج باستخدام الذكاء الاصطناعي، بهدف الإسهام في جعل هذه التقنية أكثر أماناً.
وتعهدت الشركات، ومنها أيضاً Anthropic وInflection وأمازون و"مايكروسوفت شريكة OpenAI باختبار أنظمتها بصورة شاملة قبل إصدارها وبمشاركة المعلومات بشأن كيفية تقليل المخاطر والاستثمار في الأمن الرقمي.
ويُنظر إلى هذا التحرك على أنه انتصار لجهود إدارة بايدن في تنظيم تقنية الذكاء الاصطناعي، التي تشهد انتعاشاً سواء في ما يتعلق بالاستثمار فيها أو زيادة عدد مستخدميها.
ورحبت مايكروسوفت بـ"قيادة الرئيس الأميركي لجهود توحيد صف قطاع التقنيات من أجل العمل على خطوات مادية تسهم في جعل الذكاء الاصطناعي أكثر أماناً وأعظم فائدة للعامة".
وبدأ مشرعون حول العالم النظر في كيفية تخفيف أخطار التقنية الناشئة على الأمن القومي والاقتصاد بعد أن اكتسب الذكاء الاصطناعي شعبية ساحقة هذا العام، نتيجة قدرته على إنشاء محتوى جديد باستخدام البيانات مثل برنامج ChatGPT.
لكن الولايات المتحدة متأخرة عن الاتحاد الأوروبي في وضع لوائح تنظيمية للذكاء الاصطناعي، ففي يونيو الماضي، وافق مشرعو الكتلة الأوروبية على مسودة مجموعة من القواعد تلزم أنظمة مثل ChatGPT بالإفصاح عن المحتوى الذي ينتجه الذكاء الاصطناعي والمساعدة في التفريق بين الصور الحقيقية وصور "التزييف العميق" وضمان وجود تدابير للحماية من المحتوى غير القانوني.
ويدرس الكونجرس مشروع قانون يلزم بالإفصاح عما إذا كان الذكاء الاصطناعي قد استُخدم في إنشاء صور أو محتوى آخر في الإعلانات ذات المحتوى السياسي.
ويعمل بايدن أيضاً على إصدار أمر تنفيذي، وتشريع مؤيد من الحزبين الديمقراطي والجمهوري بشأن تقنيات الذكاء الاصطناعي، في الوقت الذي يجتمع فيه مع مسؤولين تنفيذيين من 7 شركات، بالبيت الأبيض، الجمعة.
وتعهدت الشركات السبع بوضع نظام مميز بـ"علامة مائية" لجميع أشكال المحتوى المولد عبر الذكاء الاصطناعي التي تتنوع من النصوص والصور إلى الملفات الصوتية ومقاطع الفيديو حتى يتسنى للمستخدمين معرفة المرات التي استُخدمت فيها التقنية، فيما لم تتضح بعد الكيفية التي ستظهر بها العلامة المائية عند تبادل المعلومات.
وتعهدت الشركات بالتركيز على حماية خصوصية المستخدمين في ظل تطور الذكاء الاصطناعي، وعلى ضمان أن التقنية خالية من التحيز، وأنها لا تُستخدم في التمييز ضد المجموعات الأكثر ضعفاً.
وتتضمن التعهدات الأخرى تطوير حلول ذكاء اصطناعي للمشكلات العلمية مثل الأبحاث في مجال الطب وتخفيف حدة تغير المناخ.
اقرأ أيضاً: