عمالقة التكنولوجيا يوقعون اتفاقاً لمكافحة تلاعب الذكاء الاصطناعي بالانتخابات

time reading iconدقائق القراءة - 9
صورة توضيحية تظهر هاتفاً ذكياً يسجل أثناء عملية لاستنساخ للصوت بالذكاء الاصطناعي في مدينة لوس أنجلوس الأميركية. 9 يونيو 2023 - AFP
صورة توضيحية تظهر هاتفاً ذكياً يسجل أثناء عملية لاستنساخ للصوت بالذكاء الاصطناعي في مدينة لوس أنجلوس الأميركية. 9 يونيو 2023 - AFP
دبي -الشرق

تعهدت شركات التكنولوجيا الكبرى بتبني "الاحتياطات اللازمة" بشكل طوعي، إثر توقيع "اتفاق رمزي"، لتجنب استغلال أدوات الذكاء الاصطناعي في التلاعب بالانتخابات الديمقراطية في جميع أنحاء العالم، فيما طوّرت شركة أميركية ناشئة في هذا المجال، تقنية لمنع ما وصفته بـ"الهلوسة" الانتخابية. 

واجتمع مديرون تنفيذيون من شركات أمازون، وجوجل، وIBM، وميتا، ومايكروسوفت، وAdobe، وOpenAI، و"تيك توك" خلال مؤتمر ميونخ للأمن، الجمعة، للإعلان عن إطار عمل جديد لكيفية التصدي لعمليات التزييف الناتجة عن الذكاء الاصطناعي، التي تخدع الناخبين بشكل متعمد، وفق ما أوردت وكالة "أسوشيتد برس" الأميركية.

كما وقعت 12 شركة أخرى، تشمل منصة التواصل "إكس" المملوكة للملياردير الأميركي إيلون ماسك على الاتفاقية.

وقال نيك كليج رئيس الشؤون الدولية في شركة "ميتا"، التي تمتلك منصات فيسبوك وإنستجرام وواتساب، خلال مقابلة قبل المؤتمر: "الجميع يدركون أنه لا يمكن لأي شركة تكنولوجيا، ولا حكومة، ولا منظمة مجتمع مدني قادرة على التعامل بمفردها مع ظهور هذه التكنولوجيا واستخدامها المسيء المحتمل".

ولفت إلى أن كل شركة "لديها على نحو مناسب تماماً مجموعة خاصة بها من سياسات المحتوى".

وأضاف: "هذه ليست محاولة لفرض قيود على الجميع. وعلى أي حال، لا أحد في الصناعة يعتقد أنه يمكنك التعامل مع نموذج تقني جديد تماماً من خلال التغاضي عن الأمور، ومحاولة انتهاج مسعى لا جدوى منه والعثور على كل ما تعتقد أنه ربما يضلل أحدهم".

"اتفاق رمزي"

"أسوشيتد برس" اعتبرت أن الاتفاق يعد "رمزياً" إلى حد كبير؛ ولكنه يستهدف بشكل متزايد الصور ومقاطع الصوت والفيديو التي تنتج بواسطة الذكاء الاصطناعي، "والتي تزيف أو تغير بشكل خادع مظهر أو صوت أو تصرفات مرشحين سياسيين ومسؤولي انتخابات وغيرهم من الأطراف المعنية الرئيسية في انتخابات ديمقراطية، أو التي تقدم معلومات خاطئة للناخبين بشأن موعد ومكان وكيفية التصويت بشكل قانوني".

والاتفاق لا يُلزم الشركات بحظر أو إزالة المحتوى المولد بالتزييف العميق؛ وبدلاً من ذلك، يحدد الأساليب التي ستستخدمها لمحاولة رصد وتصنيف محتوى الذكاء الاصطناعي الخادع، عند إنشائه أو نشره على منصاتها. 

ويشير الاتفاق إلى أن الشركات ستشارك أفضل الممارسات مع بعضها البعض، وستقدم "استجابات سريعة ومتناسبة"، عندما يبدأ هذا المحتوى في الانتشار.

ويدعو الاتفاق المنصات، إلى "الانتباه إلى السياق وخاصة حماية التعبير التعليمي، والوثائقي والفني والساخر والسياسي".

وقال إن الشركات ستركز على الشفافية أمام المستخدمين بشأن سياساتها، وستعمل على تثقيف الجمهور بشأن طريقة تجنب الوقوع في فخ الذكاء الاصطناعي المزيف.

"صياغة ليست قوية"

ورجحت الوكالة، أن "غموض الالتزامات، وعدم وجود أي شروط مُلزمة"، ربما ساعد في جذب شريحة متنوعة من الشركات، لكن مدافعين يشعرون بخيبة أمل كانوا يبحثون عن ضمانات أقوى.

ونقلت الوكالة عن راشيل أوري كبيرة مساعدي إدارة "مشروع الانتخابات" في "مركز السياسات الحزبية" وهو مؤسسة أبحاث مقرها واشنطن، قولها، إن "الصياغة ليست قوية جداً بقدر ما كان متوقعاً". 

وأضافت أوري: "أعتقد أننا يجب أن ننسب الفضل لمن يستحقه، ونعترف بأن الشركات لديها مصلحة شخصية في عدم استخدام أدواتها لتقويض الانتخابات الحرة والنزيهة. مع ذلك، الأمر طوعي، وسنراقب ما إذا كانوا سينفذون ذلك أم لا".

وأعلن العديد من القادة السياسيين من أوروبا والولايات المتحدة انضمامهم أيضاً إلى إعلان يوم الجمعة. وقالت نائبة رئيس المفوضية الأوروبية فيرا جوروفا، إنه على الرغم من أن مثل هذا الاتفاق لا يمكن أن يكون شاملاً، فإنه "يحتوي على عناصر مؤثرة وإيجابية للغاية".

 كما شجعت جوروفا، زملائها السياسيين، على تحمل مسؤولية عدم استخدام أدوات الذكاء الاصطناعي بشكل خادع، محذرة من أن المعلومات المضللة التي يعززها الذكاء الاصطناعي يمكن أن تؤدي إلى "نهاية الديمقراطية، ليس فقط في الدول الأعضاء في الاتحاد الأوروبي".

ويأتي الاتفاق الذي توصلت إليه الشركات خلال الاجتماع الأمني السنوي في ميونخ، في الوقت الذي من المقرر أن تجري فيه أكثر ممن 50 دولة انتخابات وطنية في عام 2024. وشهدت كل بنجلاديش وتايوان وباكستان ومؤخراً إندونيسيا انتخابات بالفعل.

ووفقاً للوكالة، بدأت بالفعل محاولات التدخل في الانتخابات بواسطة الذكاء الاصطناعي، على غرار ما حدث في الولايات المتحدة، حيث أجريت مكالمات آلية بواسطة الذكاء الاصطناعي بصوت الرئيس جو بايدن، لإثناء الناخبين عن التصويت في الانتخابات التمهيدية في ولاية نيوهامشر الشهر الماضي.

ووجه المدعي العام للولاية جون فورميلا، اتهامات لشركة "لايف كوربوريشن"، ومالكها والتر وونك، بالوقوف وراء المكالمات المزيفة التي تلقاها 25 ألف ناخب ديمقراطي بالولاية.

وقبل أيام قليلة من الانتخابات في سلوفاكيا في نوفمبر الماضي، انتحلت تسجيلات صوتية أنشأها الذكاء الاصطناعي شخصية مرشح يناقش خططاً لرفع أسعار وتزوير الانتخابات، وسارع مدققو بيانات إلى تحديدها على أنها كاذبة مع انتشارها عبر منصات التواصل.

كما اختبر سياسيون أيضاً هذه التقنيات، بدءاً من استخدام روبوتات دردشة مدعمة بالذكاء الاصطناعي للتواصل مع الناخبين، وحتى إضافة صور المولدة بواسطة الذكاء الاصطناعي إلى الإعلانات.

ضغوط دولية

وسبق أن قالت معظم الشركات، إنها تفرض تدابير حماية على أدوات الذكاء الاصطناعي الخاصة بها، والتي يمكنها التعامل مع الصور والصوت، بينما تعمل أيضاً على تحديد المحتوى الناتج عن الذكاء الاصطناعي، وتصنيفه حتى يعرف مستخدمو منصات التواصل الاجتماعي ما إذا كان ما يرونه حقيقياً. 

لكن معظم هذه الحلول المقترحة لم تطرح بعد، وقد واجهت الشركات ضغوطاً لبذل المزيد من الجهد.

وتتزايد هذه الضغوط في الولايات المتحدة، حيث لم يقر الكونجرس القوانين التي تنظم استخدام الذكاء الاصطناعي في مجال السياسة، ما يترك الشركات تدير الأمور بنفسها إلى حد كبير.

وأكدت لجنة الاتصالات الفيدرالية مؤخراً أن المقاطع الصوتية التي تنتج بواسطة الذكاء الاصطناعي في المكالمات الآلية مخالفة للقانون، لكن هذا لا يشمل التزييف الصوتي العميق عند تداوله على منصات التواصل الاجتماعي أو إعلانات الحملات الانتخابية.

وبالإضافة إلى الشركات التي توسطت في اتفاق، الجمعة، تشمل الأطراف الموقِّعة الأخرى مطوري برامج الدردشة الآلية Anthropic وInflection AI؛ والشركة الناشئة لتقنية استنساخ الصوت ElevenLabs؛ وشركة تصميم الرقائق Arm Holdings؛ وشركات الأمن الإلكتروني McAfee، وTrendMicro؛ وStability AI، التي طورت مولد الصور Stable Diffusion.

تقنية لمنع "الهلوسة" الانتخابية 

وكان إدراج منصة التواصل "إكس"، الذي تذكر في إعلان سابق بشأن الاتفاقية المعلقة، أحد مفاجآت اتفاق الجمعة، بحسب وكالة "أسوشيتد برس"، التي لفتت إلى أن إيلون ماسك قلص فرق الإشراف على المحتوى إلى حد كبير بعد استحواذه على الشركة المعروفة سابقاً باسم "تويتر"، ووصف نفسه بأنه "مؤيد لحرية التعبير المطلق".

وقبل الانتخابات الرئاسية المقررة في الولايات المتحدة في نوفمبر المقبل، أعلنت شركة Anthropic، وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي، أنها تختبر تقنية للكشف عندما يسأل مستخدمو روبوت المحادثة الخاص بها GenAI الخاص بها عن قضايا سياسية، وإعادة توجيه هؤلاء المستخدمين إلى مصادر "موثوقة" لمعلومات التصويت.

وتُظهر هذه التقنية التي تسمى Prompt Shield، والتي تعتمد على مجموعة من نماذج وقواعد الكشف عن الذكاء الاصطناعي، إشعاراً منبثقاً (pop-up) إذا طلب مستخدم يقيم في الولايات المتحدة من Claude، وهو برنامج دردشة آلي تابع للشركة، معلومات بشأن التصويت، بحسب موقع TechCrunch المعني بأخبار التكنولوجيا.

ويعرض الإشعار المنبثق، إعادة توجيه المستخدم إلى TurboVote، وهو موقع تابع لمنظمة Democracy Works غير الحزبية، حيث يمكنه العثور على معلومات تصويت محدثة ودقيقة.

وتقول Anthropic إن برنامج Prompt Shield كان ضرورياً بسبب أوجه قصور في برنامج Claude في مجال المعلومات المتعلقة بالسياسة والانتخابات، إذ لم يُدرب بالقدر الكافي لتقديم معلومات فورية بشأن انتخابات محددة، وبالتالي فهو عرضة لـ"الهلوسة"، أي اختراع الحقائق، بشأن تلك الانتخابات.

تصنيفات

قصص قد تهمك