الذكاء الاصطناعي وحرب الرقائق.. إقبال صيني على تقنيات أميركا رغم القيود

time reading iconدقائق القراءة - 7
صورة تعبيرية تمزج بين شريحة أشباه الموصلات وأعلام الصين والولايات المتحدة. 17 فبراير 2023 - REUTERS
صورة تعبيرية تمزج بين شريحة أشباه الموصلات وأعلام الصين والولايات المتحدة. 17 فبراير 2023 - REUTERS
دبي-الشرق

تشهد الرقائق الإلكترونية الأميركية إقبالاً متزايداً في الصين، على الرغم من القيود التي تواصل الولايات المتحدة فرضها لمنع وصولها إلى الصينيين بهدف عرقلة أي احتمال لتفوق صيني بمجال الذكاء الاصطناعي، لا سيما فيما يتعلق بالأغراض العسكرية.

وعلى الرغم من منع الرقائق الأميركية عن السوق الصينية، إلا أن صحيفة "فاينانشيال تايمز" ذكرت أن التطورات الهائلة في الرقائق الإلكترونية المستخدمة في تطوير الذكاء الاصطناعي تشير إلى أن أحدث التقنيات الأميركية باتت الآن "أكثر تداولاً وقوة هناك من أي شيء كان متاحاً في وقت سابق". 

وأضافت الصحيفة أن هذه "المعادلة" أدت إلى "ارتفاع الطلب الصيني على أحدث المعالجات الأميركية المتقدمة، إذ قدمت شركات الإنترنت الصينية الرائدة طلبات شراء شرائح بقيمة 5 مليارات دولار من شركة (Nvidia) الأميركية، التي باتت وحدات معالجات الرسوم الخاصة بها العمود الفقري لتدريب نماذج الذكاء الاصطناعي الكبيرة".  

تعميق الفجوة

ورجحت الصحيفة أن يؤدي تأثير ارتفاع الطلب العالمي على منتجات (Nvidia) إلى "دعم النتائج المالية لشركات تصنيع الشرائح خلال الربع الثاني من العام الجاري" المقرر الإعلان عنها، الأربعاء.  

وإلى جانب انعكاس الطلب على الشرائح المتقدمة لتدريب أحدث النماذج اللغوية الكبيرة الخاصة بشركات الإنترنت، تفاقم الدافع وراء هذه الزيادة في الطلب الصيني بسبب "القلق من زيادة تشديد الولايات المتحدة القيود على صادراتها"، ما يجعل حتى هذه المنتجات المحدودة غير متاحة في المستقبل.  

ومع ذلك، قال كبير العلماء في "Nvidia"، بيل دالي لـ"فاينانشيال تايمز" إن ضوابط التصدير الأميركية سيكون لها "تأثير أكبر في المستقبل". 

وأضاف: "مع استمرار زيادة متطلبات التدريب (الخاصة بأنظمة الذكاء الاصطناعي الأكثر تقدماً) كل 6 إلى 12 شهراً، ستتعمق الفجوة بين الشرائح التي يتم بيعها في الصين وتلك المتاحة في بقية أنحاء العالم بسرعة كبيرة". 

معالجات أقل سرعة

كانت ضوابط التصدير التي فرضنتها الولايات المتحدة على الشرائح، العام الماضي، جزءاً من حزمة إجراءات شملت منع العملاء الصينيين من شراء المعدات اللازمة لصناعة الشرائح المتقدمة. 

ووضعت واشنطن حداً أقصى للسرعة القصوى لمعالجات الشرائح التي يمكن بيعها في الصين، وأيضاً معدل نقل الشرائح للبيانات، وهو عامل مهم عندما يتعلق الأمر بتدريب نماذج ذكاء اصطناعي كبيرة، فضلاً عن أنها مهمة كثيفة البيانات تتطلب ربط أعداد كبيرة من الشرائح ببعضها البعض. 

واستجابت "Nvidia" بخفض معدل نقل البيانات على معالجاتها A100 التي كانت في ذلك الوقت من أفضل وحدات معالجة الرسوم، ما أدى إلى ظهور منتج جديد للصين يحمل اسم A800 ويلبي متطلبات ضوابط التصدير.  

وفي العام الجاري، تبع هذه الإجراءات التقييدية فرض قيود جديدة على نقل البيانات على المعالج H100، وهو معالج جديد وأكثر قوة تم تصميمه خصيصاً لتدريب نماذج لغوية كبيرة، ما أدى إلى إنشاء نسخة حملت اسم H800 للسوق الصينية.  

ولم تكشف الشركة المصنعة للشرائح عن القدرات الفنية للمعالجات المصنوعة خصيصاً للصين، لكن شركات تصنيع أجهزة الكمبيوتر كانت منفتحة بشأن التفاصيل.  

على سبيل المثال، أعلنت شركة Lenovo عن خوادم تحتوي على شرائح H800 قالت إنها مطابقة بكل الطرق للشرائح H100 التي تُباع في جميع أنحاء العالم، باستثناء أن معدل نقل البيانات الخاص بها يقف عند 400 جيجابايت في الثانية، وهو أقل من حد الـ600 جيجابايت الذي حددته الولايات المتحدة لصادرات الشرائح إلى الصين.  

وبالمقارنة، قالت Nvidia إن معدل النقل لدى شرائحها من طراز H100، التي بدأت شحنها إلى العملاء في وقت سابق من العام الجاري، بلغ 900 جيجابايت.   

"قيد خطير"

ووفق "فاينانشيال تايمز"، يعني خفض معدل نقل البيانات في الصين أن يخوض مستخدمو الشرائح هناك "أوقات تدريب أطول لأنظمة الذكاء الاصطناعي الخاصة بهم، مقارنة بعملاء Nvidia في أماكن أخرى من العالم"، ما وصفته الصحيفة بأنه "قيد خطير" نظراً لتزايد حجم النماذج.  

وأضافت الصحيفة أن "زيادة أوقات التدريبات عادة ما تؤدي إلى زيادة التكاليف"، وأرجعت ذلك إلى أن "الشرائح ستحتاج إلى استهلاك مزيد من الطاقة"، ما يشكل واحدة من أكبر النفقات في النماذج الجديدة. 

رغم ذلك، حتى مع وجود هذه القيود، لا تزال الشرائح من طراز H800 التي تُباع في الصين أكثر قوة من أي شيء متاح في أي مكان آخر قبل هذا العام، ما أدى إلى زيادة الطلب عليها.  

في هذا السياق، قال باتريك مورهيد، محلل الشرائح الأميركية في شركة Moor Insights & Strategy إن "الشرائح H800 أسرع 5 مرات من الشرائح A100" التي كانت أقوى وحدات معالجة رسوم في Nvidia.  

وأضاف مورهيد أن هذا يعني أن شركات الإنترنت الصينية، التي دربت نماذج الذكاء الاصطناعي خاصتها باستخدام أفضل الشرائح التي تم شراؤها قبل أن تفرض الولايات المتحدة ضوابط التصدير، "لا يزال بإمكانها توقع إدخال تحسينات كبيرة من خلال شراء أحدث أشباه الموصلات".  

وتابع: "يبدو أن الحكومة الأميركية لا تريد إيقاف جهود الصين في مجال تطوير الذكاء الاصطناعي في المطلق، لكنها فقط تريد أن تجعل الأمر أكثر صعوبة".  

التكاليف والفوائد 

في المقابل، قال أحد مهندسي الذكاء الاصطناعي في شركة إنترنت صينية رائدة للصحيفة الأميركية إن "وحدات معالجة الرسوم من Nvidia قد تبدو باهظة الثمن، لكنها في واقع الأمر الخيار الأكثر فعالية من حيث التكلفة".  

وأضاف المهندس أن بائعي وحدات معالجة الرسوم الآخرين عرضوا "أسعاراً أقل"، لكن الشركة قدرت أن تكاليف التدريب والتطوير ستكون أعلى، وأنها ستتحمل العبء الإضافي لعدم اليقين.   

ويتضمن عرض Nvidia نظاماً بيئياً برمجياً إلى جانب منصة الحوسبة الخاصة به التي تحمل اسم Compute Unified Device Architecture أو "Cuda"، والتي أنشأتها الشركة عام 2006، وأصبحت جزءاً من البنية التحتية للذكاء الاصطناعي.  

ويعتقد محللو الذكاء الاصطناعي أن الشركات الصينية قد تواجه في وقت قريب "قيوداً على سرعة الروابط البينية بين شرائح السلسلة 800".  

وحذروا من أن هذا "قد يعيق قدرة هذه الشركات على التعامل مع كمية البيانات المتزايدة اللازمة لتدريب الذكاء الاصطناعي"، لافتين إلى أن الإعاقة ستحدث "كلما تعمقت الشركات في البحث عن نماذج لغوية كبيرة وتطويرها". 

وشبه تشارلي تشاي، المحلل في شركة 86Research، الوضع بـ "بناء العديد من المصانع بينها طرق سريعة شديدة الازدحام"، محذراً من أنه "حتى الشركات التي يمكنها استيعاب الشرائح الضعيفة قد تواجه مشكلات في غضون عامين أو ثلاثة ".      

اقرأ أيضاً:

تصنيفات