لزيادة الأرباح.. اتجاه متزايد من شركات التكنولوجيا نحو النماذج الذكية الصغيرة

time reading iconدقائق القراءة - 5
صورة مصممة بالذكاء الاصطناعي تظهر على حاسوب شخصي في ألمانيا. 17 مايو 2024 - AFP
صورة مصممة بالذكاء الاصطناعي تظهر على حاسوب شخصي في ألمانيا. 17 مايو 2024 - AFP
القاهرة-الشرق

اتجهت شركات الذكاء الاصطناعي مؤخراً إلى نهج جديد لزيادة عوائدها المالية من خلال التركيز على تطوير نماذج جديدة أصغر حجماً من حيث عدد المتغيرات Parameters، ما يجعلها أقل كلفة في التدريب والتشغيل، وبالتالي يمكن إتاحتها لعدد أكبر من شركات قطاع الأعمال.

وتُعد النماذج اللغوية الصغيرة SLMs خياراً عملياً مربحاً لشركات التكنولوجيا، بعدما استثمرت مليارات الدولارات لتطوير النماذج اللغوية الكبيرة LLMs، التي تُشغّل منصات عملاقة مثل ChatGPT من OpenAI، و"كوبايلوت" من "مايكروسوفت"، وGemini من جوجل، بحسب صحيفة "فاينانشيال تايمز".

وبشكل عام، كلما زاد حجم النماذج الذكية وعدد متغيراتها، كان أداؤها أفضل، إلا أن شركات: "ميتا، وجوجل، ومايكروسوفت" بدأت في الاتجاه بشكل متزايد نحو النماذج الأقل حجماً، خاصة مع إظهارها قدرات وإمكانيات مقاربة للنماذج الكبيرة.

تطوير النماذج اللغوية الصغيرة

وتسعى شركات التكنولوجيا لتحقيق الربح السريع من خلال تطوير النماذج اللغوية الصغيرة، إذ إنها تحتاج إلى إمكانيات أقل للتدريب، سواء على مستوى حجم البيانات المطلوبة، أو الطاقة التي تستهلكها شرائح المعالجات الذكية لتحليل البيانات وتصنيفها وتطوير قدراتها على التعامل مع الأشكال المختلفة من الصور والنصوص ومقاطع الفيديو والصوت، الأمر الذي يساهم في جذب عدد أكبر من الشركات في شتى المجالات.

وقال رئيس الشؤون العالمية في "ميتا"، نيك كليج، إن نموذج ميتا LlaMa 3 المزود بـ8 مليارات متغير تتقارب نتائجه مع نموذج OpenAI العملاق GPT-4، المكون من 1.76 تريليون متغير.

وأشار نائب رئيس مايكروسوفت لقطاع منصة Azure AI للخدمات السحابية بالذكاء الاصطناعي إيريك بويد، إلى أن الحصول على هذه الجودة الفائقة بتكلفة منخفضة، سيفتح المجال لظهور كم كبير من التطبيقات، وهو أمر لم يكن متاحاً من قبل بسبب التكلفة الباهظة لاستخدام قطاع الأعمال للنماذج العملاقة.

وفي مطلع العام الجاري، أطلقت مايكروسوفت نموذجها الذكي Phi-3 الأول من فئة النماذج اللغوية الصغيرة، والمكوَّن من 7 مليارات متغير فقط، والذي يقدم أداء ينافس نموذج GPT-3.5 العملاق المكون من 20 مليار متغير، بل ويتفوق عليه أحياناً، بحسب بويد.

خصوصية أعلى وقضايا أقل

وإلى جانب الربحية، فإن النماذج اللغوية الصغيرة تتناسب مع متطلبات الشركات والعملاء الذين يحتاجون إلى مستوى خصوصية أفضل، إذ إن صِغَر حجم هذه النماذج يسمح بتشغيلها محلياً على ذاكرة الأجهزة الإلكترونية دون الحاجة إلى اتصالها بالإنترنت، وبالتالي فإن معالجة البيانات تتم بالكامل تتم على الجهاز دون نقلها إلى خوادم الشركات المطورة لهذه النماذج.

وقدمت جوجل العام الماضي نموذجها اللغوي الصغير Gemini Nano والموجه بشكل رئيسي للعمل على الأجهزة الذكية المحمولة، مثل الهواتف، والذي تقدم من خلاله مزايا متعددة في التعامل مع النصوص والتصوير، إضافة إلى الأداء المميز مع الحفاظ على الخصوصية، إذ إن عمليات معالجة البيانات بالكامل تتم محلياً على هواتف المستخدمين.

وأشارت الشريكة الإدارية في Addleshaw Goddard للخدمات القانونية تشارلوت مارشال، إلى أن العديد من عملاء شركتها، خاصة البنوك والمؤسسات المالية، يسعون إلى التوسع في اعتمادهم على تقنيات الذكاء الاصطناعي التوليدي، ولكن الخوف من المتطلبات التنظيمية والقانونية المتزايدة يعيق هذه الجهود، لذلك فالاتجاه نحو النماذج الصغيرة يحقق التوازن بين استخدام التكنولوجيا الحديثة، دون الدخول في مشكلات قانونية طائلة.

ومن المتوقع أن تقدم أبل أيضاً عدداً من المزايا الذكية لأول مرة على هواتف "آيفون 16" القادمة، وإصدارها المنتظر من نظام التشغيل iOS 18، على أن يعمل جزء كبير منها بالمعالجة المحلية على الهاتف.

وفي نوفمبر الماضي، أوضح رئيس OpenAI سام ألتمان، أن شركته عرضت نماذج مختلفة الحجم للذكاء الاصطناعي للعملاء "تخدم أغراضاً متنوعة"، مؤكداً أنها ستواصل بناء هذه الخيارات وتقديمها لقطاع الأعمال.

وأضاف ألتمان: "هناك بعض الأشياء التي ستعمل فيها النماذج الأصغر حجماً بشكل جيد حقاً. أنا متحمس لذلك".
 
ومع ذلك، قال ألتمان إن OpenAI ستظل تركز على بناء نماذج ذكاء اصطناعي أكبر ذات قدرات موسعة، بما في ذلك القدرة على التفكير والتخطيط وتنفيذ المهام وتحقيق الذكاء على المستوى البشري، أو ما يُعرف باسم الذكاء الاصطناعي المطلق AGI، في نهاية المطاف.

تصنيفات

قصص قد تهمك