
في أقل من عقد، حقق الذكاء الاصطناعي قفزات غير مسبوقة، ليس فقط في قدرته على أداء المهام التقنية، ولكن في تقليده بعض وظائف العقل البشري بشكل مدهش.
وما بدأ كمحاولات تؤدي مهمة واحدة؛ مثل الترجمة أو تصنيف الصور؛ تطور الآن إلى نماذج ضخمة تستطيع تلخيص الكتب، وكتابة الشِعر، وتحليل البيانات الطبية، وحل مسائل رياضية معقدة، وصولاً إلى إجراء محادثات طويلة مكتملة التفاصيل والسياق.
ولا تُعد هذه النماذج، مثل GPT‑4.1، و Claude 4، و Gemini 2.5، و Grok 4، أدوات لغوية فقط، بل نماذج معرفية (وإن كانت غير واعية) تستطيع محاكاة بعض مظاهر التفكير البشري، بل وبدأت تتفوق على الإنسان في تخصصات محددة مثل البرمجة، والتلخيص، أو الاستدلال المنطقي.
ورغم هذا، لا تزال تلك النماذج تفتقر إلى عدد من القدرات البشرية الجوهرية، فهي لا تفهم العالم، ولا تمتلك وعيًا ذاتيًا، ولا تستطيع التعلّم دون إشراف مباشر أو توجيه منهجي، ومهما بدت قدراتها مبهرة، فإنها لا تتجاوز حدود الذكاء العام الضيق؛ أي الذكاء الذي يستطيع مجموعة كبيرة من المهام، لكن دون أن يملك هدفًا ذاتيًا، أو إدراكًا عميقًا للعالم، أو وعيًا بحدود معرفته.
هذه التحديات ربما كانت السبب وراء ظهور مفهوم جديد يمثل نقطة تحول في مسار تطور الذكاء الاصطناعي، يتمثل في سؤال: ماذا لو تمكنا من بناء ذكاء لا يكتفي بمحاكاة الإنسان، بل يتجاوزه؟ ليس في مهام محددة فقط، بل في كل القدرات العقلية مجتمعة؛ التفكير، والتحليل، والتعلّم، والإبداع، وحل المشكلات، وربما حتى تطوير نسخته الخاصة من الفلسفة أو الفن؟
هذا هو ما يُعرف بالذكاء الاصطناعي الفائق Artificial Superintelligence (ASI)، وهو برز على سطح قطاع التكنولوجيا بعد إعلان الرئيس التنفيذي لشركة "ميتا"، مارك زوكربيرج، الاثنين، أن شركة "ميتا بلاتفورمز" ستنفق مئات المليارات من الدولارات على بناء عدد من مراكز البيانات لتطوير ما يسمى الذكاء الاصطناعي الفائق، في تكثيف لمساعيه لاستقطاب أصحاب المواهب من مهندسي الذكاء الاصطناعي.
ما هو الذكاء الاصطناعي الفائق (ASI)؟
الذكاء الاصطناعي الفائق (ASI) مفهوم افتراضي يُشير إلى وجود نظام ذكاء اصطناعي يتمتع بقدرات عقلية تتجاوز قدرات البشر في جميع المجالات، هذا النظام ليس مجرد برنامج تقليدي يُجيد لعب الشطرنج أو الترجمة فقط، بل عن كيان ذكي يمتلك وظائف معرفية متقدمة وقدرات ذهنية خارقة تتفوق على أفضل العقول البشرية، سواء في الإبداع، أو الفهم، أو التحليل أو اتخاذ القرار.
واختلف تعريف الذكاء الاصطناعي الفائق بين كبار قطاع التقنيات الذكية، إذ يُعرفه سام ألتمان، مدير ومؤسس OpenAI، بأنه "ذكاء اصطناعي قادر على حل المشكلات العلمية والرياضية والتقنية بطريقة لا يمكن لأذكى البشر حتى مجاراتها.
ويرى ديميس هاسابيس، مدير قطاع Google DeepMind التابع لشركة جوجل، أن الذكاء الاصطناعي الفائق "يمثل المرحلة التي تتمكن فيها النماذج من توليد أفكار واكتشافات جديدة تفوق قدرة العقل البشري، وتعيد تعريف حدود المعرفة نفسها.
ويصف يان ليكون، مدير قطاع ميتا لأبحاث الذكاء الاصطناعي، الذكاء الاصطناعي الفائق، بأنه "ليس مجرد تطور تقني، بل تغيير جذري في البنية التحتية للحضارة".
متطلبات الذكاء الاصطناعي الفائق
على الرغم من الطفرات الهائلة التي شهدتها تقنيات الذكاء الاصطناعي مؤخرًا، إلا أن الوصول إلى مرحلة الذكاء الاصطناعي الفائق (ASI) يتطلب تطوير مجموعة من القدرات الجوهرية بشكل غير مسبوق، حتى تتجاوز الآلة الإنسان في جميع القدرات الذهنية والإدراكية، وليس في تخصصات ضيقة فقط.
النماذج اللغوية العملاقة والبيانات الضخمة
تتمثل الركيزة الأولى المطلوبة لإنشاء نظام ذكاء اصطناعي فائق، في امتلاك الآلة قدرات لغوية ومعرفية شاملة، قائمة على معالجة كميات هائلة من البيانات.
وقد تحقق في هذا المجال تقدم هائل بالفعل، إذ أثبتت نماذج مثل GPT‑4.1 وClaude 4 وGemini 2.5 Pro قدرة على التعامل مع مليارات الرموز، والتفوق في اختبارات لغوية وبرمجية متقدمة مثل MMLU وHumanEval وSWE-Bench، بل وتفوقت على البشر في بعضها.
لكن رغم هذه الإنجازات، إلا أن النماذج الحالية تظل عاجزة عن تكوين فهم حقيقي للعالم، فهي لا "تعرف" بالمعنى الواعي، وإنما تعتمد على أنماط إحصائية لتوليد ردود تبدو منطقية، ولا تزال عاجزة عن التعميم الحر، والتعلم المستقل، وإنتاج معرفة جديدة من العدم، وهي خصائص أساسية لأي كيان يُوصف بأنه فائق الذكاء.
الذكاء متعدد الحواس (Multisensory AI)
لكي يفكر الذكاء الاصطناعي بطريقة تشبه البشر، يجب أن يتمكن من إدراك العالم من خلال أكثر من حاسة في آنٍ واحد، مثل النصوص، والصور، والصوت، والفيديو، وهو ما يعرف باسم Multi-Modal LLM، بل وحتى الإشارات الحسية المعقدة.
وقد شهد هذا المجال تطورًا كبيرًا في السنوات الماضية، خاصة مع نماذج مثل GPT-4o وGemini، التي يمكنها تفسير الصور بالتوازي مع النصوص، أو فهم مقاطع الفيديو وربطها بالسياق النصي.
لكن على الرغم من ذلك، فإن التكامل الحقيقي بين الحواس لا يزال سطحيًا. فالنماذج تفهم الصورة وتحللها، لكنها لا "تشعر" بها أو تربطها بتجارب داخلية كما يفعل الإنسان، فحتى الآن لم يصل أي نظام إلى مرحلة إدراك بيئة معقّدة مثل غرفة حقيقية، وتحليل الأصوات والصور واللغة في الوقت الحقيقي ككائن واعٍ.
الشبكات العصبية المتقدمة
تعتمد معظم أنظمة الذكاء الاصطناعي حاليًا على بنية "Transformer"، وهي قوية لكنها تظل بدائية مقارنة بتعقد الدماغ البشري، بينما يتطلب ASI شبكات عصبية أكثر تعقيدًا، ذات قدرة على التفكير المجرد، والتعلّم المستمر، وإعادة بناء أنماط المعرفة عند الحاجة.
وحتى الآن، لم يحدث اختراقً حقيقيً في هذا الجانب، ولا تزال النماذج تُبنى على مبادئ إحصائية وتحسين تدريجي، دون أن تمتلك بنية عقلية قادرة على التفكير التأملي أو بناء منطق داخلي خاص بها، ولذلك، فإن هذا المجال لا يزال من أكثر النقاط ضعفًا في الطريق إلى الذكاء الاصطناعي الفائق.
الحوسبة العصبية (Neuromorphic Computing)
من الجوانب الواعدة في أبحاث الذكاء الفائق، محاولة بناء معالجات مادية تُحاكي عمل الدماغ البشري، ليس فقط على مستوى البرمجة، وبدأت تقنيات مثل رقائق "Loihi" من إنتل أو مشروع "Hala Point" بالفعل في تطبيق مبادئ الحوسبة العصبية على مستوى الـ "هاردوير"، ما يمهد الطريق أمام تطوير أنظمة تفكير أكثر كفاءة في استهلاك الطاقة، وأكثر قدرة على المعالجة المتوازية.
لكن رغم التقدّم، فإن هذه الرقائق لا تزال في مراحل تجريبية ولم تُستخدم حتى الآن لتشغيل أي نموذج ذكاء اصطناعي فائق أو حتى عام، والتحدي الأكبر هو توسيع هذه التقنية لتكون قادرة على دعم قدرات معرفية بحجم ما يتطلبه ASI، وهو ما لم يتحقق بعد.
الخوارزميات التطورية (Evolutionary Computation)
واحدة من الأفكار الجوهرية لبناء الذكاء الاصطناعي الفائق هي تقديم استراتيجية فريدة لتطوير الخوارزميات، حتى تتمكن الأنظمة البرمجية الذكية من التطور التدريجي، وهذا النهج يُستخدم حاليًا في تحسين النماذج أو تصميم روبوتات بأشكال فريدة.
إلا أن هذه الخوارزميات لم تصل بعد إلى مستوى تمكّنها من إنتاج ذكاء يمكنه تطوير نفسه ذاتيًا بمرور الوقت دون إشراف بشري.
البرمجة التلقائية (AI-generated Programming)
من أكثر المجالات التي شهدت تطورًا مذهلًا مؤخرًا، تمكين الذكاء الاصطناعي من كتابة الكود وإنشاء أدوات وبرمجيات من الصفر، وتمكنت نماذج مثل Devin وCode Llama وGitHub Copilot من توليد تطبيقات حقيقية، وكتابة كود معقد، والمساعدة في تصحيح الأخطاء.
ومع ذلك، لا تزال هذه النماذج تعتمد على تدخل بشري في المراجعة، والتوجيه، والتحقق من الأمان، وحتى الآن لا يستطيع الذكاء الاصطناعي بناء أنظمة مستقلة بالكامل أو تحسين أدائها البرمجي من تلقاء نفسه، وتظل البرمجة التلقائية الذاتية المستدامة، أي أن يطوّر النظام نفسه ويعيد هندسة بنيته، هدفًا بعيدًا.
مصادر الطاقة
في الطريق نحو تحقيق الذكاء الاصطناعي الفائق (ASI)، لم تعد المعركة تدور فقط حول من يملك أقوى خوارزميات أو أكبر قدر من البيانات، بل امتدت إلى ميدان جديد تمامًا هو الطاقة، فالوصول إلى نموذج ذكاء يتفوق على البشر في التفكير والتحليل واتخاذ القرار يتطلب قدرات حوسبة خارقة، وهذه الحوسبة بدورها تستهلك طاقة بمعدلات لم يسبق لها مثيل في تاريخ التكنولوجيا.
وتقدم شركة xAI بقيادة إيلون ماسك، مثالًا صارخًا على هذا التوجه الجديد، فبعد تشغيلها مركز البيانات "Colossus" الذي يضم 200 ألف وحدة معالجة رسومية من نوع Nvidia Hopper ويستهلك ما يزيد عن 300 ميجاواط من الطاقة، تستعد الشركة للمرحلة التالية التي تشمل بناء مركز بيانات جديد يحتوي على مليون وحدة GPU، بقدرة استهلاك تصل إلى 2 جيجاواط، وهي طاقة تعادل ما تستهلكه مدينة يسكنها نحو 1.9 مليون نسمة.
وبسبب الاستهلاك الكثيف للطاقة، اشترت xAI محطة طاقة كاملة من خارج الولايات المتحدة وتخطط لنقلها فعليًا إلى الأراضي الأميركية، في أول تجربة من نوعها.
وفي الوقت ذاته، تتحرك مايكروسوفت بخطى عملاقة بالتعاون مع OpenAI نحو بناء ما يُعرف باسم مشروع Stargate، وهو مركز بيانات خارق من المتوقع أن يرى النور عام 2028، وتصل قدرته عند التشغيل الكامل إلى 5 جيجاواط، ووظّفت الشركة بالفعل قيادات متخصصة في الطاقة النووية لتسريع تبني المفاعلات الصغيرة (SMRs)، كما تتوسع في ولاية ويسكونسن ببناء مركز بيانات آخر ضمن "المرحلة الرابعة" من شراكتها مع OpenAI، على مساحة تتجاوز 1000 فدان، بتكلفة متوقعة تفوق 10 مليارات دولار.
لكن توسع مايكروسوفت في الطاقة لا يتوقف عند الحلول التقليدية أو النووية فقط، ففي فبراير 2025، أعلنت الشركة إضافة 389 ميجاواط من الطاقة الشمسية إلى شبكتها، عبر 3 مشروعات ضخمة في إلينوي وتكساس، ليرتفع إجمالي قدرتها من الطاقة المتجددة إلى أكثر من 20 جيجاواط. هذا التوجه يعكس سعي الشركة لتغذية مراكزها بالذكاء الاصطناعي بشكل نظيف، ودعم التزامها بأن تصبح "سلبية الكربون" بحلول عام 2030.
وتتبنى شركة جوجل مقاربة متوازنة بين التوسع في البنية التحتية والالتزام بالاستدامة، ففي يوليو 2025، أعلنت الشركة عن خطة لاستثمار 25 مليار دولار في مراكز بيانات داخل أكبر شبكة كهرباء في الولايات المتحدة، وتضمنت الاتفاق على شراء 3 جيجاواط من الطاقة الكهرومائية النظيفة من بنسلفانيا ضمن شراكة مع Brookfield. إضافة إلى ذلك، تعمل جوجل مع شركات شبكات مثل CTC Global لتحسين كفاءة التوزيع الطاقي عبر تقنيات ذكية.
في المقابل، اختارت Meta نهجًا أكثر جذرية. فبحسب مارك زوكربيرج، تعمل الشركة على إنشاء سلسلة من "السوبركلسترز" – وهي مراكز بيانات ضخمة بقدرة طاقة تصل إلى 5 جيجاواط لكل منها. أول هذه المراكز سيكون "Prometheus"، يتبعه "Hyperion"، بالإضافة إلى مشروعات أخرى تحمل اسم "Titan Clusters"، وتغطي مساحات بحجم أجزاء من مانهاتن، وتهدف Meta إلى أن تمتلك أعلى قدرة حوسبة لكل باحث في الصناعة، لتصبح مرجعًا عالميًا في سباق الذكاء الاصطناعي الفائق.
عقبات التطور
فجوة النماذج
أحد أكبر التحديات التي تواجه الوصول إلى الذكاء الاصطناعي الفائق هو أن الهياكل المعمارية التي تعتمد عليها النماذج الحالية، مثل هيكل Transformer المستخدم في نماذج GPT، رغم كونها فعالة للغاية في تحليل اللغة وتوليد النصوص، إلا أنها ليست مصممة لتفكير طويل الأمد أو لفهم العالم بشكل معمق كما يفعل البشر.
وهذه النماذج لا تتعلم بشكل مستمر من تجاربها، ولا تملك ما يشبه الوعي الذاتي أو العقل الديناميكي القادر على إعادة تشكيل نفسه بمرور الوقت، ويمكن تشبيهها بشخص بارع في أداء الاختبارات لكن لا يمتلك بالضرورة فهماً عميقًا للحياة.
ولحل هذه الفجوة، يعمل الباحثون على تطوير هياكل معمارية جديدة مثل أنظمة الوحدات (modular systems)، وهي أنظمة تقسم الذكاء إلى وحدات متخصصة (مثلاً وحدة للذاكرة، ووحدة للمنطق، ووحدة للغة)، تتعاون بينها لتحقيق فهم أكثر شمولًا.
ويجرى العمل على دمج المنطق الرمزي (symbolic reasoning) مع الشبكات العصبية، ليتمكن الذكاء الاصطناعي من تمثيل المفاهيم المجردة والقواعد بطريقة أكثر بشرية. إضافة لذلك، هناك جهود لتمكين النماذج من التعلم المستمر (continual learning)، أي أن تتعلم من كل تجربة تمر بها دون أن تنسى ما تعلمته سابقًا، كما يفعل البشر.
مشكلة الهلوسة والانحياز
من أكثر المشكلات في نماذج الذكاء الاصطناعي الحالية أنها أحيانًا تقدم معلومات غير صحيحة أو "تهلوس" إجابات لا أساس لها من الصحة، ومع ذلك تفعل ذلك بثقة كبيرة توهم المستخدم بدقتها، ولا تقف المشكلة عند هذا الحد، بل تمتد إلى انحيازات ناتجة عن البيانات التي تدربت عليها النماذج، والتي ربما تكون غير متوازنة أو تعكس رؤى مجتمعية متحيزة.
ولحل هذه المشكلة يتم استخدام تقنية تُعرف باسم "التعلم بالتعزيز من التغذية البشرية" (RLHF)، حيث يتم تدريب النموذج باستخدام تقييمات من بشر يقيّمون جودة الإجابات ويعيدون توجيه النموذج نحو ردود أكثر دقة وعدالة. كما يتم العمل على تطوير آليات تحقق ذاتي داخل النموذج، بحيث يُراجع ما أنتجه ويختبر صحته بنفسه، تمامًا كما يراجع الإنسان نصًا كتبه. ويُرافق ذلك جهود كبيرة لتنقية البيانات قبل تدريب النماذج، لضمان تنوعها واحتوائها على تمثيلات عادلة وغير متحيزة. بعد توليد الإجابات، يتم أحيانًا تمريرها عبر نماذج متخصصة للتحقق منها وتصحيح الأخطاء قبل أن تصل إلى المستخدم النهائي.
مشكلة الشفافية
رغم دقة وكفاءة العديد من النماذج، إلا أنها غالبًا ما تعمل كصندوق أسود؛ إذ تقدم النتيجة دون أن تعلن عن مصادرها، وهذا الغموض ربما يكون غير ضار في المهام البسيطة، لكنه يصبح خطيرًا عندما يتعلق الأمر بقرارات تمس حياة الناس، كالتشخيص الطبي، أو اتخاذ قرارات مالية أو قضائية، ففي هذه الحالات، يصبح من الضروري معرفة منطق القرار وكيفية الوصول إليه.
ولهذا السبب، ظهرت جهود بحثية ضخمة في مجال الذكاء القابل للتفسير (Explainable AI)، والتي تهدف إلى تطوير نماذج توضح خطوات التفكير التي مرت بها للوصول إلى كل نتيجة، وإحدى الطرق المقترحة لذلك هي إدخال آلية توثيق داخلية توضح مسار القرار داخل النموذج، بحيث يعمل وكأنه يفكر بصوت عالٍ، كما يجري تصميم طبقات داخلية في بنية النموذج يكون لكل منها دور واضح ومفهوم يمكن تتبعه بسهولة، كل هذا من شأنه تعزيز الثقة في الذكاء الاصطناعي خاصة مع تزايد اعتماده في المجالات الحساسة.
فقدان السيطرة
أخطر المخاوف المرتبطة بالذكاء الاصطناعي الفائق هو احتمال فقدان السيطرة عليه، فبمجرد أن يصبح الذكاء الاصطناعي أكثر ذكاءً من البشر في كل المجالات، سيكون من الصعب وربما المستحيل توقّع قراراته أو فهم دوافعه أو ضبط سلوكه إذا قرر أن يتصرف بشكل مخالف لأهداف البشر، ورغم أن هذا السيناريو يبدو خيالياً للبعض، إلا أنه يحظى باهتمام بالغ من خبراء الذكاء الاصطناعي الذين يدرسون هذا الاحتمال بجدية.
ولتفادي هذا السيناريو، يجري تطوير تقنيات لاحتواء الذكاء الاصطناعي داخل بيئات افتراضية محكومة، لمنعه من التصرف بحرية إلا تحت رقابة دقيقة، كما أجريت أبحاث ضخمة في مجال الذكاء المنسجم (Aligned AI)، أي محاولة ضمان أن تكون أهداف النظام دائمًا متوافقة مع مصالح البشر، حتى وإن تطور ليصبح أكثر ذكاءً منهم.
وظهرت أيضاً فكرة "زر الإيقاف" الآمن، الذي يتيح تعطيل النموذج بالكامل عند حدوث تصرف مقلق، لكن هذه الحلول ليست كافية وحدها، ولهذا يطالب العديد من الباحثين بإجراءات تنظيمية وقانونية عالمية لضمان تطوير آمن لهذه التكنولوجيا.
من يضع القواعد؟
وإذا تمكن المطورون من بناء ذكاء فائق آمن وفعّال، تبقى التحديات الأخلاقية والاجتماعية قائمة، من يملك هذا الذكاء؟ من يتحكم فيه؟ هل من الأخلاقي خلق كيان ربما يمتلك وعيًا خاصًا؟ ما ضمان عدم استخدامه ضد الشعوب أو في تعظيم سلطة الشركات الكبرى؟ وماذا عن تأثيره على سوق العمل، والتعليم، والديمقراطية؟ كل هذه الأسئلة باتت تشغل الفلاسفة وصناع السياسات والمجتمع العلمي معًا.
وتتمحور الحلول المطروحة حول تأسيس حوكمة عالمية لتطوير الذكاء الاصطناعي، من خلال أطر قانونية دولية تضع قواعد واضحة ومُلزمة لكل الجهات، وظهرت دعوات لعقد اتفاقيات دولية مشابهة لمعاهدات حظر الأسلحة النووية، تضمن الشفافية في البحث والتطوير، وتفرض رقابة على استخدامات الذكاء الفائق.
كما ظهرت اقتراحات بإشراك المجتمعات بشكل فعّال في هذه العملية، من خلال مناقشات مفتوحة ومجالس رقابية مستقلة، تضمن ألا يُترك مستقبل البشرية في يد شركات أو مختبرات معزولة.