أفادت دراسة جديدة بأن الاعتماد غير الواعي على الذكاء الاصطناعي قد يؤدي إلى تآكل مهارات التفكير النقدي لدى البشر.
وكشفت الدراسة، التي أجراها فريق علمي من مايكروسوفت، وجامعة كارنيجي ميلون، أن الثقة المفرطة في أدوات الذكاء الاصطناعي تقلل من الجهد الإدراكي الذي يبذله الأفراد في إنجاز المهام، ما قد يجعلهم أقل قدرة على التفكير النقدي.
وقال ليف تانكيلفيتش، الباحث الأول في "مايكروسوفت ريسيرش"، وأحد مؤلفي الدراسة، إن الذكاء الاصطناعي يمكن أن يكون أداة لتعزيز التفكير النقدي إذا استخدمناه بشكل صحيح.
وأضاف تانكيلفيتش أن "الذكاء الاصطناعي يمكنه توليد الأفكار وتعزيز الاستدلال، مما يدفعنا إلى رؤية ما هو غير متوقع وتحدي افتراضاتنا".
ولكن لتحقيق هذه الفوائد، أكد تانكيلفيتش ضرورة التعامل مع الذكاء الاصطناعي كشريك في التفكير، وليس مجرد أداة لتوفير المعلومات بسرعة.
وأشار إلى أن "جزءاً أساسياً من الحل هو تصميم تجربة مستخدم تحفّز التفكير النقدي بدلاً من الاعتماد السلبي على الذكاء الاصطناعي".
ويرى أنه يمكن تحقيق ذلك من خلال توفير واجهات ذكاء اصطناعي شفافة، تتيح للمستخدمين فهم طريقة استدلال الذكاء الاصطناعي، والتحقق من صحة مخرجاته.
الذكاء الاصطناعي وإدراك البشر
أجريت الدراسة على 319 محترفاً، وأظهرت أن ارتفاع مستوى الثقة في الذكاء الاصطناعي يؤدي غالباً إلى انخفاض الجهد الإدراكي المبذول في العمل.
وأظهرت النتائج أن الأشخاص الذين يعتمدون على الذكاء الاصطناعي دون التشكيك في نتائجه يكونون أقل ميلاً لممارسة التفكير النقدي، في حين أن الذين يتمتعون بثقة أكبر في قدراتهم الشخصية يكونون أكثر قدرة على النظرة النقدية.
ونوَّه تانكيلفيتش بأن هذه النتائج تعكس تحولاً أوسع في طبيعة العمل المعرفي، حيث أصبح دور العاملين ليس فقط تنفيذ المهام، ولكن إدارتها والإشراف على نتائج الذكاء الاصطناعي، فبدلاً من القيام بالعمل يدوياً، يتعين على المستخدمين الآن تقييم دقة المحتوى الذي يولّده الذكاء الاصطناعي، ودمجه بفاعلية في سير العمل.
اعتماد مفرط
وجدت الدراسة أن العديد من المهنيين يواجهون صعوبة في تقييم مخرجات الذكاء الاصطناعي بشكل نقدي؛ بسبب نقص المعرفة التخصصية اللازمة لذلك.
وفي بعض المجالات التقنية، مثل برمجة الأكواد، أو التحليل المالي، قد يكون من الصعب اكتشاف الأخطاء دون معرفة متخصصة.
وعن ذلك، نبَّه تانكيلفيتش إلى أنه "حتى عندما يدرك المستخدمون أن الذكاء الاصطناعي قد يكون مخطئاً، فإنهم لا يمتلكون دائماً الخبرة اللازمة لتصحيح الأخطاء".
وبيَّنت الدراسة أن الثقة المفرطة في الذكاء الاصطناعي يمكن أن تؤدي إلى مشكلة تُعرف باسم "التفريغ الإدراكي" (Cognitive Offloading)، حيث يعتمد الأفراد بشكل مفرط على التكنولوجيا لأداء المهام الذهنية.
وهذا المفهوم ليس جديداً؛ فقد اعتمد البشر منذ فترة طويلة على الأدوات الذكية مثل الآلات الحاسبة، ونظام تحديد المواقع (GPS) لتخفيف العبء الإدراكي.
لكن الذكاء الاصطناعي التوليدي، الذي ينتج نصوصاً وتحليلات معقدة، يضيف مستوى جديداً من المخاطر، إذ قد يقبل المستخدمون النتائج دون مراجعة، أو تدقيق.
ومضى تانكيلفيتش يقول: "تشير دراستنا إلى أنه عندما ينظر المستخدم إلى المهمة على أنها ليست ذات أهمية، فإنه قد لا يراجع مخرجات الذكاء الاصطناعي بدقة".
التحقق من المخرجات
ولحل هذه المشكلة، يجب على مطوري الذكاء الاصطناعي تصميم واجهات تحفز المستخدمين على التحقق من المخرجات، بدلاً من التسليم الأعمى بها.
ويمكن تحقيق ذلك من خلال إضافة ميزات مثل التفسيرات السياقية، وتقييمات الثقة، وعرض وجهات نظر بديلة عند الحاجة.
وتحدَّث تانكيلفيتش عن أن النماذج المعرفية العميقة تساعد في جعل التفاعل مع الذكاء الاصطناعي أكثر شفافية، مما يسهّل على المستخدمين مراجعة النتائج والتعلم منها.
ومن الأمثلة على ذلك، منصة الذكاء الاصطناعي Perplexity، التي توفر مساراً منطقياً واضحاً، يشرح كيف توصل الذكاء الاصطناعي إلى النتائج.
ويمكن أيضاً تحسين واجهات المستخدم من خلال مطالبة المستخدمين بإجراء مراجعات نشطة لمخرجات الذكاء الاصطناعي، بدلاً من قبولها بشكل فوري.