مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

25 خبر
  • نبض الملاعب
  • العملية العسكرية الروسية في أوكرانيا
  • هدنة وحصار المضيق
  • نبض الملاعب

    نبض الملاعب

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • هدنة وحصار المضيق

    هدنة وحصار المضيق

  • إسرائيل تواصل غاراتها على لبنان

    إسرائيل تواصل غاراتها على لبنان

  • زيارة ترامب إلى الصين

    زيارة ترامب إلى الصين

مشكلة "الثقة المفرطة" في الذكاء الاصطناعي تقترب من الحل

قد يكون الذكاء الاصطناعي، بما يملكه من مخزون هائل من المعرفة، مفيدا للغاية، إلا أن له عيبا واحدا قد يحدّ من مزاياه، وهو الثقة المفرطة في الإجابة.

مشكلة "الثقة المفرطة" في الذكاء الاصطناعي تقترب من الحل
صورة أرشيفية / naukatv.ru

فأي إجابة يقدمها، سواء كانت مبنية على استدلال مدروس أو مجرد تخمين، يطرحها بالقدر نفسه من الثقة.

واكتشف باحثون في مختبر علوم الحاسوب والذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا أن أصل هذه الثقة المفرطة يعود إلى خلل محدد في طريقة تدريب النماذج، وقد طوروا أسلوبا جديدا يهدف إلى معالجة هذا الخلل دون التأثير على دقة الأداء.

وتُعرف هذه الطريقة باسم RLCR (التعلم المعزز باستخدام مكافآت المعايرة)، وقد وُصفت في بحث منشور على منصة arXiv، ومن المقرر تقديمه في المؤتمر الدولي للتعلم الآلي ICLR 2026 في ريو دي جانيرو. وتعتمد هذه المنهجية على تدريب النماذج اللغوية على تقديم إجابات مرفقة بتقدير لدرجة الثقة، أي أن النموذج لا يكتفي بالإجابة، بل يعبّر أيضا عن مستوى عدم يقينه.

ما المشكلة؟

تقوم أساليب التعلم المعزز المستخدمة في أحدث نماذج التفكير الاصطناعي على مكافأة الإجابة الصحيحة ومعاقبة الإجابة الخاطئة، دون التمييز بين طريقة الوصول إلى النتيجة. وبالتالي، يحصل النموذج الذي يصل إلى الإجابة الصحيحة عبر استنتاج منطقي، على نفس المكافأة التي يحصل عليها نموذج آخر وصل إليها عن طريق التخمين.

ومع مرور الوقت، يؤدي ذلك إلى ترسيخ سلوك لدى النماذج يجعلها تميل إلى تقديم إجابات واثقة حتى في الحالات التي تفتقر فيها إلى الأدلة الكافية.

وتترتب على هذه الثقة المفرطة آثار سلبية، خاصة عند استخدام هذه النماذج في مجالات حساسة مثل الطب أو القانون أو التمويل، حيث تعتمد القرارات البشرية على مخرجات الذكاء الاصطناعي. فالنموذج الذي يعبر عن ثقة عالية غير دقيقة قد يكون أكثر خطورة من نموذج يخطئ بوضوح، لأن المستخدم قد لا يدرك ضرورة التحقق من الإجابة.

ويشرح طالب الدراسات العليا في معهد ماساتشوستس للتكنولوجيا وأحد مؤلفي الدراسة، ميهول داماني، قائلا:
"إن أساليب التدريب التقليدية بسيطة وفعالة، لكنها لا تشجع النموذج على التعبير عن عدم اليقين أو قول (لا أعرف)، لذلك يتعلم النموذج بطبيعته أن يخمّن عندما لا يكون واثقا".

ما الحل؟

تعالج طريقة RLCR هذه المشكلة بإضافة عنصر واحد إلى دالة المكافأة، وهو مقياس "براير" (Brier score)، المستخدم لقياس مدى تطابق ثقة النموذج مع دقته الفعلية. خلال التدريب، تتعلم النماذج تقييم كل من الإجابة وعدم يقينها في الوقت نفسه، بحيث تقدم الجواب مع تقدير لمستوى الثقة.

وبذلك تتم معاقبة كل من الإجابات الخاطئة ذات الثقة المبالغ فيها، والإجابات الصحيحة المصحوبة بعدم ثقة غير مبررة، مما يساعد على تحقيق توازن أفضل بين الدقة والتعبير الواقعي عن الثقة.

المصدر: Naukatv.ru

 

 

 

التعليقات

لأول مرة منذ سقوط الأسد.. مصدر في الدفاع السورية يكشف حقيقة تحليق طائرات حربية للجيش (فيديو)

تطورات جديدة في أزمة البحارة المصريين المختطفين بالصومال

التلغراف: مساعدو ترامب حثوا الإمارات على تعميق دورها بالحرب والاستيلاء على جزيرة إيرانية استراتيجية

السودان.. "السافنا" المنشق من "الدعم السريع" يكشف تفاصيل مثيرة خلال مؤتمر صحفي بالخرطوم (فيديو)

رئيس مجلس الشورى الإيراني: العالم يقف على أعتاب نظام عالمي جديد

ترامب ينشر صورة بالذكاء الاصطناعي ويعلق: هدوء ما قبل العاصفة

"رويترز": مجازفة ترامب السياسية مع إيران تصل لطريق مسدود

"نيويورك تايمز": مساعدو ترامب أعدوا خطة للعودة إلى الضربات على إيران كخيار لكسر جمود المفاوضات

التلفزيون الإيراني: توقيف ناقلة نفط مخالفة محملة بحوالي 450 ألف برميل

مصدر رسمي لبناني لـ"LBCI": العمل جار لتحقيق وقف شامل لإطلاق النار الليلة ونأمل بالتزام كل الأطراف به

سيناتورة أمريكية: ترامب يعطي الأولوية للحرب المتهورة على إيران بينما تعجز العائلات عن شراء البنزين

ما يخطئ فيه البيت الأبيض وول ستريت بشأن الحرب الإيرانية