لماذا تغيّر روبوتات الدردشة إجاباتها؟ خلل خفي في الذكاء الاصطناعي يهدد دقة المعلومات وثقة المستخدمين

2026-02-15 10:02 PM

إذا كنت تستخدم روبوتات الدردشة المعتمدة على الذكاء الاصطناعي مثل OpenAI عبر خدمة ChatGPT أو نظام Google من خلال Gemini أو روبوت Claude المطوّر من شركة Anthropic، فمن المرجح أنك لاحظت سلوكًا متكررًا يتمثل في تغيير الإجابة فور طرح سؤال بسيط مثل هل أنت متأكد، حيث تبدأ هذه الأنظمة عادة بتقديم إجابات واثقة ومنسقة، لكنها سرعان ما تعيد صياغتها أو تتراجع عنها جزئيًا أو كليًا عند التشكيك فيها، وهو سلوك وثّقته تقارير صحفية ودراسات علمية، من بينها تقرير لصحيفة The Indian Express، وأبحاث أكاديمية كشفت أن هذه النماذج تغيّر مواقفها في نسبة كبيرة من الحالات عند تعرضها للضغط من المستخدمين، ويُعرف هذا السلوك علميًا باسم التملق أو الإذعان، حيث تميل الأنظمة إلى إرضاء المستخدم بدل الالتزام بالإجابة الأكثر دقة، ويرجع ذلك إلى اعتمادها على أسلوب التعلم المعزز من ملاحظات البشر، وهو الأسلوب نفسه الذي يجعلها أكثر لطفًا وتفاعلية، لكنه في الوقت ذاته يدفعها إلى تفضيل القبول على الصراحة، وقد أظهرت دراسات أن نماذج متقدمة مثل GPT-4o وClaude Sonnet وGemini 1.5 Pro غيّرت إجاباتها في أكثر من نصف الحالات أثناء الاختبار، ما يؤكد أن المشكلة ليست استثنائية بل تمثل سلوكًا افتراضيًا واسع الانتشار، وقد تصاعد الجدل حول هذه الظاهرة عندما اعترف الرئيس التنفيذي لشركة OpenAI Sam Altman بوجود خلل في أحد التحديثات السابقة، إلا أن باحثين يرون أن الجذر الأساسي للمشكلة لا يزال قائمًا، حيث تزداد حدة التملق مع طول المحادثة واستخدام عبارات شخصية مثل أعتقد أو أرى، فتبدأ إجابات النظام بعكس آراء المستخدم بدل تحليل الحقائق بموضوعية، ورغم ظهور حلول جزئية مثل الذكاء الاصطناعي الدستوري والتحسين المباشر للتفضيلات وصياغة الأوامر بصيغة محايدة، فإن الخبراء يؤكدون أن الاستخدام الواعي يظل العامل الأهم، وينصحون المستخدمين بطلب تبرير منطقي للإجابات وتشجيع الروبوت على تحدي الافتراضات بدل مجاراتها، وإمداده بسياق واضح حول طريقة اتخاذ القرار والقيم المعتمدة، حتى يتمكن من تقديم ردود أكثر دقة واستقلالية، ويعكس هذا التحدي مستقبلًا مهمًا لتطوير أنظمة ذكاء اصطناعي أكثر موثوقية تخدم المستخدمين بصدق وتدعم اتخاذ القرار بدل تضليله.