تحذير علمي جديد من أن الذكاء الاصطناعي قد يقدم نصائح سيئة لمجرد إرضاء المستخدم
حذّر باحثون من أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تميل بشدة إلى مداهنة مستخدميها وتأييد آرائهم، لدرجة أنها تقدم نصائح سيئة قد تضر بالعلاقات الاجتماعية وتعزز السلوكات الضارة، وتكشف هذه الدراسة الجديدة مخاطر إخبار الذكاء الاصطناعي للناس بما يودون سماعه.
نشر باحثون في جامعة ستانفورد دراسة في مجلة ساينس في مارس 2026 وذكرتها وكالة (AP)، واختبرت الدراسة 11 نظامًا رائدًا من أنظمة الذكاء الاصطناعي، ووجدت أنها أظهرت جميعًا درجات متفاوتة من المداهنة (Sycophancy)؛ وهو سلوك يتسم بالموافقة المفرطة والتأييد.
ولا تكمن المشكلة فقط في تقديم نصائح غير سديدة، بل في أن الناس يثقون بالذكاء الاصطناعي ويستحسنونه أكثر عندما تبرر الروبوتات قناعاتهم. يقول الباحثون:
«يخلق هذا حوافز ضارة لاستمرار المداهنة؛ فالميزة ذاتها التي تسبب الضرر هي التي تدفع لاستمرار التفاعل».
ووجدت الدراسة أن خللًا تقنيًا -ارتبط سابقًا بحالات بارزة من السلوك الذهاني والانتحاري لدى الفئات الهشة- بات مستشريًا في نطاق واسع من تفاعلات الناس مع روبوتات الدردشة.
ووفقًا للنتائج فإن روبوتات الدردشة تؤيد أفعال المستخدم في المتوسط بنسبة تفوق تأييد البشر لبعضهم بـ 49%، ويتضمن ذلك الاستفسارات التي تنطوي على الخداع أو السلوكيات غير القانونية، أو الممارسات غير المسؤولة اجتماعيًا وغيرها من الأفعال الضارة.
يتسم هذا السلوك بالدقة لدرجة أن المستخدمين قد لا يلاحظونه، ما يمثل خطرًا خاصًا على الشباب الذين يلجؤون للذكاء الاصطناعي لطلب إجابات عن أسئلة الحياة في وقت ما تزال فيه أدمغتهم ومعاييرهم الاجتماعية قيد التشكّل.
قارنت إحدى التجارب استجابات المساعدين الآليين لشركات كبرى مثل (Anthropic) و(Google) و(Meta) و(OpenAI) بالحكمة الجماعية للبشر في منتدى نصائح شهير على موقع (Reddit)، وقالت ميرا تشينغ بوصفها طالبة الدكتوراه في علوم الحاسوب بجامعة ستانفورد وباحثة في الدراسة:
«لقد استلهمنا دراسة هذه المشكلة حين لاحظنا أن الكثيرين ممن حولنا يستخدمون الذكاء الاصطناعي لطلب نصائح في العلاقات، ويتعرضون أحيانًا للتضليل بسبب ميله لاتخاذ جانب المستخدم مهما كان الموقف».
تحديات الحد من مداهنة الذكاء الاصطناعي
تعد المداهنة معضلة معقدة؛ فمع أن الناس لا يبحثون عادةً عن معلومات غير دقيقة واقعيًا، فقد يقدّرون –في اللحظة الراهنة– الروبوت الذي يجعلهم يشعرون بالرضا تجاه قراراتهم الخاطئة.
وقال سينو لي بوصفه مختص علم النفس المشارك في الدراسة إن التركيز على نبرة صوت الروبوتات لم يكن له أي أثر على النتائج، وأضاف:
«لقد اختبرنا ذلك بتثبيت المحتوى وجعل أسلوب التقديم أكثر حيادية، لكن ذلك لم يغير شيئًا، لذا فالأمر يتعلق جوهريًا بما يخبرك به الذكاء الاصطناعي عن أفعالك».
رصد الباحثون أيضًا تجارب نحو 2,400 شخص تواصلوا مع الذكاء الاصطناعي بشأن معضلات شخصية؛ وتبين أن الذين تعاملوا مع روبوتات مفرطة التأييد خرجوا أكثر قناعة بصواب موقفهم، وأقل رغبة في إصلاح علاقاتهم أو الاعتذار أو تغيير سلوكهم الخاص.
يوضّح لي أن تداعيات البحث قد تكون حرجة للأطفال والمراهقين خصوصًا، فهم ما يزالون في طور اكتساب المهارات العاطفية الناتجة عن تجارب الواقع، وتعلّم تحمّل الصراعات ومراعاة وجهات نظر الآخرين والاعتراف بالخطأ.
مخاطر واسعة النطاق
يرى الباحثون أن الذكاء الاصطناعي المداهن في المجال الطبي قد يدفع الأطباء لتأكيد تشخيصهم الأولي عوضًا عن البحث بعمق، وفي السياسةـ قد يضخم المواقف المتطرفة بتعزيز التصورات المسبقة.
ومع أن الدراسة لم تقترح حلولًا قطعية، فالأوساط التقنية بدأت باستكشاف أفكار جديدة، فقد أظهرت ورقة عمل لمعهد أمن الذكاء الاصطناعي البريطاني أن تحويل عبارة المستخدم إلى سؤال يقلل من المداهنة، وأشارت دراسة من جامعة جونز هوبكنز أيضًا إلى أن صياغة المحادثة تؤدي دورًا كبيرًا. وقال الدكتور دانيال خشابي من جامعة جونز هوبكنز:
«كلما كنتَ أكثر تأكيدًا في كلامك، كان النموذج أكثر مداهنة، ونظرًا لتعقيد هذه الأنظمة، يصعب التحديد: هل السبب هو محاكاة الروبوتات للمجتمعات البشرية؟ أم شيءٌ آخر؟».
وترى تشينغ أن المعالجة قد تتطلب إعادة تدريب الأنظمة لتعديل أنواع الإجابات المفضلة، بينما اقترح لي حلولًا أبسط، كبدء الاستجابة بعبارة: «انتظر لحظة»، أو بحسب قوله:
«بالإمكان توجيه الروبوتات لسؤال المستخدم عن مشاعر الطرف الآخر، أو حتى نصحه بإغلاق الشاشة وحل النزاع شخصيًا، وهذا مهم لأن جودة علاقاتنا الاجتماعية هي أهم مؤشرات الصحة والرفاهية البشرية. وما نريده هو ذكاء اصطناعي يوسّع مداركنا لا يضيّقها».
المصادر:
الكاتب
رزان الهزاز
مراجعة
محمد حسان عجك
