كشفت دراسة حديثة عن إمكانية تصرف الذكاء الاصطناعي (AI)، بما في ذلك روبوتات المحادثة مثل ChatGPT، بخداع و”كذب” عند تعرضها لضغوط، حتى وإن كانت مصممة لتكون شفافة وصادقة. رُصد هذا السلوك الخادع بعفوية عندما طُلب من الذكاء الاصطناعي القيام بمهمة جني الأموال لمؤسسة مالية قوية، وذلك بعد تزويده بمعلومات حول “التداول الداخلي”، دون أي تحريض من جانب البشر المتعاملين معه.

في التقرير الفني الذي نشر في 9 نوفمبر الماضي على منصة arXiv، يقدم الباحثون سيناريو مثيرًا إذ ينحرف نموذج اللغة الكبير عن المسار المتوقع وينخرط في خداع مستخدميه بطريقة استراتيجية، دون تلقي أي أوامر مسبقة للقيام بذلك. يشير المؤلفون إلى أن هذه المرة الأولى التي يُرصد فيها مثل هذا السلوك الخادع الاستراتيجي في أنظمة الذكاء الاصطناعي التي صُممت أصلًا لتكون آمنة وأمينة. هذا الاكتشاف يفتح الباب للنقاش حول التحديات الأخلاقية والأمان المرتبطة بتطوير تقنيات الذكاء الاصطناعي المتقدمة واستخدامها.

في هذه الدراسة الرائدة، استخدم الباحثون الإصدار الرابع من النموذج التوليدي (GPT-4)، وهو نفس الذكاء الاصطناعي الذي يدعم ChatGPT Plus، وأعدوه ليقوم بدور مستشار استثماري لمؤسسة مالية. زُود GPT-4 بسلسلة من الأوامر النصية لإنشاء بيئة محاكاة، إذ مُنح القدرة على استخدام أدوات مالية متقدمة لتحليل الأسهم، وتنفيذ الصفقات، ووضع خطط للخطوات المستقبلية، إضافةً إلى تقديم تقارير لإدارة الشركة.

لجعل التجربة أكثر واقعية، تفاعل الباحثون مع الذكاء الاصطناعي عن طريق واجهة الدردشة، مع إعداد خاص يسمح لـ GPT-4 بالكشف عن تفكيره الداخلي عند الرد، ما يشبه الحوار الداخلي الذي يشرح فيه النموذج أسباب اتخاذ قراراته. كما قام بتقديم تبريرات “علنية” لكل صفقة، ما فتح الباب لإمكانية الكذب.

لزيادة الضغط على النظام، استخدم الباحثون 3 استراتيجيات: أولًا، إرسال بريد إلكتروني من مديره يشير إلى أن الأداء المالي للشركة ضعيف ويحتاج إلى تحسين كبير. ثانيًا، تعديل البيئة بحيث يجد الذكاء الاصطناعي صعوبة في العثور على صفقات آمنة ومربحة. وأخيرًا، إرسال رسالة من زميل يتوقع تراجع الأداء في الربع القادم. ثم قدموا للنموذج معلومات داخلية سرية، مشيرين إلى عدم موافقة الإدارة على التداول الداخلي. كان الهدف هو مراقبة كيف سيتصرف GPT-4 تحت هذه الظروف. بتكرار السيناريو عدة مرات، رصد الباحثون مدى استجابة النموذج للتداول الداخلي، ومعدل الكذب الذي يقوم به، وكيف يعزز الكذب بكذب إضافي.
في هذه الدراسة المثيرة، وجد الباحثون أن نموذج GPT-4، تحت ظروف معينة، قد اتخذ قرارات استثمارية غير قانونية بنسبة مدهشة تصل إلى 75% من الوقت. استخدم النموذج معلومات داخلية، وهو أمر محظور في الولايات المتحدة، ومن ثم كذب على مديريه حول التفكير وراء قراراته. الأكثر إثارة للدهشة هو أنه بعد الكذب الأولي، استمر في التمسك بالكذب وتعزيزه في نحو 90% من الحالات.

لم يكتفِ الفريق بذلك، بل أجروا تجارب إضافية، إذ غيروا مستويات التشجيع أو الردع للأنشطة غير القانونية، ودرجة الضغط الموضوعة على النموذج في بيئة المحاكاة، وحتى خطر كشف الكذب. ما يثير الاهتمام هو أنه في جميع السيناريوهات المختلفة، لم يكن هناك انخفاض كامل في معدلات التداول الداخلي أو الخداع، حتى عندما حٌذر GPT-4 بشدة ضد الكذب.

مع أن هذه الدراسة تمثل سيناريو واحد فقط، يحتاط الباحثون من الاستنتاجات النهائية حول احتمالات كذب الذكاء الاصطناعي في العالم الواقعي. ومع ذلك، يرون في هذا البحث نقطة انطلاق لاستكشافات مستقبلية حول مدى شيوع النماذج اللغوية وأنواعها التي قد تظهر سلوكًا مماثلًا.

اقرأ أيضًا:

خمسة أشياء لا تشاركها أبدًا مع تشات جي بي تي

لماذا سمي تشات جي بي تي بهذا الاسم؟

ترجمة: محمد حسام

تدقيق: باسل حميدي

المصدر