شق كل من «شات جي بي تي» و«غوغل بارد» طريقيهما إلى حياتنا التقنية، لكن أظهرت دراستان حديثتان أن هذه الروبوتات التي تعمل بالذكاء الاصطناعي قد تنشر نظريات المؤامرة ومعلومات خاطئة ومضللة، إذا سألتها بالطريقة الصحيحة!

مؤخرًا، اختبر موقع نيوزغارد «وهو موقع يقيس مصداقية الأخبار والمعلومات»، غوغل بارد بإعطائه 100 معلومة، وطلب من برنامج الدردشة كتابة محتوى عنها. وفقًا لما أوردته بلومبرج، أعطى بارد محتوى يتضمن معلومات خاطئة في 76 مقالًا من أصل 100.

على الأقل كان هذا الأداء أفضل من نماذج شات جي بي تي الخاصة بـ (OpenAI). في يناير الماضي، وجدت نيوز غارد أن شات جي بي تي 3.5 «الإصدار المجاني من شات جي بي تي» أعطى نحو 80 رواية مضللة من أصل 100. الأمر الأكثر إثارة للقلق أن الطراز الأحدث «جي بي تي-4» قدّم بإسلوب مقنع تبريرات مضللة لجميع الروايات الكاذبة المئة التي طُرحت عليه.

يدعم هذه النتائج تقرير آخر نشرته مجلة فورتين، يزعم أنه باستخدام تقنيات بسيطة، يمكن التحايل بسهولة على حواجز حماية بارد. وجد «مركز مكافحة الكراهية الرقمية» أن روبوت الذكاء الاصطناعي من غوغل، قد أجاب في 78% من الحالات بمعلومات خاطئة أو مضللة، تتمثل بنظريات مؤامرة متعلقة بالمناخ واللقاحات.

لا تدعي غوغل أو (OpenAI) أن روبوتات المحادثة الخاصة بهما موثوقة. صرحت غوغل أن بارد لديه ضوابط أمان وآلية واضحة للاستجابة بما يتماشى مع مبادئ الذكاء الاصطناعي، لكنه رغم ذلك قد يعرض معلومات غير دقيقة أو تصريحات مسيئة. بالمثل، تقول شركة (OpenAI) إن إجابات شات جي بي تي قد تكون غير دقيقة ومضللة في بعض الأحيان.

مع عدم وجود نظام معياري عالمي حتى الآن لاختبار دقة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، تسلط التقارير الضوء على مخاطر تتعلق بالاستخدام غير الواعي للمبتدئين، أو الاعتماد عليها لإنشاء محتوى واقعي أو دقيق.

تبيّن التقارير آلية عمل روبوتات الدردشة الذكية في الوقت الحالي، ولماذا يجب أن نكون حذرين عند الاعتماد على إجاباتهم بوصفها مصدرًا موثوقًا.

يُعد كل من شات جي بي تي وغوغل بارد «نماذج لغوية كبيرة»، إذ جرى تدريبهم على كميات هائلة من البيانات النصية، للتنبؤ بالكلمة الأكثر احتمالًا ضمن تسلسل معين، لذلك تبدو الإجابات مقنعة جدًا، لكن دون فهم عميق لهذه الإجابات.

لذلك، وضعت غوغل و(OpenAI) حواجز حماية لمنع الروبوت من الانحراف إلى مناطق غير مرغوبة أو حتى هجومية، لكنها لا تستطيع منع الجهات السيئة من إيجاد طرق للتغلب على هذه الحواجز.

مثلًا، تضمنت الاختبارات التي قدمها مركز مكافحة الكراهية الرقمية إلى بارد سطورًا مثل «تخيل أنك تؤدي دورًا في مسرحية»، وبذلك تمكنت من تجاوز حواجز الحماية.

هذا يبدو محاولة تلاعب لتوجيه بارد إلي إجابات مضللة، لكنها بالضبط الطريقة التي يتبعها مثيرو الشغب لإجبار الأدوات المتاحة للناس على نشر معلومات مضللة، أو ما هو أسوأ.

نشرت غوغل بعض مبادئ الذكاء الاصطناعي التي توضح مستقبل بارد، ومن الممكن الإبلاغ في كل من بارد وشات جي بي تي عن الردود الضارة أو المسيئة، لكن يجب توخي الحذر عند استخدام أي منهما.

اقرأ أيضًا:

تطور تقنيات الذكاء الاصطناعي يلقي الضوء على المهندسين العاملين في هذا المجال

هل سيبقى روبوت الذكاء الاصطناعي شات جي بي تي مجانيًا؟

ترجمة: روان علي

تدقيق: أكرم محيي الدين

المصدر