أدوات الذكاء الاصطناعي تفشل في كشف الصور المزيفة التي تولّدها بنفسها

22 ديسمبر 2025
10 مشاهدة
0 اعجاب

أدوات الذكاء الاصطناعي تفشل في كشف الصور المزيفة التي تولّدها بنفسها

=


 

عندما لجأ الفلبينيون الغاضبون إلى روبوت دردشة يعمل بالذكاء الاصطناعي للتحقق من صحة صورة متداولة لنائب مشرّع متورط في فضيحة فساد، عجزت الأداة عن اكتشاف أنها مفبركة، مع أنها هي نفسها التي ولّدتها.

 

يتزايد لجوء مستخدمي الإنترنت إلى روبوتات الدردشة للتحقق من الصور في الوقت الحاضر، لكن هذه الأدوات غالبًا ما تفشل في ذلك، ما يطرح تساؤلات حول قدراتها على كشف زيف الصور بصريًا، في وقت تُقلص فيه منصات التكنولوجيا الكبرى من عمليات التحقق البشري من الحقائق.

 

غالبًا ما تُخطئ هذه الأدوات في تصنيف الصور على أنها حقيقية، حتى عندما تكون مولّدة باستخدام النماذج نفسها، ما يزيد من تعكير المشهد المعلوماتي على الإنترنت المليء بالتزييفات المُولّدة بالذكاء الاصطناعي.

 

 

من بينها صورة مفبركة متداولة على وسائل التواصل الاجتماعي لإليزالدي كو، وهو نائب فلبيني سابق اتهمه الادعاء العام في عملية احتيال وفساد للسيطرة على الفيضانات بمليارات الدولارات، التي أشعلت احتجاجات حاشدة في بلد يتعرّض باستمرار للكوارث الطبيعية.

 

 

ظهرت الصورة التي فيها كو -الذي ظل مكانه مجهولاً منذ بدء التحقيق الرسمي- كأنها التقطت في البرتغال.

 

عندما سأل المحققون الإلكترونيون الذين يتعقبونه نموذج الذكاء الاصطناعي الجديد من جوجل عن صحة الصورة، أكد النموذج عن طريق الخطأ على صحة الصورة. وتتبع مدققو الحقائق في وكالة فرانس برس مُنشئ الصورة، وتأكدوا من أنها وُلّدت باستخدام الذكاء الاصطناعي من جوجل.

 

 

صرح ألون يامين، الرئيس التنفيذي لمنصة كوبي ليكس للكشف عن محتوى الذكاء الاصطناعي، لوكالة فرنس برس: «هذه النماذج مُدربة أساسًا على أنماط اللغة، وتفتقر إلى الفهم البصري المُتخصص اللازم لتحديد الصور المُولّدة أو المُتلاعب بها بدقة. مع روبوتات الدردشة المُعتمدة على الذكاء الاصطناعي، حتى عندما تنشأ صورة من نموذج توليدي مُماثل، غالبًا ما تُقدم روبوتات الدردشة تقييمات غير مُتسقة أو مُعمّمة على نحو مُفرط، ما يجعلها غير موثوقة لمهام مثل التحقق من صحة الحقائق أو التحقق منها».

 

 

لم تستجب جوجل لطلب وكالة فرانس برس للتعليق.

 

 

القابل للتمييز من الواقع

         

وجدت وكالة فرنس برس أمثلة مماثلة على فشل أدوات الذكاء الاصطناعي في التحقق من صور كانت قد ولّدتها هي نفسها.

 

 تداول مستخدمو وسائل التواصل الاجتماعي صورة مفبركة زُعم أنها تُظهر رجالًا يسيرون حاملين أعلامًا ومشاعل، في الاحتجاجات الدموية التي اندلعت الشهر الماضي احتجاجًا على المزايا المجزية لكبار المسؤولين في الجزء الخاضع لإدارة باكستان من كشمير.

 

خلص تحليل أجرته وكالة فرنس برس إلى أن الصورة مُعدّة باستخدام نموذج جيميني للذكاء الاصطناعي من جوجل، إلا أن جيميني وبرنامج كوبيلوت من مايكروسوفت صنفا الصورة المفبركة على أنها صورة حقيقية للاحتجاج.

         

قالت روسين فالورينا، من مركز سيغلا للأبحاث غير الربحي، لوكالة فرنس برس: «ينبع هذا العجز عن تحديد صور الذكاء الاصطناعي أساسًا من حقيقة أن نماذج الذكاء الاصطناعي مُبرمجة فقط للمحاكاة الجيدة. بمعنى أنه لا يمكنها سوى توليد أشياء تُشبه الواقع. لا يمكنها التأكد ما إذا كان التشابه مُميزًا بالفعل عن الواقع».

 

 

اختبر مركز تاو للصحافة الرقمية بجامعة كولومبيا في وقت سابق من هذا العام قدرة سبعة روبوتات دردشة تعمل بالذكاء الاصطناعي، بما في ذلك شات جي بي تي وبربليكستي وغروك وجيميني، على التحقق من صحة عشر صور التقطها مصورون صحفيون لأحداث إخبارية، وأفادت الدراسة أن جميع النماذج السبعة فشلت في تحديد مصدر الصور على نحو صحيح.

 

 

 

 

حالة صدمة

 

تتبعت وكالة فرانس برس مصدر صورة "كو" التي حصدت أكثر من مليون مشاهدة على منصات التواصل الاجتماعي، وتبين أنه مطور ويب في منتصف العمر من الفلبين، قال إنه أنشأها "للتسلية" باستخدام نانو بانانا، مُولّد الصور بالذكاء الاصطناعي من جيميني.

 

قال لوكالة فرانس برس، طالبًا عدم الكشف عن هويته لتجنب أي رد فعل سلبي: «للأسف، صدقها الكثيرون. عدّلت منشوري وأضفت عبارة "مُولّد بالذكاء الاصطناعي" لوقف انتشاره، لأنني صُدمت من عدد المشاركات التي حظي به».

 

تُظهر مثل هذه الحالات كيف أن الصور المُولّدة بالذكاء الاصطناعي، التي تغمر منصات التواصل الاجتماعي، يمكن أن تبدو متطابقة تقريبًا مع الصور الحقيقية.

 

أثار هذا التوجه المخاوف، إذ تُظهر الاستطلاعات أن مستخدمي الإنترنت يتحولون بازدياد من محركات البحث التقليدية إلى أدوات الذكاء الاصطناعي لجمع المعلومات والتحقق منها.

 

يأتي هذا التحول في الوقت الذي أعلنت فيه ميتا في وقت سابق من هذا العام أنها ستنهي برنامجها للتحقق من الحقائق من جهات خارجية في الولايات المتحدة، مُسلّمةً مهمة دحض الأكاذيب إلى المستخدمين العاديين بموجب نموذج يُعرف باسم "ملاحظات المجتمع".

 

طالما كان التدقيق البشري للحقائق نقطة خلاف في المجتمعات شديدة الاستقطاب، حيث يتهم المدافعون المحافظون مدققي الحقائق المحترفين بالتحيز الليبرالي، وهي تهمة ينكرونها.

 

تعمل وكالة فرانس برس حاليًا بـ 26 لغة مع برنامج ميتا لتدقيق الحقائق، بما في ذلك في آسيا وأمريكا اللاتينية والاتحاد الأوروبي.

 

يقول الباحثون إن نماذج الذكاء الاصطناعي يمكن أن تكون مفيدة لمدققي الحقائق المحترفين، إذ تساعد في تحديد المواقع الجغرافية للصور بسرعة ورصد الأدلة البصرية للتحقق من صحتها. لكنهم يحذّرون من أنها لا يمكن أن تحل محل عمل مدققي الحقائق البشريين المدربين.

 

قالت فالورينا: «لا يمكننا الاعتماد على أدوات الذكاء الاصطناعي لمكافحة الذكاء الاصطناعي على المدى الطويل».

 

         

 



المصادر:


الكاتب

محمد الشرقاوي

محمد الشرقاوي
ترجمة

محمد الشرقاوي

محمد الشرقاوي
مراجعة

باسل حميدي

باسل حميدي
تدقيق

وسام صايفي

وسام صايفي



مقالات مختارة

إقرأ المزيد

لا يوجد مقالات مرتبطة