رجال شرطة نيويورك يلقون القبض بعنف على الرئيس السابق دونالد ترامب، والرئيس الروسي فلاديمير بوتين يظهر خلف قضبان زنزانة مظلمة مرتديًا ملابس السجن الرمادية!

غزت هذه الصور المثيرة للجدل تويتر وغيرها من المنصات في الأيام الأخيرة، على خلفية الأخبار التي تفيد بأن ترامب قد يواجه محاكمة جنائية، في حين أصدرت المحكمة الجنائية الدولية مذكرة اعتقال بحق بوتين.

في الواقع فإن هذه الصور لا تمت للحقيقة بأي صلة. إذ أُنتجت -وعشرات غيرها من الصور المنتشرة على الإنترنت- باستخدام مولدات صور متطورة مُتاحة على نطاق واسع، مدعومة بالذكاء الاصطناعي.

يحذر الخبراء من أن هذه الصور تنذر بواقع جديد: طوفان من الصور والمقاطع المصورة الزائفة سيغمر مواقع التواصل مرتبطًا بالأحداث الرئيسية، ما يسبب حالة التباس بين الحقيقة والخيال.

يقول جيفين ويست، الأستاذ في جامعة واشنطن في سياتل: «هذا سيؤدي إلى فقد الثقة في النظام، وفيما نحصل عليه من معلومات».

مع أن القدرة على التلاعب بالصور وإنشاء صور زائفة ليست بالأمر الجديد، فإن مولدات الصور الحديثة وغيرها من الوسائل جعلت الأمر أسهل. إذ يمكن -سريعًا وبوفرة- إنشاء صور واقعية بواسطة الذكاء الاصطناعي، تتضمن الخلفيات التفصيلية، وبتعليمات بسيطة من المستخدم.

صدر نموذج جديد خاص بشركة «ميدجورني»، إذ أصبح بالإمكان إنتاج صور مقنعة تحاكي أسلوب صور وكالات الأنباء.

في منشور واسع الانتشار على تويتر، استخدم إليوت هيجينز، مؤسس «بيلينجكات»، مجموعة تحقيق صحفية مقرها هولندا، الإصدار الأحدث من التقنية لإنشاء الصور المثيرة للجدل لاعتقال ترامب الخيالي.

تُظهر الصور -التي انتشرت وأُعجب بها الآلاف- مجموعة من ضباط الشرطة بزيهم الرسمي يمسكون بالملياردير الجمهوري ويجرّونه بعنف. أكد هيجينز، الذي كان أيضًا وراء نشر صور اعتقال بوتين، أنه نشر الصور بحُسن نية، إذ يذكر منشور تويتر الخاص به بوضوح أن هذه الصور أُنشئت بواسطة الذكاء الاصطناعي.

مع ذلك، كانت الصور كافية ليحظره خادم «ميدجورني»، وفقًا لما ذكره هيغينز، لم يردّ مختبر البحث والتطوير بسان فرانسيسكو على الرسائل البريدية التي تطلب التعليق.

قال هيغينز: «تُبرز الصور قدرة ميدجورني على تقديم مشاهد واقعية». لكنه أشار إلى أن الصور بمزيد من التدقيق تُظهر عيوبًا واضحة، ففي إحدى الصور، يرتدي ترامب حزامًا خاصًا بالشرطة، وفي صورة أخرى تظهر الوجوه والأيدي مشوهةً بوضوح.

وفقًا لشيرين أنلين، متخصصة في تكنولوجيا الإعلام في «ويتنس»، وهي منظمة لحقوق الإنسان مقرها نيويورك، لا يكفي أن يذكر المستخدمون في منشوراتهم أن الصور مُنشأة بواسطة الذكاء الاصطناعي، وأنها للترفيه فقط مثلما فعل هيغينز.

إذ إن في أغلب الأحيان يعيد آخرون مشاركة الصور بسرعة دون ذكر أنها زائفة، وبالفعل حصد منشور لصورة ترامب على إنستغرام أكثر من 79 ألف إعجاب على اعتبار أن الصور حقيقية! قالت أنلين: «أنت ترى الصورة فقط. فور أن ترى شيئًا كهذا، يخرج الأمر عن السيطرة».

في مثال آخر حديث، تبادل مستخدمو وسائل التواصل الاجتماعي صورة زائفة تُظهر بوتين راكعًا، يقبّل يد الزعيم الصيني شي جين بينغ. انتشرت الصورة بالتزامن مع استقبال الرئيس الروسي نظيره الصيني في الكرملين، بوصفها صورةً ساخرة.

ليس من الواضح من أنشأ الصورة أو الأداة المُستخدمة لذلك، لكن كان من الواضح أنها زائفة، إذ ظهرت بعض تفاصيل الصورة مشوهة بشكل طفيف، ولم تتطابق محتويات الغرفة مع غرفة الاجتماعات في الصور الحقيقية.

وفقًا للخبراء، فمع تزايد صعوبة التمييز بين الصور الزائفة الحقيقية، فإن الطريقة المُثلى لمكافحة مثل هذه الشائعات هي زيادة الوعي العام والتثقيف. قال ويست: «أصبح من السهل صنع مثل هذه الصور، إذن لا بد من التوعية بشأن قدرات هذه التكنولوجيا».

يقترح هيغينز أن تركز شركات وسائل التواصل الاجتماعي على تطوير تكنولوجيا للكشف عن الصور الزائفة المُنشأة بواسطة الذكاء الاصطناعي، ودمجها في منصاتها.

تحظر سياسة تويتر «الوسائط الزائفة أو المعدلة بالذكاء الاصطناعي أو خارج السياق»، التي قد تسبب تضليلًا أو ضررًا. وقد أُرفقت تعليقات مشروع تدقيق الحقائق الجماعي على تويتر -المُعتمد على مساهمات المستخدمين- ببعض التغريدات لتوضيح أن صور ترامب مُنشأة بواسطة الذكاء الاصطناعي.

عند الاتصال بالشركة للحصول على تعليق، أرسلت الشركة ردًا آليًا فقط. وامتنعت ميتا، الشركة الأم لفيسبوك وإنستغرام، عن التعليق. وقد وُضعت علامات على بعض صور ترامب الزائفة بوصفها «كاذبة» أو «خارج السياق»، بواسطة برنامج تدقيق الحقائق، الذي تشارك فيه وكالة أسوشيتد برس.

آرثر هولاند ميشيل، زميل مجلس كارنيجي للأخلاق والشؤون الدولية في نيويورك، الذي يركز على التقنيات الناشئة، أعرب عن قلقه بشأن عدم استعداد العالم لهذه الظاهرة، وطرح تساؤلًا عن إمكانية وجود سياسات لمنع انتشار الفيديوهات الزائفة التي تتضمن أشخاصًا عاديين، مثل إنشاء صور زائفة بغرض التشهير بشريك سابق أو زميل عمل.

قال ميشيل: «من منظور سياسي، لست متيقنًا من أننا مستعدون للتعامل مع هذا النوع الخطير من التضليل على مستويات المجتمع كافة. يتطلب الأمر اختراقًا تقنيًا هائلًا للتعامل مع المشكلة».

اقرأ أيضًا:

خبراء يحذرون من الاحتيال بواسطة تقنية استنساخ الصوت المدعومة بالذكاء الاصطناعي

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي لما تمثله من خطر كبير على المجتمع!

ترجمة: حمداش رانية

تدقيق: أكرم محيي الدين

المصدر