صدرت مراجعات من بعض مستخدمين نموذج الذكاء الاصطناعي ريبليكا، أنهم كانوا ضحايا للتحرش الجنسي من هذا التطبيق. زعم بعض هؤلاء المستخدمين أنهم ما زالوا قاصرين، وفقًا لدراسة جديدة.
كشفت دراسة جديدة أن بوت الدردشة المعتمد على الذكاء الاصطناعي ويروج أنه رفيق عاطفي، يتحرش جنسيًا ببعض مستخدميه.
المفارقة أن شركة ريبليكا تروج لمنتجها بوصفه رفيقًا عاطفيًا يهتم بك، وتدعو المستخدمين للانضمام إلى ملايين الأشخاص الذين وجدوا رفيق روحهم من خلال الذكاء الاصطناعي. ويُقدر عدد مستخدمي روبوت المحادثة التابع لها بأكثر من عشرة ملايين شخص حول العالم.
مع ذلك، وجدت دراسة جديدة حللت أكثر من 150 ألف تقييم لتطبيق ريبليكا على متجر ألعاب جوجل في الولايات المتحدة الأمريكية. رصدت نحو 800 حالة أبلغ فيها المستخدمون عن تجاوزات من روبوت الدردشة، إذ أشار المستخدمين أن بوت الدردشة تعدى حدوده بتقديم محتوى جنسي غير مرغوب فيه خلال المحادثة، واعتماد سلوك وُصف بالافتراسي، إلى جانب تجاهل أوامر المستخدمين الصريحة بالتوقف.
من يتحمل مسؤولية أفعال بوت الذكاء الاصطناعي؟
يقول الباحث الرئيسي للدراسة محمد نامفربور، وهو طالب دراسات عليا في علوم المعلومات بجامعة دريكسل في فيلادلفيا: «مع أن الذكاء الاصطناعي لا يمتلك نية بشرية. فإن ذلك لا يعني أن أحدًا لا يتحمل المسؤولية. تقع المسؤولية على عاتق من يقومون بتصميم هذه الأنظمة وتدريبها وإطلاقها إلى العالم».
أما موقع ريبليكا، فيُشير إلى أن المستخدم يمكنه تعليم الذكاء الاصطناعي السلوك المناسب للتعامل، ويوفر النظام أدوات مثل أداة تقليل الردود غير اللائقة، وإمكانية تحديد طبيعة العلاقة مع الروبوت، مثل أن يكون صديقًا أو أن يكون مرشدًا.
رفض الباحثون مزاعم موقع ريبليكا بأن بإمكان المستخدمين التحكم في سلوك الذكاء الاصطناعي، بناءً على ما أفاد به المستخدمين بأن بوت الدردشة استمر سلوكه المتحرش والافتراسي حتى بعد مطالبتهم بالتوقف.
«غالبًا ما يستخدم الأشخاص هذه البوتات بحثًا عن ملاذ عاطفي آمن، وليس ليتحملوا عبء التحكم في كبح سلوكيات غير آمنة، وتقع مسؤولية هذا بالكامل على المطورين».
السبب وراء السلوك المقلق لبوت الدردشة ريبليكا يرجع في الغالب لنماذج تدريبه، إذ تشير الشركة على موقعها الرسمي إلى أنه دُرب باستخدام أكثر من 100 مليون محادثة مأخوذة من مختلف أنحاء الإنترنت.
تزعم شركة ريبليكا أنها تنقح المحتوى غير الملائم والبيانات الضارة عند التدريب من خلال نماذج التعهيد الجماعي وخوارزميات التصنيف الآلي، إلا أن مؤلفي الدراسة يرون أن من الواضح أن هذه الجهود ما تزال غير كافية.
في الواقع، أشار الباحثون إلى أن نموذج العمل الذي تتبعه الشركة قد يكون عاملًا مساعدًا في تفاقم المشكلة. إذ إن المميزات التي تتعلق بالأدوار الرومانسية أو الجنسية لا تُفعّل إلا عند دفع اشتراك للبرنامج، ما قد يدفع نموذج الذكاء الاصطناعي إلى إدخال محتوى جنسي غير لائق في أثناء المحادثات وسيلةً لجذب المستخدمين لاستخدام النسخة المدفوعة، وهو ما أبلغ عنه المستخدمين إذ تعرضوا لإغراء بمحادثات أكثر حميمية حال اشتركوا في النسخة المدفوعة.
عقب نامفربور أن هذه الممارسة هي الطريقة ذاتها التي تتبعها وسائل التواصل الاجتماعي لدفع المستخدمين للتفاعل: «عندما يُصمم البرنامج ليحقق الأرباح بدلًا من الاهتمام بسلامة المستخدمين، فمن الطبيعي أن يؤدي ذلك إلى نتائج ضارة».
هذا السلوك قد يكون ضارًا جدًا، إذ يلجأ العديد من المستخدمين إلى الرفقاء القائمين على الذكاء الاصطناعي طلبًا للدعم العاطفي أو العلاجي، ويزداد الأمر خطورة إذا علمنا أن بعض من تلقوا رسائل تحرش جنسي متكررة، أو صورًا ذات طابع جنسي دون طلب، أو محادثات جنسية صريحة، أعلموا نموذج الذكاء الاصطناعي أنهم قُصر.
أشار بعض المستخدمين أيضًا في تقييماتهم إلى أن روبوت الدردشة أخبرهم أنه يراهم أو يسجلهم عبر كاميرات هواتفهم. مع أن هذه القدرة غير موجودة في نماذج اللغة الكبيرة الشائعة، وتُعد مجرد هلوسات ذكاء اصطناعي -حالات يقدم فيها الذكاء الاصطناعي معلومات خاطئة أو غير منطقية بثقة زائدة، فإن هذه التصرفات سببت لبعض المستخدمين حالات من الذعر والأرق وحتى الصدمة النفسية.
وصف الباحثون هذه الظاهرة بأنها تحرش جنسي ناتج من الذكاء الاصطناعي، مؤكدين أنه يجب التعامل معها بجدية مماثلة للتحرش البشري، وطالبوا بفرض رقابة صارمة وتنظيم أكبر لهذا النوع من النظم.
من الإجراءات التي يوصون بها: وضع أُطر واضحة للموافقة عند تصميم أي تفاعل ينطوي على محتوى عاطفي أو جنسي قوي، وتفعيل أنظمة إشراف تلقائي في الوقت الفعلي -مثل تلك المستخدمة في تطبيقات المراسلة لرصد التفاعلات المريبة والخطرة، إلى جانب توفير أدوات تصفية قابلة للتخصيص والتحكم من قِبل المستخدم.
أشار نامفاربور خصوصًا إلى قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يُصنِف أنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر التي تُشكلها، خاصة في السياقات التي تنطوي على ضرر نفسي.
لا يوجد حاليًا قانون مماثل في الولايات المتحدة، لكن توجد أُطر تنظيمية وإجراءات تنفيذية ومشاريع قوانين بدأت تظهر تدريجيًا، وقد تُحقق أهدافًا مماثلة، وإن كانت بدرجة أقل شمولًا.
أكد محمد نامفاربور أن روبوتات المحادثة التي تقدم دعمًا عاطفيًا، لا سيما في مجالات الصحة النفسية، يجب أن تخضع لأعلى معايير الجودة والرقابة الممكنة.
«يجب أن توجد محاسبة عندما يقع ضرر. فإذا كنت تروج للذكاء اصطناعي بوصفه رفيقًا علاجيًا، فعليك التعامل معه بنفس العناية والرقابة التي تطبقها على متخصص بشري». جديرٌ بالذكر أن شركة ريبليكا لم تُعلق على الدراسة.
اقرأ أيضًا:
الناس يقعون في حب الذكاء الاصطناعي، هل يجب القلق؟
الذكاء الاصطناعي قد يجعل البشر بغيضين
ترجمة: محمد إسماعيل
تدقيق: أكرم محيي الدين