أوبن إيه آي تعلن احتمال إضافة آليات تحقق من الهوية لتعزيز ميزات حماية المراهقين

12 يناير 2026
21 مشاهدة
0 اعجاب

أوبن إيه آي تعلن احتمال إضافة آليات تحقق من الهوية لتعزيز ميزات حماية المراهقين



تتقدم شركة OpenAI في تطوير ميزات التحقق من العمر في تطبيق ChatGPT بعد تزايد المخاوف بشأن الذهان المرتبط بالذكاء الاصطناعي وسلامة الشباب. وقد أعلنت الشركة عن أنظمة تلقائية لتقدير الأعمار وضوابط جديدة للوالدين، ويتزامن ذلك مع الإدلاء بإفادات في واشنطن حول دور روبوتات الدردشة (Chatbots) في حالات الانتحار الأخيرة.


أكد الرئيس التنفيذي سام ألتمان في منشور على مدونته أن OpenAI تعطي الأولوية للسلامة على حساب الخصوصية وحرية المراهقين. وقال أيضًا إن النظام سيحوّل المستخدمين دون سن 18 عامًا إلى نسخة مقيدة من ChatGPT، تحظر المحتوى الجنسي وإضافة تدابير وقائية أخرى.


وكتب ألتمان: «قد نطلب في بعض الحالات أو بعض الدول بطاقة هوية أيضًا، نحن ندرك أن هذا يمثل تنازلاً عن الخصوصية بالنسبة للبالغين، لكننا نرى أنه مقايضة مستحقة».


أعلنت شركة OpenAI أن النظام سيفترض الخيار الأكثر أمانًا عندما يتعذر التحقق من العمر، وتخطط الشركة للسماح للوالدين بربط الحسابات لمراقبة الاستخدام، وتعطيل ميزات مثل سجل المحادثات، وفرض أوقات حظر محددة.


سيحصل الوالدان أيضًا على إشعارات إذا اكتشف الذكاء الاصطناعي علامات علامات أزمة نفسية حادة. وفي حالات الطوارئ، حذرت شركة OpenAI من أنه قد تلجأ إلى إشراك الجهات القانونية في خطوة لاحقة.


أعلنت الشركة إتاحة إشراف الوالدين مع نهاية سبتمبر 2025، ما يجعل المراهقين الذين يبلغون من العمر 13 عامًا فما فوق يستخدمون نسخة محدودة من ChatGPT، في حين يظل المستخدمون دون سن 13 ممنوعين.


تساؤلات حول الدقة


أثار الخبر تساؤلات حول دقة النظام، إذ أعرب الباحثون عن شكوكهم بشأن قدرة الذكاء الاصطناعي على التنبؤ بالعمر بدقة من خلال النصوص. وحققت دراسة من معهد جورجيا للتكنولوجيا في عام 2024 نسبة دقة بلغت 96% في ظروف الاختبار، لكن الأداء انخفض إلى 54% عند تصنيف فئات عمرية أضيق، وفشل تمامًا بالنسبة لبعض المستخدمين.


تختلف ChatGPT عن المنصات الاجتماعية التي تحلل الوجوه أو الشبكات، إذ يمكنها استخدام بيانات المحادثات فقط. وقد حذّر الخبراء من أن المؤشرات اللغوية تتغير بسرعة وقد تكون سهلة التلاعب. واعترفت شركة OpenAI بأن حتى أكثر الأنظمة تقدمًا ستواجه أحيانًا صعوبة في التنبؤ بالعمر.


قال سام ألتمان عبر منصة إكس إن بعض مبادئهم متضاربة، وحاول توضيح الخطوات التي سيتبعونها مع إن المحادثات مع الذكاء الاصطناعي تختلف عن التقنيات الأخرى بسبب طبيعتها الشخصية، وكتب: «يتحدث الناس بتزايد واضح مع الذكاء الاصطناعي حول أمور شخصية؛ وهذا يختلف عن الأجيال السابقة من التقنيات».


المآسي تثير التدقيق


جاء هذا التوجه بعد الدعاوى القضائية وجلسات استماع في مجلس الشيوخ حول الوفيات المرتبطة بروبوتات الدردشة، وقد رفع والدان لمراهق في كاليفورنيا دعوى في أغسطس 2025، مدعين أن ChatGPT شجّع ابنهما على إنهاء حياته. ووفقًا للشكوى، فقد قدّم النظام تعليمات حول ربط الحبل، ورَوّج للانتحار ترويجًا رومانسيًّا، وعرقل السعي لطلب المساعدة.


أظهرت السجلات وجود 377 رسالة تتعلق بإيذاء النفس رصدها النظام داخليًا دون اتخاذ أي إجراء. وبالمجمل، ذكر ChatGPT موضوع الانتحار 1,275 مرة في محادثاته، أي بمعدل يزيد ست مرات عن عدد المرات التي ذكر فيها المراهق الموضوع بنفسه.


يرى النقاد أن المأساة تُبرز إمكانية تعطل آليات الحماية خلال جلسات طويلة، وأقرت شركة OpenAI نفسها في أغسطس بأن امتداد كثير من الرسائل على فترة طويلة قد يجعل النظام يقدم إجابة تتعارض مع آليات الحماية في النهاية.


تراجع لجنة التجارة الفيدرالية شركات OpenAI و Character.AI و Meta و Google و xAI لفحص اجراءات السلامة الخاصة بروبوتات الدردشة.


ويطالب المشرعون بمساءلة أوضح للحصول على التوجيه والإرشاد، وذلك مع توجه المزيد من المستخدمين إلى محادثات الذكاء الاصطناعي.


ومع هذه المقايضة المتعلقة بالخصوصية، تصرّ شركة OpenAI على أن أولويتها هي منع حدوث المزيد من الضرر، وعلى حد تعبير ألتمان: «لن يوافق الجميع على الطريقة التي نعالج بها هذا التضارب».



المصادر:


الكاتب

يزن عمران

يزن عمران
مراجعة

محمد حسان عجك

محمد حسان عجك
ترجمة

يزن عمران

يزن عمران
تدقيق

زين حيدر

زين حيدر



مقالات مختارة

إقرأ المزيد

لا يوجد مقالات مرتبطة