يخشى كثير من الناس لعقود طويلة من فكرة إطاحة الذكاء الاصطناعي بالبشرية، وقد جددت برامج مثل شات جي بي تي هذه المخاوف. إذن، ما مدى احتمالية أن نكون قادرين على التحكم في الذكاء الاصطناعي الفائق المُعتمِد على الحواسيب عالية المستوى؟ درس العلماء في عام 2021 حساباتهم الدقيقة، والإجابة هي أننا تقريبًا لن نقدر على ذلك بتاتًا.

المهم أن التحكم في ذكاء فائق يتفوق كثيرًا على الإدراك البشري، وسيتطلب محاكاة لهذا الذكاء الاصطناعي نكون قادرين على تحليلها، لكن إن كنا عاجزين عن فهم محاكاة مماثلة، سيكون من المستحيل تصميمها من الأساس.

أشار مؤلف البحث إلى أنه لا يمكن وضع قواعد مثل «لا تؤذي البشر» إذا لم نفهم نوع السيناريوهات التي سيأتي بها الذكاء الاصطناعي. وفور تصميم نظام حاسوبي بقدرات تفوق قدرات رصد المبرمجين، سنفقد القدرة على وضع حد لذلك.

كتب الباحثون في عام 2021 أن الذكاء الفائق يطرح مشكلة مختلفة جوهريًا عن تلك التي تدرّس عادةً تحت شعار «أخلاقيات الروبوت»، وهذا لأن الذكاء الفائق متعدد الأوجه، ومن ثم يحتمل أن يكون قادرًا على حشد موارد متنوعة؛ لتحقيق أهداف قد تكون غير مفهومة للبشر ناهيك عن أنها تحت تحكمهم.

يأتي جزء من استنتاجات الفريق من مسألة التوقف التي طرحها آلان تورنغ في عام 1936، وتتمحور المسألة بشأن معرفة وصول برنامج الكمبيوتر إلى نهاية وظهور نتيجة (لذلك يتوقف)، فيدخل في حلقة لا نهائية للحصول على نتيجة.

أثبت تورنغ بمساعدة بعض الرياضيات الذكية أنه من المستحيل منطقيًا العثور على طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل كتابته في أي وقت، في حين يمكننا معرفة ذلك في بعض البرامج المحددة.

يعيدنا هذا إلى الذكاء الاصطناعي، ففي حالة فائقة الذكاء منه، يكون قادرًا على الاحتفاظ بكل برنامج حاسوب قد يوجد في ذاكرته مرة واحدة.

قد يصل أي برنامج كُتِب لمنع الذكاء الاصطناعي من إلحاق الضرر بالبشر وتدمير العالم مثلًا، إلى نتيجة (ويتوقف) وقد لا يتوقف. ومن المستحيل رياضيًا أن نكون متأكدين تمامًا أي من الحالتين سيحدث، ما يعني أنه غير قابل للاحتواء أو التحكم فيه.

قال عالم الحاسوب إياد رهوان، من معهد ماكس بلانك للتنمية البشرية في ألمانيا: «في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام».

يقول الباحثون إن البديل لتعليم الذكاء الاصطناعي بعض الأخلاقيات، وإخباره بعدم تدمير العالم (وهو أمر لا يمكن لأية خوارزمية أن تكون متأكدة تمامًا من القيام به)، هو الحد من قدرات الذكاء الفائق، فيمكن عزله عن أجزاء من الإنترنت أو عن شبكات معينة مثلًا.

ترفض الدراسة التي أجُريت في عام 2021 هذه الفكرة، وتشير إلى أن هذه الإجراءات ستحد من قدرات الذكاء الاصطناعي، فعندما لا نستعمل الذكاء الاصطناعي لحل مشكلات تفوق القدرات البشرية، إذن لماذا نصنعه من الأساس؟

إذا كنا سنمضي قدمًا في مجال الذكاء الاصطناعي، فقد لا نعرف حتى متى سيكون الذكاء الفائق خارج سيطرتنا، ويُعد هذا أمرًا غير مفهومًا. وهذا يعني أننا بحاجة إلى البدء بطرح بعض الأسئلة الجدية بشأن الاتجاهات التي نسير فيها.

في الواقع، وقع عمالقة التكنولوجيا في وقت سابق هذا العام، بما فيهم أيلون ماسك والمؤسس المشارك لشركة أبل ستيف وزنياك، رسالة مفتوحة تطلب من البشرية التوقف مؤقتًا عن العمل على الذكاء الاصطناعي مدة 6 أشهر على الأقل حتى اكتشاف سلامته.

تقول الرسالة التي كُتبِت بعنوان: أوقفوا تجارب الذكاء الاصطناعي الضخمة: «قد تخلق أنظمة الذكاء الاصطناعي مع ذكاء البشر التنافسي مشكلات للمجتمع والإنسانية».

يجب تطوير أنظمة ذكاء اصطناعي قوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون تحت السيطرة.

اقرأ أيضًا:

كيوس جي بي تي: برنامج ذكاء اصطناعي يسعى لتدمير البشرية، وهو متصل الآن بالإنترنت!

تطوير ذكاء اصطناعي جديد مزود بخلايا من الدماغ البشري

ترجمة: يوسف الشيخ

تدقيق: رغد أبو الراغب

مراجعة: هادية أحمد زكي

المصدر