في محاضرةٍ ألقاها بجامعة كامبرج هذا الأسبوع، أطلق ستيفن هوكينج تصريحات جريئة بخصوص خلق الذكاء الاصطناعي، حيث قال أنَّه سيكون “إمَّا أفضل، أو أسوأ شيء يحصل للبشريَّة على الإطلاق”.

وكانت المحاضرة بمناسبة الاحتفال بافتتاح مركز ليفرهولمي الجديد لمستقبل الذكاء، حيث سيحاول أفضل الأدمغة في العلم الإجابة عن أسئلة بخصوص مستقبل الروبوتات والذكاء الاصطناعي ــ وهو الشيء الذي يقول عنه هوكينغ أنه يجدر بنا القيام به بشكل أكبر.

ونقتبس من كلامه في المحاضرة: “ننفق الكثير من الوقت في دراسة التاريخ، ولنواجه الأمر، إنه في معظمه تاريخٌ من الغباء”.

لكن رغم كل الوقت الذي ننفقه في النظر إلى الأخطاء السابقة، نستمر في القيام بنفس الأخطاء مرارًا وتكرارًا.

يشرح هوكينج وجهة نظره: “إذن لهوَ تغييرٌ مرحّبٌ به أن يقوم الناس بدراسة مستقبل الذكاء بدل ذلك”.

وليست هذه المرة الأولى التي يكون فيها هوكينج قلقًا من الذكاء الاصطناعي.

حيث شارك في السنة الماضية إيلون ماسك (Elon Musk) والمئات من الخبراء الآخرين في كتابة رسالة مفتوحة إلى الحكومات من أجل منع الأسلحة المستقلة التي قد تنقلب ضد البشر يومًا ما بحسبهم.

كما قال هوكينج مسبقًا أنَّ “تطوير ذكاءٍ اصطناعي مطلق قد يعني نهاية العرق البشري”.

أمَّا في المحاضرة الأخيرة، فقد اعترف أنَّه لا يزال قلقًا حيال “الأسلحة المستقلة القوية” و “طرق جديدة للقلة من أجل قمع الكثرة” وهي أمور تأتي مع الذكاء الاصطناعي.

لكنه قال أننا لو فكّرنا حول هذه القضايا وقمنا بطرحها الآن، قد يكون لهذه التكنولوجيا إمكانية إحداث الخير.

حيث يصرّح: “لا يمكن أن نتوقع ما الذي سيكون بإمكاننا تحقيقه عندما تتوسَّع عقولنا بواسطة الذكاء الاصطناعي”.

يُضيف في موضعٍ آخر: “ربما باستعمال أدوات هذه التكنولوجيا الثوريَّة، سيكون بإمكاننا إلغاء بعضٍ من الضرر الذي أصاب العالم الطبيعي بسبب الصناعة.

وسنطمح دون شك للقضاء أخيرًا على المرض والفقر”.

مركز ليفرهولمي لمستقبل الذكاء بجامعة كامبرج، حيث يعمل هوكينج كبروفيسور أيضًا، استقبل أكثر من 12 مليون دولار من أجل القيام بمشروع بحثٍ لتعزيز الإمكانيَّات المستقبليَّة للذكاء الاصطناعي، مع العناية بالمخاطر بحذر.

وقد استلهمت فكرة المركز بشكل جزئي من مركز الجامعة للخطر الوجودي، والذي يمنح دورات تعليميَّة بعناوين مثل “دراسات المنهي – The Terminator”، من أجل فحص المشاكل المستقبليَّة المرتقبة للبشريَّة.

وبينما يركّز ذلك المركز على مجموعة من المخاطر ــ مثل التغييرات المناخيَّة والحرب ــ سينظر مركز ليفرهولمي الجديد بشكل خاص إلى المشاكل التي قد تظهر مع الآلات التي باستطاعتها التفكير والتعلّم مثل البشر.

حيث يقول في هذا الشأن مدير مركز ليفرهولمي هوو برايس (Huw Price): “ذكاء الآلات سيكون من أكثر المواضيع طرحًا في قرننا، وتحدّيات ضمان الاستعمال الحسن لهذه الفرص سنكون جميعنا في مواجهتها.

وفي الوقت الرَّاهن، لقد بدأنا للتو باعتبار تداعياتها، جيَّدة كانت أم سيّئة”.

مع تطوير غوغل – Google حاليّا لذكاءٍ اصطناعي بإمكانه التعلّم من ذاكرته الخاصة؛ نجد إيلون ماسك قلقًا على البشر أن يتحولوا إلى “حيوانات منزليّة أليفة” للذكاء الاصطناعي في المستقبل؛ كما باتت أنظمة الحاسوب الآن تنافس صاحب الأربع سنوات في اختبارات الذكاء، يجدر بنا التفكير حيال الأمر اليوم قبل غدٍ.

وكما يقول هوكينج، قد ينتهي الأمر بأن يكون “مصيريًّا لمستقبل حضارتنا وأنواعنا”.


  • إعداد: وليد سايس
  • تدقيق: جعفر الجزيري
  • تحرير : رغدة عاصي
  • المصدر