هل يمكن أن نصبح شمبانزي القرن الواحد والعشرين ؟

في مقابلة برنامج نهاية العالم : الذكاء الاصطناعي قد يرجعنا إلى العصر الحجري . على الأرجح، وجودنا ككائنات حية هو أمر محدود. سواء كانت نهاية الجنس البشري نتيجة لاصطدام مدمر بكويكب ما، أو وباء طبيعي، أو حرب نووية شاملة، فنحن نواجه عددًا من المخاطر المتعلقة بمستقبلنا، تتراوح بين البعيد جدًا والمحتوم.

كوارث عالمية كهذه ستكون حتمًا مدمرة لجنسنا، حتى لو طمست الحرب النووية 99% من الجنس البشري، عمليًا، يستطيع الناجون الـ 1% الشفاء، أو حتى الازدهار على مر السنين، دون أي ضرر دائم لإمكانيات جنسنا البشري.

ولكن مع ذلك، هنالك بعض الأحداث التي لا يمكن النجاة منها، وهي أنه ليس هناك احتمال للترميم، ولا شفاء للجنس البشري. تُعرف هذه الأحداث الكارثية بالمخاطر الوجودية، وبكلمات أخرى، هي ظروف تؤدي لانقراض البشر أو تقلل بشكل جذري إمكانياتنا كفصيلة.

هل يهدد الذكاء الاصطناعي الجنس البشري

هل يهدد الذكاء الاصطناعي الجنس البشري

تشكل هذه المخاطر الوجودية الأساس لبرنامج (نهاية العالم مع جوش كلارك – The End of The World with Josh Clark) ذي العشرة أجزاء، يمكن أن تكون عرفت (جوش كلارك) مسبقًا كمضيف لبرنامج (أشياء يجب أن تعرفها – Stuff You Should Know) (البرنامج الذي حاز مؤخرًا على لقب أول برنامج ينزّل مليار مرة).

في البرنامج الجديد، يناقش كلارك الطرق المختلفة التي يمكن أن تضع نهاية مفاجئة للعالم الذي نعرفه اليوم، بما فيها سيطرة ذكاء اصطناعي خارق على العالم.

تحدث كلارك خلال بحثه في المخاطر الوجودية لخبراء في مجال المخاطر الوجودية والذكاء الاصطناعي، منهم الفيلسوف السويدي ومؤسس معهد مستقبل الإنسانية (Future of Humanity Institute)، نيك بوستروم (Nick Bostrom)، والفيلسوف شريك مؤسس إنسانية+ (Humanity+) دافيد بيرس (David Pearce)، و فيلسوف جامعة أوكسفورد سيباستيان فاركوهار (Sebastian Farquhar).

سُئل كلارك في مقابلته مع موقع techradar.com عن برنامجه الجديد، ولماذا يعتقد هو وخبراء المخاطر الوجودية، بأن تقدم البشر في تقنية الذكاء الاصطناعي قد يؤدي في النهاية إلى دمارنا.

ما هو الخطر الوجودي؟

قد يقول البعض بوجود مخاطر شنيعة تواجه الإنسانية حاليًا، تغير المناخ الذي سببه الإنسان مثال جوهري على ذلك، وإذا استمرّ تجاهله قد يصبح «مروعًا للبشرية»، وقال كلارك للموقع: «قد يرسلنا للعصر الحجري أو ما قبله».

مع ذلك، لا يعتبر تغير المناخ خطرًا وجوديًّا، وشرح كلارك: «يمكننا نظريًّا، على مر عشرات آلاف السنين، إعادة بناء الإنسانية، وعلى الأرجح بسرعة أكبر من المرة الأولى، لأننا نملك بعض أو كل المعرفة المتراكمة التي لم تكن لدينا أول مرة بنينا فيها الحضارة».

ففي حالة الخطر الوجودي، هذا ليس ممكنًا، كما وضح كلارك: «لا يوجد فرصة أخرى، انتهى أمر الجنس البشري». الفيلسوف نيك بوستروم هو أول من طرح فكرة أخذ الخطر الوجودي على محمل الجد، مقال علمي نشر في مجلة التطور والتقنية (Journal of Evolution and Technology)، عرّف الخطر الوجودي بأنه: «خطر ذو نتيجة وخيمة تبيد الحياة الذكية على الأرض أو تبتر إمكانياتها بشكل جذري ودائم».

يشرح كلارك، بأنّه في هذا السيناريو: «حتى لو تمكنّا من الاستمرار كصنف، فلن نتمكن أبدًا من العودة إلى درجة تطور الجنس البشري في تلك الحقبة من الزمن». بينما يمكن أن نشعر بالمبالغة جراء دراسة الطرق التي يمكن أن تؤدي إلى زوالنا، تبدو هذه الدراسة سهلة المنال عندما ننظر لها بعدسة كلارك “نهاية العالم”.

وعندما سئل كلارك لماذا اختار موضوعًا شائكًا كهذا، أجاب: «فكرة أنّه من الممكن أن نمحو أنفسنا عن غير قصد هي فكرة في غاية الجاذبية». وربما تكون أكثر المخاطر الوجودية المحتملة جاذبية، والتي تواجهنا اليوم، هو الخطر الناتج عن ذكاء اصطناعي خارق يسيطر على العالم.

روبوت Anki، ذو مقدرة على التعلّم بواسطة الذكاء الاصطناعي

روبوت Anki، ذو مقدرة على التعلّم بواسطة الذكاء الاصطناعي

أساسيّات الذكاء الاصطناعي

في السنوات الأخيرة، تمتع الجنس البشري بازدهار تقني، مع قدوم السفر إلى الفضاء، وولادة الإنترنت، وقفزات ضخمة في مجال الحوسبة، غيّرت طريقة عيشنا على نحو لا يمكن قياسه. ومع زيادة تقدم التقنية أكثر، أقبل نوع جديد من المخاطر الوجودية إلى المقدمة وهو الذكاء الاصطناعي الخارق.

شرح كيفية عمل الذكاء الاصطناعي هو أول خطوة لفهم (كيف يمكن له أن يشكل خطرًا وجوديًا على الجنس البشري)، في حلقة (الذكاء الاصطناعي) للبرنامج، بدأ كلارك بإعطاء مثال لآلة بُرمجت لفرز الكرات الحمراء عن الخضراء.

التقنية التي تقف خلف آلة بهذه البساطة أكثر تعقيدًا ممّا تتصور، فإذا بُرمجت بشكل صحيح، تستطيع الآلة التفوق في فرز الكرات الحمراء عن الخضراء، مثلما يتفوق DeepBlue في مجال الشطرنج. ورغم إثارتها لإعجابنا، إلا أن هذه الآلات تستطيع القيام بأمر واحد فقط.

يشرح كلارك: «لم يكن يومًا الهدف من الذكاء الاصطناعي بناء آلات تستطيع هزم الإنسان في الشطرنج، بل لبناء آلات ذات ذكاء عام، مثل ذكاء الإنسان». وأضاف أيضًا: «لكي تكون جيدًا في الشطرنج وفقط في الشطرنج هو أن تكون آلة، أما أن تكون جيدًا في الشطرنج، وجيدًا في حساب الضرائب، وجيدًا في تكلّم الإسبانية، ووجيدًا في انتقاء وصفات فطيرة التفاح، هنا تبدأ بالاقتراب من ركوب سفينة الإنسان».

هذه هي المشكلة الرئيسيّة التي واجهها أوائل باحثي الذكاء الاصطناعي وهي كيف يمكن تعليم تجربة الإنسان ككل للآلة؟ تكمن الإجابة في الشبكة العصبونيّة، (neural networks).

ايبو (Aibo) من سوني، يتعلم مثل كلب حقيقي بفضل الذكاء الاصطناعي

ايبو (Aibo) من سوني، يتعلم مثل كلب حقيقي بفضل الذكاء الاصطناعي

التقدّم في مجال الذكاء الاصطناعي

صنع الذكاء الاصطناعي الأول آلات تفوقت في شيء واحد فقط، لكنَّ التطوير الأخير للشبكات العصبونية سمح لهذه التقنية بالازدهار. بحلول عام 2006، أصبح الإنترنت قوة هائلة لتطوير الشبكات العصبونية، بفضل مستودعات Google الضخمة للصور وفيديوهات يوتيوب.

هذا الانفجار الأخير في طريقة الوصول للبيانات سمح للشبكات العصبونية بالإقلاع الكامل، ما يعني أنّ آلات الذكاء الاصطناعي في هذه الأيام لم تعد بحاجة لنا للإشراف على تدريبها، إذ تستطيع تدريب نفسها بواسطة دمج وتحليل البيانات الجديدة.

يبدو هذا جيدًا أليس كذلك؟ نعم، ولكن بالرّغم من أنّ أداء الذكاء الاصطناعي تحسّن كثيرًا بفضل الشبكات العصبونية، تكمن الخطورة في عدم فهمنا الكلي لكيفية عملها، شرح كلارك: «لا نستطيع النظر داخل عملية تفكير ذكائنا الاصطناعي»، الأمر الذي قد يؤدي لتوتر مستعملي تقنية الذكاء الاصطناعي.

وصفت (technologyreview.com) في مقالٍ لها سنة 2017، الشبكة العصبونية كنوع من (الصناديق السوداء) بعبارة أخرى، تدخل البيانات، ويخرج تصرف الآلة، ولا نعرف الكثير عن العمليات الجارية في المنتصف.

من ناحية أخرى، إذا كان استعمال الشبكات العصبونية يعني أنّ الذكاء الاصطناعي يمكنه بسهولة تحسين ذاته بنفسه، وبأن يصبح أذكى دون الحاجة لنا، فما الذي يمنعه من تجاوزنا؟

كما يقول كلارك: «بما أنّ الذكاء الاصطناعي يستطيع تحسين نفسه، يمكنه تعلم البرمجة، وبها يزرع بذور شجرة الذكاء الاصطناعي الخارق»، ويُعد هذا، وفقًا لأمثال نيك بوستروم، سببًا لخلق خطر وجودي للجنس البشري.

في مقاله عن المخاطر الوجودية في مجلة التطور والتقنية (Journal of Evolution and Technology)، يقول بوستروم: «عندما نخلق أول كيان خارق الذكاء، من الممكن أن نُخطئ بإعطائه الأهداف التي قد تقود إلى إبادة البشرية، افتراضًا بأن أفضليته الذكائية الهائلة تمكنّه من ذلك».

روبوتات Nao ذات الذكاء الاصطناعي، أكثر من 10،000 وحدة بيعت حول العالم

روبوتات Nao ذات الذكاء الاصطناعي، أكثر من 10،000 وحدة بيعت حول العالم

ما هي المخاطر التي يخلقها الذكاء الاصطناعي الخارق؟

«دعنا نعرّف آلة ما فائقة الذكاء كآلة يمكنها تجاوز كل الأنشطة الذهنية لأي إنسان، مهما كان ذكيًّا، وبما أنّ تصميم الآلات واحد من هذه الأنشطة، فيمكن لآلة فائقة الذكاء تصميم آلات أفضل، سيكون هذا انفجارًا ذكائيًا، وسيترك ذكاء الإنسان في الخلف بعيدًا».

هذا اقتباس من عالم الرياضيات البريطاني I. J. Good، استعمله كلارك خلال البرنامج كطريقة لشرح كيف يمكن للذكاء الاصطناعي الخارق أن يولد. إذ يعطي مثالًا لآلة ذات ذكاء آخذ بالزيادة ولديها القدرة على البرمجة، حينها سيكون لديها إمكانيات كتابة إصدارات أفضل من إصدارها الحالي، مع نسبة تحسين تزداد أضعافًا مضاعفة كلّما أصبحت أفضل في فعل ذلك.

ويوضح كلارك: «في النهاية سنملك ذكاءً صناعيًا قادرًا على كتابة خوارزمية تتفوق على قدرة أي إنسان في فعل ذلك، في تلك اللحظة سندخل ما سمّاه Good (الانفجار الذكائي)، وعندها، سنصبح كالخبز المحمص».

الإحسان هو ميزة بشريّة

إذن لماذا يعتبر ذلك خطرًا وجوديًا؟ يطلب كلارك منا تخيل: «آلة ذكاء اصطناعي صنعناها وأصبحت خارقة الذكاء خارج نطاق سيطرتنا». أضاف كلارك: «لو لم نبرمج مسبقًا ما يسّميه منظرو الذكاء الاصطناعي (لطافة) في الذكاء الاصطناعي، لم يكن لدينا أي سبب للاعتقاد بأنه سيعمل لصالح اهتماماتنا».

في هذه الأثناء، يُستخدم الذكاء الاصطناعي لاقتراح أفلام على نيتفليكس، تحضير نشرة شبكاتنا الاجتماعية، وترجمة كلامنا بواسطة تطبيقات مثل ترجمة جوجل.

تصوّر أنّ تطبيق ترجمة جوجل أصبح ذكيًّا بفضل المقدرة على التحسين الذاتي الذي توفره الشبكات العصبونية، يقول كلارك: «في الحقيقة لا يوجد خطر كامن في مترجم يصبح خارق الذكاء، لأنّه سيصبح عظيمًا حقًا في ما يفعله، لكن سيأتي الخطر إذا قرر أنه يحتاج إلى أشياء نحن بحاجتها لأهدافه الخاصة».

ربّما يقرر المترجم خارق الذكاء بأنه لتحسين نفسه، عليه احتلال مساحة أكبر في شبكة الاتصال، أو تدمير الغابات المطيرة لبناء المزيد من الخوادم (servers).

يوضح كلارك: عند إنتاج هذا البرنامج، درست أبحاثًا كبحث بوستروم، الذي يعتقد بأنه في حال حصول ذلك «سندخل في صراع موارد مع أذكى كائن في الكون، ومن المرجح أننا سنخسر»، وجهة نظر ترددت من أمثال ستيفن هوكينج والباحث إيريك هورفتز (Eric Horvitz) من مايكروسوفت.

قدّم بوستروم في المقال المذكور سابقًا مخططًا افتراضيًا يمكن فيه للذكاء الاصطناعي أن يشكل خطرًا وجوديًا: «نطلب من الذكاء الاصطناعي أن يحل مسألة رياضية، فيمتثل لذلك بتحويل كل شيء في المجموعة الشمسية إلى جهاز حساب عملاق، قاتلًا الشخص الذي سأله السؤال خلال ذلك».

طفلة تقابل روبوت في أوساكا، اليابان

طفلة تقابل روبوت في أوساكا، اليابان

إذن، المشكلة ليست بكون الذكاء الاصطناعي الخارق شريرًا أصلًا، بالطبع لا يوجد مفهوم كالخير والشر في عالم تعلم الآلة، المشكلة هي أنّ الذكاء الاصطناعي قد يستمر بتحسين نفسه لكي يصبح أفضل في ما بُرمج له، ولن يكترث فيما إذا كان البشر غير سعداء بأساليبه في تحسين النجاعة أو الدقة في ما يقوم به.

وفقًا لكلارك، يأتي الخطر الوجودي من «فشلنا في برمجة “اللطافة” في الذكاء الاصطناعي ما يمكّنه من أن يصبح خارق الذكاء».

الحلول لمشكلة الذكاء الاصطناعي

إذن ماذا يمكن أن نفعل؟ يعترف كلارك بأنّه «تحدٍ كبير»، والخطوة الأولى هي «أن نجعل الباحثين يعترفون بأن هذه مشكلة حقيقية فعلًا»، شارحًا أن الكثيرين يظنون أن الذكاء العام بعيد جدًا عن هذا الطريق لدرجة أنه لا يستحق أن نخطط له كتهديد.

الخطوة الثانية، «علينا معرفة كيفية برمجة اللطافة في الذكاء الاصطناعي»، وهو تعهد صعب جدًا لباحثي الذكاء الاصطناعي حاليًا وفي المستقبل. واحدة من المشاكل التي قد تنشأ من تعليم الذكاء الاصطناعي الأخلاق والقيم، هي تقرير أخلاق وقيم من يجب علينا تعليمه، فهي بالطبع ليست عالمية.

حتى لو تمكنا من الاتفاق على مجموعة عالمية من القيم لتعليمها للذكاء الاصطناعي، كيف يمكننا شرح الأخلاق للآلة؟ يعتقد كلارك أن البشر بشكل عام «لديهم ميل لعدم نشر غايتهم بوضوح».

لماذا يجب علينا الاهتمام بالتخطيط للخطر الوجودي؟

قال Good: إذا كان الذكاء الاصطناعي الخارق يشكل خطرًا وجوديًا ضخمًا، فلماذا لا نوقف أبحاث الذكاء الاصطناعي من أساسها كليًا؟ حسنًا ولكن، بقدر ما يمكنه تمثيل نهاية الجنس البشري، فيمكنه أن يكون (آخر اختراع نحتاجه).

أضاف كلارك: «نتواجد في نقطة تاريخية، إذ يمكننا خلق أعظم اختراع صنعه الجنس البشري على مر العصور، ألا وهو الذكاء الاصطناعي الخارق الذي يمكنه الاعتناء بجميع حوائج البشر إلى الأبد».

«يذهب التفرع الآخر في الطريق باتجاه اختراع ذكاء اصطناعي خارق يمكنه السيطرة على العالم عن غير قصد، ونصبح نحن شمبانزي القرن الـ 21».

هنالك الكثير ممّا لا نعلمه عن الطريق الذي سيسلكه الذكاء الاصطناعي، لكن كلارك جعل شيئًا واحدًا واضحًا: «علينا حتمًا أن نبدأ بأخذ الخطر الوجودي الذي يشكله على محمل الجد، وإلّا قد نرسل البشرية بعيدًا عن تحقيق إمكانياتها الحقيقية إلى الأبد».

اقرأ أيضًا:

ترجمة: محمد دهامشة
تدقيق: سلام طالب

المصدر