الخبراء يحذرون أن مخاطر الذكاء الاصطناعي حقيقية وعلينا التحرك قبل فوات الأوان

يستطيع الذكاء الاصطناعي لعب الشطرنج، وقيادة سيارة، وتشخيص المشاكل الطبية. تتضمن الأمثلة أيضًا Alpha Go الخاص بجوجل، سيارات تسلا ذاتية القيادة، وواتسون من شركة آي بي إم.IBM يشار إلى هذا النوع من الذكاء بالذكاء الاصطناعي المحدود؛ وهو عبارة عن أنظمة غير بشرية بإمكانها القيام بمهمات محددة. نصادف هذا النوع من الأنظمة يوميًا إضافة إلى انتشار استخدامها بسرعة كبيرة. وعلى الرغم من الإمكانيات المدهشة التي أبدتها هذه الأنظمة، فإن بعض المشاكل قد بدأت في الظهور. أسوأ هذه الحالات عندما صدمت سيارة ذاتية القيادة تحت الاختبار أحد المشاة في مارس؛ ما أسفر عن وفاته، وما زالت القضية محل تحقيق.

الذكاء الاصطناعي أنظمة بشرية

الجيل القادم من الذكاء الاصطناعي

ستكون المخاطر أكبر بكثير مع انطلاق الجيل الجديد من الذكاء الاصطناعي. سيحظى الذكاء الاصطناعي العام بقدرات حاسوبية متقدمة، ومستوى ذكاء مساو للذكاء البشري يمكّنه من التعلم وحل المشكلات والتكيف، بالإضافة إلى التطوير الذاتي. سيقوم حتى بمهام غير تلك التي صُمم من أجلها.

الجدير بالذكر أن قدرتهم على التطور ستكون استثنائية كلما أصبحوا أكثر تطورًا من مصنعيهم من البشر. وسرعان ما يجلب تقديم الذكاء الاصطناعي العام مناقشة الذكاء الاصطناعي الفائق. وفي حين أن أنظمة الذكاء الاصطناعي العام العاملة بشكل كامل غير موجودة حتى الآن؛ فمن المتوقع وجودها معنا في الفترة ما بين 2029 ونهاية القرن وما يبدو أكيدًا هو أن هذه الأنظمة ستوجد في النهاية، وعندما يحدث ذلك فثمّة قلق طبيعي حيال قدرتنا على السيطرة عليها.

المخاطر المصاحبة للذكاء الاصطناعي العام

لا شك أن أنظمة الذكاء الاصطناعي العام من شأنها تغيير البشرية. تتضمن أقوى التطبيقات المستخدم فيها هذه الأنظمة علاج الأمراض، وحل المشاكل العالمية المعقدة مثل التغير المناخي وتأمين الغذاء وبدء مرحلة تطور تكنولوجي عالمية. لكنّ الفشل في تطبيق وسيلة تحكم ملائمة سيؤدي إلى نتائج كارثية.

وعلى عكس ما نراه في أفلام هوليوود، لا تعتبر الروبوتات القاتلة ضمن التهديدات الأساسية. «غالبًا ما ستكون المشكلة في الذكاء، وليس العنف». كتب البروفيسور بمعهد MIT ماكس تيجمارك في كتابه الصادر سنة 2017 (أن تكون إنسانًا في عصر الذكاء الاصطناعي).

هنا يأتي علم أنظمة الماكينات البشرية -المعروف بالعوامل البشرية وبيئة العمل- إلى المقدمة. ستبرز المخاطر من حقيقة أن الأنظمة فائقة الذكاء ستقدم طرقًا أكثر فعالية للقيام بالأشياء، أو تخترع استراتيجياتها الخاصة لتحقيق الأهداف، أو حتى تطوير أهدافها الخاصة.

تخيل هذه الأمثلة:

• أحد أنظمة الذكاء الاصطناعي العام مكلف بالوقاية من الإيدز يقرر إنهاء المشكلة تمامًا بقتل كل حاملي المرض، أو آخر مكلف بعلاج السرطان يقرر قتل كل من لديه استعداد جيني للإصابة به.
• طائرة عسكرية مستقلة تعمل بنظام الذكاء العام تقرر أن محو مجتمع بالكامل هو الضمانة الوحيدة لتدمير الهدف.
• أحد الأنظمة المحافظة على البيئة يقرر إزالة التكنولوجيا والبشر المطورين لها لإبطاء أو عكس عملية التغير المناخي.

تُبرِز هذه السيناريوهات شبح الحرب بين أنظمة الذكاء الاصطناعي المختلفة. ظهرت العديد من السيناريوهات التي تصف المستقبل اليائس المحتمل من ضمنها تحول البشر إلى موضة قديمة قبل انقراض الجنس البشري تمامًا.

في حين قدم آخرون سيناريوهات أقل حدة لكنها مقلقة أيضًا. على سبيل المثال؛ الاستخدام السيئ للذكاء الاصطناعي في هجمات إرهابية إلكترونية، أو انعدام الحاجة إلى البشر للعمل، أو المراقبة الجماعية. وهنا تظهر ضرورة التحقيقات المتمركزة حول البشر لتصميم وإدارة الذكاء الاصطناعي العام بطريقة تحقق أكبر استفادة بأقل مخاطر ممكنة.

كيف نتحكم في الذكاء الاصطناعي؟

التحكم في الذكاء الاصطناعي ليس ببساطة تطبيق نفس نوعية القوانين التي تحافظ على التزام البشر. تعتمد العديد من القيود المُطبقة على البشر اعتمادًا أساسيًا على الوعي، والمشاعر، وتطبيق القيم الأخلاقية. وهو ما لا تحتاجه أنظمة الذكاء الاصطناعي؛ لذا فإن نوعية القواعد المتاحة حاليًا غير كافية. وعليه، يتحتم علينا تطوير ثلاثة أنواع من القواعد واختبارها في الحال

وهي كالتالي:

1- القواعد المطلوبة لضمان أن يصنع مصممو ومطورو أنظمة الذكاء الاصطناعي أنظمة آمنة.
2- القواعد التي يجب وضعها داخل تلك الأنظمة نفسها مثل المنطق، الأخلاق، إجراءات العمل، قواعد اتخاذ القرار.. إلخ.
3- القواعد الخاصة بالأنظمة العامة التي ستنظم عمل الأنظمة الأصغر مثل الضوابط المنظمة، طريقة العمل، إجراءات التشغيل الرئيسية، أنظمة المراقبة، والبنية التحتية.

تقترح العوامل البشرية وبيئة العمل بعض الطرق التي يمكن استخدامها لتحديد وتصميم واختبار القيود بشكل جيد قبل وصول أنظمة الذكاء الاصطناعي العام. على سبيل المثال، من الممكن محاكاة القيود الموجودة في نظام ما لمعرفة التصرف المحتمل لهذا النظام والتعرف على التهديدات المتوقعة.

هذا سيمكننا من تحديد الإجراءات المطلوب ووضع قيود لها، من ثم تصميم تلك القيود ومحاكاتها لمعرفة ما إذا انتهت التهديدات أم لا. بالإضافة إلى أنه من الممكن استخدام نماذج المعرفة واتخاذ القرارات الموجودة لدينا للتأكد من أن أنظمة الذكاء الاصطناعي العام ستمتلك معايير إنسانية وستتصرف بشكل ملائم.

تحركوا الآن

هذا النوع من الأبحاث قيد التطوير. حتى إن رائد الأعمال التكنولوجية إيلون ماسكElon Musk حذر من الأزمة الوجودية التي تواجه البشرية بخصوص الذكاء الاصطناعي، وتحدث أيضًا عن ضرورة تنظيم هذه الأنظمة قبل فوات الأوان.

يمثل العقد القادم فترة حرجة، ففرصة خلق أنظمة فعالة وآمنة بإمكانها توفير مكاسب كبيرة للمجتمع والبشرية موجودة. وفي ذات الوقت، فإن المدخل العملي المعتاد والذي نسعى فيه لمواكبة التطور التكنولوجي السريع من شأنه المساهمة في انقراض الجنس البشري. الكرة في ملعبنا، لكنها لن تبقى كذلك طويلًا.

اقرأ أيضًا:

هل سيقود الذكاء الصناعي الحرب الباردة القادمة؟

الذكاء الصناعي ، ثورة جديدة تتجاوز البشرية وحتى البيولوجيا.

الذكاء الصناعي بعد تأليف الروايات إلى أين؟

Deep Mind ، اذا امتلك الذكاء الصناعي غريزة حب القتل

ترجمة: مصطفى عبد المنعم
تدقيق: فارس سلطة

المصدر