تزداد ثقة البشر في تلك الآلات الذكية (الصناديق السوداء) من أجل حمايتنا ولأغراض الصحة والسلامة.

عندما انضم جيسون ماثيني إلى نشاط المشاريع البحثية المتقدمة في المخابرات الأمريكية كمدير برنامج في عام 2009، أجرى محادثات مع محللي الأبحاث في المنظمة، وسألهم بشأن احتياجاتهم، وكانت الإجابة دائمًا واحدة: نريد وسيلة لجعل التنبؤات أكثر دقة.

وتابع سؤاله إياهم: ماذا لو صنعنا لكم نموذج حاسوبي من الذكاء الاصطناعي لديه القدرة على التنبؤ بالأحداث في العالم الحقيقي كعدم الاستقرار السياسي واختبارات الأسلحة وتفشي الأمراض؟ هل ستستخدمونه؟

يقول ماثيني: كان رد المحللين حماسيًا، باستثناء ذلك التحفظ الحاسم بشأن ما إذا كان بإمكانهم تفسير ذلك النموذج لأحد صناع القرار، على سبيل المثال وزير الدفاع؟

وماذا لو أخبر نموذج الذكاء الاصطناعي هؤلاء المحللين بأن كوريا الشمالية كانت تستعد لقصف ألاسكا؟ وأضاف بعدم رغبتهم التواجد في موقف التفكير بإمكانية كون ذلك النظام مخطئ، ولكن المشكلة بالنسبة لهم كونهم في موقف عدم التأكد من سبب أو كيفية حدوث ذلك؟

وهنا يكمن لغز الذكاء الاصطناعي الذي يواجهنا اليوم: التكنولوجيات الأكثر قدرة، وهي الشبكات العصبية العميقة، تعتبر غامضة بشكل ملحوظ، كما أنها تقدم القليل من الأدلة حول كيفية وصولها إلى استنتاجات.

ولكن إذا كان المستهلكين يأتمنون السيارات التي تدور بتكنولوجيا الذكاء الاصطناعي على سلامتهم أو التي تستخدم في العناية الطبية على صحتهم، سيصبح عليهم معرفة كيفية اتخاذ هذه النظم لقرارات حاسمة. يقول أندرس ساندبرغ، باحث بجامعة أكسفورد: يمكن أن تكون (الشبكات العصبية العميقة) جيدة حقًا ولكن يمكنها الفشل أيضًا بطرق غامضة، بدأ الناس إدراك حقيقة عدم امكانية الوثوق بهذا البرنامج بشكل تام.

التوافق الدقيق

ما يجعل الشباك العصبية العميقة قوية ومتقلبة في نفس الوقت هو تمكنها من العثور على أنماط في كميات هائلة من البيانات، مما جعل مساعدين رقميين مثل (سيري – Siri ) التطبيق الخاص بشركة أبل و(ألكسا – Alexa) الخاص بأمازون ينالون تقييمات جيدة جدًا في التعرف على الكلمات والأصوات، وأخيرًا لماذا تكون ترجمة غوغل مفهومة؟ كما أنها تُمكن الآلات من تحديد الصور، والتنبؤ بالأمراض والتغلب على البشر في مسابقات التلفاز، والألعاب مثل (غو – go)، وهي لعبة يمكن القول أنها أكثر تطورًا من الشطرنج.

تعالج الشبكات العصبية المعلومات عن طريق تمريرها من خلال تسلسل هرمي لطبقات مترابطة، قريبة الشبه بالدوائر البيولوجية في الدماغ. الطبقة الأولى من الخلايا العصبية الرقمية يطلق عليها (العقد – nodes) حيث تستقبل المدخلات الأولية (مثل البكسلز في صورة لأحد القطط)، و تقوم بخلط وتسجيل قيم تلك المدخلات وفقًا للقواعد الرياضية البسيطة، ومن ثم تمرير النواتج إلى الطبقة التالية من العقد. تحوي تلك الشبكات العميقة في أي مكان من ثلاثة إلى مئات الطبقات، آخرها هي من تتنبأ بكل ذلك النشاط العصبي، على سبيل المثال: هذه الصورة للقط.

إذا كان هذا التنبؤ خاطئ، ستقوم الشبكة العصبية بتعديل الموصلات بين العقد وتوجيه النظام لأقرب نتيجة صحيحة. وتعرف هذه العملية بالتعلم العميق حيث تسمح للشبكات العصبية بإنشاء نماذج ذكاء اصطناعي كانت لتكون شديدة التعقيد أو الملل عند محاولة برمجتها يدويًا. كما تزداد شدة التعقيد مع الزيادة في المعطيات التي يمكن أن تقترب في بعض الأحيان من تريليون.

تسمح هذه المرونة للشبكات العصبية بالتفوق على أشكال أخرى من التعلم الآلي، والتي قُيدت ببساطتها النسبية، و في بعض الأحيان بالبشر. على سبيل المثال، يمكن للشبكة العصبية التجريبية في تجربة (المريض العميق – Deep Patient ) توقع حصول المريض على تشخيص معين خلال العام المقبل، قبل أشهر من قيام الطبيب باتخاذ القرار.

كما أظهرت نتائج الاختبارات إمكانية قيام النظام بالتنبؤ بحوالي 90 مرضًا مختلفًا، تتراوح ما بين مرض انفصام الشخصية والسرطان ومرض السكري، وبدقة عالية جدًا، دون التحدث إلى خبير.

اللاوعي الرقمي

بسبب قيام الشبكات العصبية في الأساس بعملية البرمجة الذاتية، ومع ذلك، فإنها غالبًا ما تتعلم قواعد مبهمة لا يمكن للبشر فهمها بشكل تام، ومن الصعب جدًا معرفة سبب اتخاذ شبكة عصبية لقرار محدد.

عندما نافست برمجية غوغل (ألفا غو – AlphaGo) لي سيدول بطل العام الماضي في سيول، قامت بحركة أدهشت جميع المشاهدين بما فيهم سيدول. يقول وينفيلد(عالم الروبوتات بجامعة بريستول): ما زلنا لا نستطيع تفسير ذلك.

بالتأكيد، يمكن من الناحية النظرية، من خلال البحث في التفاصيل ومراجعة كل خطوة ومعطى داخل ذلك المخ الاصطناعي، ولكن حتى المبرمجين لن يستخلصوا الكثير من هذه الأرقام لأن تفسير السؤال الرئيسي (ما الذي يدفع شبكة عصبية لاتخاذ قرار ما؟) مشفر داخل مليارات الموصلات المنتشرة بين العقد.

يجد العديد من الخبراء هذا الغموض مقلق.

ربما لا يكون لذلك الأمر الكثير من الأهمية في لعبة مثل غو، ولكن في حالة السائق الآلي لسيارة ذاتية التحكم عند وقوع حادث خطير، فإنه من غير المقبول أن نقول لمحقق أو قاضٍ: نحن لا نفهم لماذا فعلت السيارة ذلك.

ليس من الصعب تصور سيناريوهات إشكالية أخرى: طائرة بدون طيار تقصف مدرسة؛ برنامج لتقييم القروض يرفض بشكل غير متناسب الطلبات المقدمة من الأقليات؛ نظام مثل المريض العميق يقوم بتشخيص خادع. إن الحصول على نظام شديد التعقيد لا تفهم سلوكه بشكل تام مشكلة عويصة.

كشف القناع عن الذكاء الاصطناعي

يبحث العلماء في عدد من الخيارات في أبحاثهم عن حلول. نهج واحد يسمى النموذج التوجيهي، أو نهج المراقبة، حيث يعامل نظام الذكاء الاصطناعي كصندوق أسود.

يقول ديفيد غونينغ، مدير برنامج الذكاء الاصطناعي القابل للتوضيح في وكالة مشاريع البحوث المتطورة الدفاعية (داربا): أنت تقوم بتجربته ثم تحاول استنتاج سلوكه.

على سبيل المثال، من خلال تقطيع صورة للقط وتغذية الشبكة العصبية بقطعة تلو الأخرى، يمكن للمبرمج الحصول على فكرة جيدة عن أجزاء الذيل، الكفوف، وأنماط الفراء أو أي شيء غير متوقع يساعد الحاسوب على القيام بتصنيف صحيح.

ومن ثم هناك النهج الجراحي الذي يتيح لنا النظر فعلًا بداخل المخ في نظام الذكاء الاصطناعي. الخدعة هنا هي الحصول على ما يراه لجعل الأمر يبدو منطقيًا.

وللوصول لتفسير صحيح يلزم تتبع كل عملية إطلاق لكل عقدة في الشبكة، مما يؤدي للحصول على سجل تدقيق طويل، معقد وغير قابل للتفسير تمامًا بالنسبة للبشر. للوصول لتفسير أكثر وضوحًا، يمكن استكشاف الشبكة العصبية مع شبكة عصبية ثانية للحصول على شبكة من التفسيرات ربما تتمكن من معرفة أي النشاطات العصبية في النموذج الأصلي هو الأكثر أهمية في اتخاذ قرار معين.

الأمل هو إنشاء شبكة عصبية نموذجية ستساعد على بناء الشفافية في الأنظمة الذاتية مثل الطائرات بدون طيار أو المركبات ذاتية القيادة. ‫«‬لا أعتقد أننا يمكن أن يكون لدينا أي ثقة كاملة في أي برنامج، ولكن يمكننا أن نقوم بالكثير للتأكد من أن النظام يفعل الصواب لأسباب وجيهة، وليس القيام بشيء مجنون في الخفاء‫» ألان فرن، أستاذ الهندسة الكهربية وعلوم الكمبيوتر في جامعة ولاية أوريغون‬.‬‬‬‬‬‬‬‬

اعرض وتحدث

على الرغم من ذلك يشعر بعض الخبراء بالقلق من عدم كفاية هذه الجهود التدريجية لضمان ثقة الجمهور في النظم الذكية. اعتمد الاتحاد الأوروبي في عام 2016 قواعد جديدة لحماية البيانات ستدخل حيز التنفيذ في العام المقبل وتشمل الحق القانوني في تفسير القرارات التي تتخذها الخوارزميات. وفي الوقت نفسه، يعمل فريق من معهد مهندسي الكهرباء والإلكترونيات (IEEE) على تطوير معايير الصناعة التي يمكنها المساعدة في تحديد المعنى الحقيقي للتفسير.

ويصرح وينفيلد، الذي يترأس مجموعة العمل أن: الشفافية ليست شيئًا واحدًا، لأن ما يحتاج الشخص المسن لفهمه عن روبوت لرعايته يختلف عما يحتاجه محلل السلامة أو محقق حادث أو محام أو عامة الجمهور.


  • ترجمة: عمرو الجابري
  • تدقيق: رؤى درخباني
  • تحرير: أميمة الدريدي
  • المصدر