أظهرت دراسة حديثة أن الذكاء الاصطناعي يستطيع تطوير طرق جديدة لتوزيع الثروات أفضل من نظيراتها من تصميم الإنسان. يرى الباحثون المطورون من شركة (ديب مايند- DeepMind) للذكاء الاصطناعي بالمملكة المتحدة أن نُظم التعلم الآلية ليست جيدة فحسب في حل المشاكل المعقدة في الفيزياء والأحياء، ولكن تساعد أيضًا في إدراك الأهداف الاجتماعية غير المحدودة؛ مثل الوصول بالمجتمع للعدالة والرخاء.

بالتأكيد هي ليست مهمة سهلة، فبناء آلة يمكن الاستفادة من إمكانياتها لخدمة الإنسان بالطريقة التي يفضلها، التي تسمى «المصلحة التوافقية»، تعد معقدة لكثرة الاختلافات القائمة على تعيين الطريقة المُثلى خاصًة تلك المتعلقة بالموضوعات الاجتماعية والاقتصادية والسياسة.

يقول العالِم رافايل كوستر الباحث الرئيسي في هذه الورقة البحثية، والباحث بشركة ديب مايند: «إن أحد أهم المُعوقات التي تواجه الذكاء الاصطناعي فيما يتعلق بتوافق المصلحة هي كثرة وجهات النظر التي يُقرها ويعتمدها الإنسان، ما يجعل اختيار الذكاء الاصطناعي للطريقة المفضلة أمرًا صعبًا»، وأضاف: «على سبيل المثال، علماء السياسة والاقتصاد دائما ما يتناحرون حول أفضل الآليات للارتقاء بأداء وكفاءة المجتمع».

لرأب هذا الصدع، عمل الباحثون على تطوير مُحفز لتوزيع الثروات يتضمن تفاعلات البشر -الحقيقية والافتراضية- في بيانات التدريب للبرنامج؛ إنها تعمل على إرشاد الذكاء الاصطناعي للطرق المفضلة للبشر وتكون نتائجه عادلة افتراضيًا. ومع أن الذكاء الاصطناعي قد يُحقق نتائج مذهله، إلا أنه غالبًا ما يحيد عن الاستنتاجات والتصورات الاجتماعية المرغوبة إذا ما تُرك دون تدخل؛ وهنا يلجأ الإنسان لتوجيه الشبكات العصبية (neural networks) للمسار الأكثر دقة.

يُكمل الباحث قوله: «إن هناك إدراكًا متناميًا في أبحاث الذكاء الاصطناعي مفاده أن بناء نُظم متوافقة إنسانيًا تحتاج إلى طرق جديدة يتفاعل فيها الإنسان والآلة، وتركيز المجهود في جعل الآلة تتعلم القيمة مباشرة من الإنسان لبناء ذكاء اصطناعي متوافق القيمة».

في تجربة جمعت آلاف المشتركين، درس برنامج الذكاء الاصطناعي، المسمى (الذكاء الاصطناعي الديمقراطي)، تدريبًا استثماريًا تحت اسم لعبة التجارة العامة، إذ يُعطى كل متسابق مبلغًا معينًا من المال، ويمكنُ المساهمة بهذا المال في تمويل عام، ويستجلب عائدًا من التمويل على قدر مستوى الاستثمار. وبأنماط مختلفة للعب، وُزعت الثروة على اللاعبين بثلاثة أنماط أو قوالب تقليدية: مساواة صارمة، وليبرالية، ومساواة ليبرالية، ولكلٍ له عائده الاستثماري المختلف.

توجد أيضًا طريقة رابعة اختبرت تسمى آلية إعادة التوزيع المركزية للإنسان أو (HCRM)، طُور عن طريق التعليم التعزيزي العميق، حيث يستجيب للبيانات المُحصلة من اللاعبين والبرنامج الافتراضي المصمم خصيصًا لمحاكاة سلوك البشر. أظهرت تجارب لاحقة أن آلية إعادة التوزيع المركزية للإنسان حازت على شعبية أكبر من اللاعبين من نظيراتها التقليديين، إضافةً إلى رواجها على حساب نظم توزيع جديدة مصممة من حُكام وضعوا نُظمًا عامة باستقبال دُفعات مسبّقة قبل الاقتراع.

أضاف الباحث: «لقد اكتشف الذكاء الاصطناعي آلية أصلحت اختلال التوازن الأولي في الثروة، وحازت على أغلبية التصويت. لقد بيّنا أنه من الممكن الحصول على قيمة توافقية بنفس الآليات الديمقراطية لتحقيق إجماعٍ ما في المجتمعات العامة مثل اختيار المفوضين أو تقرير سياسة عامة أو استصدار أحكام قانونية».

أقر الباحثون أن نظامهم الجديد طرح عدة أسئلة فيما يتعلق بالقيمة التوافقية إذ إن الذكاء الاصطناعي يرتكز على الالتزام الديمقراطي، بمعنى أن البرنامج قد يؤدي إلى عدم مساواة مستفحل أو تحيز في المجتمع؛ وذلك بافتراض حصوله على شعبية كافية للاقتراع بين أغلبية المصوتين.

وتظهر أيضًا أزمة ثقة عند المشاركين، لجهلهم بهوية نظام إعادة توزيع الثروة الذي يشاركون فيه، وهل كانوا سيصوتون بنفس الطريقة إذا ما علموا أنهم اختاروا الذكاء الاصطناعي على النظام البشري؟ هذا ليس واضحًا حتى الآن.

أخيرًا، يرى الباحثون أن النظام الجديد لا يجب أن يُفسر على أنه بديل تكنوقراطي راديكالي للإطاحة بكيفية توزيع الثروة بالطرق القائمة بالفعل في المجتمع، ولكن يمكن اعتباره أداة بحثية تساعد الإنسان في تصميم طرق وحلول أفضل من التي بين أيدينا الآن.

يُكمل الباحث: «إن نتائجنا لا تقضي بضرورة دعم شكل من أشكال (حكومة ذكاء اصطناعي) إذ تستقل البرامج في اتخاذ قرارات سياسية بدون تدخل من البشر في تلك القرارات. نرى أن الذكاء الاصطناعي الديمقراطي طريقة بحثية لتصميم آليات نافعة محتملة، وليست وصفة لنشر الذكاء الاصطناعي في المجتمع».

اقرأ أيضًا:

تطوير ذكاء اصطناعي يصدر الأحكام القضائية بدقة تبلغ 97%!

تحليل ذكاء اصطناعي لمئة ألف دراسة مناخية يظهر مدى ضخامة الأزمة بالفعل

ترجمة: محمود سامي

تدقيق: رغد أبو الراغب

المصدر