أصدر رئيس الولايات المتحدة جو بايدن أمرًا تنفيذيًا طموحًا واسع النطاق بشأن الذكاء الاصطناعي، ما يضم الولايات المتحدة إلى المناقشات والمحادثات حول تنظيم الذكاء الاصطناعي.

وبذلك تتقدم الولايات المتحدة الأمريكية على الدول الأُخرى في سباق السيطرة على تطور الذكاء الاصطناعي، إذ كانت أوروبا تتصدر هذا المجال بسبب اعتمادها على قانون الذكاء الاصطناعي الذي صدقه البرلمان الأوروبي في يونيو 2023 والمتوقع دخوله التطبيق الكامل في عام 2025.

يمثل الأمر التنفيذي الرئاسي مجموعة شاملة من المبادرات والمشاريع لتنظيم تقنية الذكاء الاصطناعي، يبدو بعضها جيدًا وبعضها غير مكتمل إلى حدٍّ ما. والهدف معالجة المشكلات المُتراوحة بين الأذية المباشرة -مثل التزييف والخداع المُصنّع عبر الذكاء الاصطناعي- إلى الأذى الوسطي مثل فقدان الوظائف، وصولًا إلى الأذى على المدى الطويل كالتهديد الوجودي للذكاء الصنعي على البشر وكل الجدل حوله.

خطط جو بايدن الطموحة:

كان الكونغرس بطيئًا في اتخاذ تشريعات هامة لتنظيم الشركات التقنية الكبيرة، ولذلك يبدو الأمر الرئاسي التنفيذي محاولة لتجاوز الطرق المسدودة في الكونغرس، بالإضافة إلى المبادرة ببدء العمل الفعلي، مثل دعوة الكونغرس لإقرار تشريعات ثنائية الأطراف -من الحزبين- في مجال حماية البيانات، ويبدو ذلك صعبًا في المناخ السياسي الحالي.

وبحسب ما ورد سيبدأ تطبيق الأمر التنفيذي بين الأشهر الأولى من 2024 أو حتى نهايتها، ويُغطي ثمانية مجالات:

  1.  معايير الحماية والأمن للذكاء الصنعي.
  2.  حماية الخصوصية.
  3.  الإنصاف والحقوق المدنية.
  4.  حقوق المستخدم.
  5.  الوظائف.
  6.  الابتكار والمنافسة.
  7.  القيادة العالمية.
  8.  حوكمة الذكاء الاصطناعي.

يغطي الأمر عدة مخاوف أثارها الأكاديميون وعامة الناس، فأحد تعليماته مثلًا هي إصدار دليل لوضع علامة مائية على المحتوى الذي ينشئه الذكاء الاصطناعي لتجنب خطر التزييف.

يتطلب أيضًا أن تضمن الشركات المطورة لتقنيات الذكاء الاصطناعي سلامة النماذج قبل طرحها لها على نطاق واسع للاستخدام.

يقول بايدن: «هذا يعني أن على الشركات إخبار الحكومة عن أنظمة الذكاء الاصطناعي الكبيرة التي يطورونها، ومشاركة نتائج الاختبارات الصارمة المستقلة التي يجرونها للتأكد من أنها لا تشكل أي خطر على الأمن القومي أو على سلامة الشعب الأمريكي».

الكوارث المحتملة لاستخدام الذكاء الاصطناعي في الحروب:

لا يتناول الأمر التنفيذي كثيرًا من القضايا الملحة، إذ لا يتضمن الأمر هذا حلًا مباشرًا لكيفية التعامل مع الروبوتات الذكية الاصطناعية المدمرة، بينما كان هذا الحديث مطروحًا في الجمعية العمومية للأمم المتحدة.

يجب عدم تجاهل هذه القضية، ﻷن وزارة الدفاع الأمريكية تطور أسرابًا من الطائرات دون طيار في مشروع جديد أعلنت عنه حديثًا. وقد طورت أوكرانيا أيضًا طائرات حربية محلية الصنع، دون طيار مدعومة بالذكاء الاصطناعي باستطاعتها تحديد القوات الروسية وضربها دون أي تدخل بشري.

فهل ينتهي الأمر بنا في عالمٍ تقرر الآلات فيه من يموت أو يحيا؟ بالكاد يطلب الأمر التنفيذي استخدام هذه التقنيات بطريقة أخلاقية، لكنه لا يوضح معنى ذلك.

وماذا عن حماية الانتخابات من تأثير حملات الإقناع التي تستخدم الذكاء الاصطناعي؟ ترى بعض المصادر أن هذا حدث بالفعل في انتخابات سلوفاكيا بالتزييف العميق. وعبّر كثير من المختصين عن القلق حيال إساءة استخدام الذكاء الاصطناعي في الانتخابات الرئاسية الأمريكية المقبلة.

ما لم تُطبّق ضوابط صارمة، قد نعيش في عهد قد لا يكون فيه ما تسمعه أو تراه عبر الإنترنت موثوقًا. وإن بدا هذا مبالغًا به بعض الشيء، فإن الحزب الجمهوري الأمريكي قد وضع بالفعل إعلانًا انتخابيًا يبدو أنه مُنشأ بالكامل باستخدام الذكاء الاصطناعي.

ضياع الفرص:

يجب تطبيق العديد من هذه المبادرات والأفكار بالكثير من الأماكن الأخرى، وهذا ممكن كما حدث في أستراليا، ويجب تقديم إرشادات لأصحاب العقارات والبرامج الحكومية والمقاولين الحكوميين حول كيفية ضمان عدم استخدام خوارزميات الذكاء الاصطناعي للتمييز ضد الأفراد. وهذا من متطلبات الأمر التنفيذي.

كذلك يطلب اﻷمر التنفيذي التركيز على مكافحة التمييز الخوارزمي في نظام العدالة الجنائية، إذ يتزايد استخدام الذكاء الاصطناعي في المجالات عالية الأهمية، مثل تحديد العقوبات والإفراج المشروط والإفراج قبل المحاكمة وتقدير المخاطر والمراقبة وتوقع أعمال الشرطة، وغيرها. فيجب إذن التصدي لهذه المسألة والعمل على منع أي تمييز ينبعث من هذه الأنظمة وضمان عدالة العدالة الجنائية.

وعلى الأرجح فأكثر الجوانب إثارةً للجدل بالأمر التنفيذي هو تناوله للأضرار المحتملة من أحد أقوى أنظمة الذكاء الاصطناعي والمسماة بالنماذج الحدودية التي تشكل تهديدًا على البشرية، يرى بعض الخبراء أن الأنظمة التي طورتها شركات مثل أوبن إي آي وغوغل وأنثروبيك.

لكن خبراء آخرين يرون بعض المبالغة في مواضيع كهذه، وربما قد تصرف الانتباه عن أشياء أخرى ذات أذى مباشر علينا، مثل المعلومات الخاطئة وعدم وجود مساواة، فهي تؤذي المجتمع وبدأت بذلك بالفعل.

يطلب أمر بايدن من الشركات إبلاغ الحكومة الفيدرالية عند تدريب نماذج كهذه، وذلك بناء على سلطة حربية استثنائية تعود لقانون الإنتاج الدفاعي المُقدم خلال الحرب الكورية سابقًا. ويتطلب الأمر أيضًا مشاركة نتائج اختبارات أمان الفريق الأحمر، وهو مصطلح يشير إلى جهود مخترقين داخليين يستخدمون هجماتهم لاستكشاف الأخطاء أو نقاط الضعف في الأنظمة.

سيكون تعقب تطور نماذج الذكاء الاصطناعي الحدودية صعبًا وعلى الأرجح مستحيلًا. فالتوجيهات هذه لن توقف الشركات من تطوير هذه الأنظمة في حدود خارج سلطة الحكومة الأمريكية. ومجتمعات المصدر المفتوح قد تتمكن أيضًا من تطويرها بطريقة موزعة ما يجعل عالم التقنيات عابرًا للحدود.

من المُرجح أن يكون للأمر الإداري التنفيذي تأثير أعظم على الحكومة نفسها وكيفية استخدامها للذكاء الاصطناعي لا على الشركات، لكنه إجراء مرحب به عمومًا. فبالمقارنة، ستبدو قمة سلامة الذكاء الاصطناعي التي سيعقدها رئيس الوزراء البريطاني ريشي سوناك حفل حديث دبلوماسي لا أكثر.

اقرأ أيضًا:

هل امتلك الذكاء الاصطناعي وعيًا؟ وكيف نلاحظ ذلك؟

دراسة جديدة تشير إلى أن الذكاء الاصطناعي قد يلتهم نفسه! فما السبب؟

ترجمة : زين العابدين بدور

تدقيق: محمد حسان عجك

المصدر