الأسلحة الفتاكة ذاتية التحكم
هل يمكن أن نثق بها؟


الأسلحة القاتلة ذاتيّة التَّحكم أو ما تسمى «LAW» هي نوع من الرّوبوتات العسكريَّة التي تعمل على تحديد ومهاجمة أهدافٍ عسكريَّةٍ (بشر أو منشآت) دون تدخُّل بشريّ. لتلك الأسلحة عدة مسميات أيضًا مثل:

«الأنظمة القاتلة ذاتيَّة التَّحكُّم-lethal autonomous weapon systems» و «الرّوبوتات القاتلة ذاتيَّة التَّحكم-lethal autonomous robots» أو الأسلحة الآليَّة أو الرُّوبوتات القاتلة.

يمكن لتلك الرُّوبوتات أن تنفِّذ مهامها في الجو وعلى الأرض وفوق سطح المياه وتحت سطحها أو في الفضاء. وقد قُيّد التَّحكم الذَّاتي للنظم الحاليَّة منذ عام 2016 لتعطي الإنسان الأمر النِّهائي بالهجوم، على الرُّغم من وجود استثناءات في بعض الأنظمة الدِّفاعيَّة.

الفرق بين الرُّوبوتات القاتلة ذاتيَّة التَّحكُّم والطائرات بدون طيَّار الحاليَّة:

ينبغي عدم الخلط بين هذه الرُّوبوتات والمقاتلات الجويَّة بدون طيَّار «UCAV»، والتي يتحكَّم فيها طيَّار عن بُعد، فالقليل من الرُّوبوتات القاتلة ذاتيَّة التَّحكم المستخدمة حاليًا هي طائرات قتاليَّة دون طيار. وحتى هذا النوع منها يمكن أن يطير بشكلٍ مستقلِّ ولكنه لا يستطيع إطلاق النار بشكلٍ آلي ولا بد من وجود عنصرٍ بشريّ ضمن تلك الحلقة.

الأنظمة الدِّفاعيَّة الآليَّة:

أقدمُ سلاحٍ فتَّاكٍ يملك ردّ فعلٍ تلقائيًّا هو اللُّغم الأرضيّ الذي استخدم منذ القرن السادس عشر والألغام البحريَّة التي استخدمت أيضًا منذ القرن السابع عشر. وتجدر الإشارة هنا إلى أنَّ استخدام الألغام المُضادة للأفراد حُظِرَ في العديد من الدول بموجب معاهدة أوتاوا عام 1997، والتي لم تَشمل الولايات المتحدة الأمريكيَّة وروسيا وجزءًا كبيرًا من آسيا والشَّرق الأوسط.

بعض الأمثلة الحاليَّة على الرُّوبوتات القاتلة ذاتيَّة التَّحكُّم هي أنظمة الحماية الفعَّالة التي تُعزى إليها مهمات «hard kill»، مثل الأسلحة الموجهة بالرَّادار للدِّفاع عن السُّفن التي استُخدِمَت منذ السَّبعينيات، كنظام «Phalanx CIWS» الأمريكيَّ المستخدم في الدِّفاع عن السُّفن ضدَّ الصَّواريخ المضادة للسُّفن. ويمكن لهذه الأنظمة أن تحدد أهدافها بشكلٍ مستقلٍّ ومهاجمة الصَّواريخ والطائرات ونيران المدفعيَّة وسفن السَّطح القادمة تجاهها، وذلك وفقًا لمعايير محددة مسبقًا من قبل الإنسان.

توجد أنظمة مماثلة للدبابات، مثل نظام أرينا الرُّوسي الذي يعتمد على رادار دوبلر لرصد الرُّؤوس الحربيَّة القادمة وإطلاق النَّار عليها وتدميرها قبل وصولها للدَّبابة إضافة لنظام «Trophy» الإسرائيلي و «AMAP-ADS» الألماني.

وتتوافر عدة أنواع من الأسلحة النَّارية الثَّابتة، التي يمكنها إطلاق النَّار على البشر والمركبات بشكل آلي، وهي مستخدمة اليوم في كوريا الجنوبيَّة وإسرائيل. بالإضافة إلى أنَّ العديد من أنظمة الدِّفاع الصَّاروخيَّة، مثل القبة الحديديَّة

والسبب الرئيسي لعدم وجود الإنسان ضمن هذه الحلقة في هذه الأنظمة هو الحاجة إلى الاستجابة السَّريعة. إذ تستخدم مثل هذه الأنظمة عمومًا لحماية الموظفين والمنشآت من القذائف الواردة.

الأنظمة الهجوميَّة الآليَّة:

هذا النوع من الأنظمة يتمتع بدرجة عالية من التَّحكُّم الذَّاتي وتشمل الطائرات بدون طيَّار، على سبيل المثال تعتبر طائرة «BAE Systems Taranis» من شركة «BAE Systems» البريطانيَّة وهي طائرة قتاليَّة تعمل بالدَّفع النَّفاث وبدون طيار نموذجًا قد يقود الأنظمة الهجوميَّة المستقبليَّة إذ تستطيع تلك الطائرة أن تبحث وتحدد هوية وموقع الأعداء بشكلٍ تلقائيٍّ، ولكنها تتعامل مع الأهداف فقط عندما يُؤذنُ لها بأمر من القائد، ويمكنها أيضًا الدِّفاع عن نفسها ضد طائرات العدو.

طائرة «Northrop Grumman X-47B» بدون طيار هي الأخرى تستطيع الإقلاع والهبوط على حاملات الطائرات (التي ظهرت في 2014)، وكان من المقرر تطويرها لتصبح نظام طائرة بدون طيَّار تُطلق من على متن حاملة الطائرات للمراقبة وضرب الأهداف -ما يعرف بنظام (UCLASS)-.

القضايا الأخلاقيَّة والقانونيَّة :

قد ولَّدت إمكانيات الأسلحة القاتلة ذاتيَّة التَّحكم جدالات كبيرة، وخاصَّة فيما يتعلَّق بمخاطر الرُّوبوتات القاتلة التي ستجوب الأرض في المستقبل القريب أو البعيد.

أما مجموعة إيقاف الرُّوبوتات القاتلة التي تشكَّلت في عام 2013، أجرت حملة في يوليو 2015 وجمعت أكثر من 1,000 توقيع لخبراء في مجال الذَّكاء الاصطناعي للتَّحذير من خطر حدوث سباق تسليح في مجال الذَّكاء الاصطناعي العسكريّ وللدعوة إلى فرض حظر على الأسلحة ذاتيَّة التَّحكُّم.

تنصُّ سياسة الولايات المتحدة الحالية على ما يلي: «يجب أن يكون تصميم نظم الأسلحة ذاتيَّة التَّحكُّم تصميمًا يسمح للقادة والمشغِّلين بممارسة مستوياتٍ مناسبةٍ من تحكم الإنسان على استخدام القوة».

وقال نائب وزير الدِّفاع روبرت ورك في هذا العالم: «لن تعطي وزارة الدفاع الآلة صلاحيات اتخاذ القرار بالقتل، ولكننا ننظر في إمكانية فعل ذلك من قبل الأنظمة الاستبداديَّة».

أما عن القلق الذي يتعلق بانتهاك الأسلحة ذاتية التحكم للقانون الدولي لحقوق الإنسان، وخاصة مبدأ التَّمييز الذي يتطلّب القدرة على تمييز المقاتلين من غير المقاتلين، ومبدأ التَّناسب الذي يتطلب الضرر بالمدنيين بما يتناسب مع الهدف العسكري، فغالبًا ما تُتخَذ هذه المخاوف ذريعة أثناء المطالبة بحظر الروبوتات القاتلة تمامًا ولكن من المشكوك فيه أن تشكِّل هذه المخاوف حجة قوية في الاتهامات الموجهة الأسلحة ذاتيَّة التَّحكُّم.

أما المخاطر الأخرى المحتملة الشبيهة لهجمات الطائرات بدون طيار المُتحكَّم فيها عن بعد، فالأسلحة ذاتيَّة التَّحكم تجعل العمل العسكري أسهل بالنسبة لبعض الأطراف، وبالتالي تساهم في زيادة معدَّلات القتل.

وأخيرًا، تتهم الأسلحة ذاتية التحكم بأنها تساهم في طمس الحدود التي تُحدِّد مسؤوليّة القيام بعملية القتل، ويتجادل الكثيرون مثل توماس سيمبسون وفنسنت مولر على أن تلك الأسلحة قد تجعل من عملية تسجيل المعلومات عمَّن أعطوا الأمر بالقتل أكثرَ سهولةً.


ترجمة: دعاء عساف
تدقيق: عبدالسلام محمد
المصدر 1
المصدر 2
المصدر 3
المصدر 4