The authoritative guide to ensuring science and technology make life on Earth better, not worse.
By Paulo E. Santos: AR, December 8, 2015
الأسلحة المستقلة القادرة على اختيار ومهاجمة أهداف دون تدخل بشري هي حقيقة واقعة بالفعل. لكنها اليوم تقتصر إلى حد كبير على استهداف أهداف عسكرية في مناطق غير مأهولة—إلا أن أنظمة الكمبيوتر التي تتطور بسرعة بجانب قدرة المعالجة الهائلة واللوغاريتمات القوية للذكاء الاصطناعي قد تُمكِّن الدول في القريب العاجل من اتخاذ خيارات واقعية بشأن نشر أسلحة مستقلة بالكامل في حروب المدن.
لكن هل ستقلل الحرب الآلية من الأضرار الجانبية، كما يدعي بعض المراقبين— أم سوف تتسبب في دمار شامل؟ الإجابة ليست واضحة. لكن الواضح هو أن قرارات الاستهداف التي يتخذها البشر غالبا ما تكون سيئة للغاية. ومما لا شك فيه أنه من المهم مناقشة أخلاقيات الأسلحة المستقلة والتباحث حول ما إذا كان ينبغي حظرها أو تنظيمها أو تركها تتطور دون قيود. لكن القتل الآلي بكافة أشكاله هو أساس القضية هنا.
الاختيار الأمثل للضحايا. بداية ما المقصود بـ"الأسلحة المستقلة" على أية حال؟ فهذا مصطلح غير واضح المعالم. فصواريخ كروز والطائرات بدون طيار الموجهه من بعد هى إلى حد ما أسلحة مستقلة، وقد تم نشرها على نطاق واسع في ساحة المعركة. لكن عندما يتحدث الناس عن الأسلحة المستقلة، فهم بوجه عام يقصدون أسلحة ذات قدرات متطورة في مجال الذكاء الاصطناعي والروبوتات والتحكم الآلي، يمكنها تحديد أهداف معينة واتخاذ قرار بضربها أو عدم ضربها، بشكل مستقل عن التدخل البشري.
من المهم أيضا أن نفهم ما يعنيه "الذكاء الاصطناعي"— أو بالأحرى هنا، ما لا يعنيه هذا المصطلح. إن الذكاء الاصطناعي الذي تم تصويره في الأفلام والروايات الخيالية غالبا ما ينطوي على آلات تظهر قدرا من الذكاء البشري. لكن لا يوجد حاليا أي دليل علمي على إمكانية وجود شيء من هذا القبيل. بدلا من ذلك، يتعلق الذكاء الاصطناعي بتطوير لوغاريتمات حسابية مناسبة للمهام الاستنتاجية— المتمثلة في: حل المشكلات واتخاذ القرارات والتنبؤ والتشخيص، وما إلى ذلك. ويشمل الذكاء الاصطناعي أيضا تعميم أو تصنيف البيانات— وهو ما يعرف بالتعلم الآلي. ويمكن أن تشمل الأنظمة الذكية برامج الرؤية الحاسوبية التي تهدف في النهاية إلى تقديم تفسيرات ذات مغزى للصور. مثل هذه الوظائف لا تضيف الكثير من الإثارة لأفلام هوليوود، لكنها ذات أهمية كبيرة في تطوير الأسلحة المستقلة.
يجادل البعض بأن تطبيق الذكاء الاصطناعي في الحروب، ولا سيما باستخدام الأسلحة المستقلة، قد يتوخى الاختيار الأمثل للضحايا في ساحة المعركة. ويمكن لأنظمة الروبوتات الذكية، حسب هذا الرأي، تحديد الأهداف بدقة وكفاءة. كما يمكنها الانخراط في القتال بطريقة تقلل من الأضرار الجانبية إلى أدنى حد ممكن— وذلك بلا شك عند مقارنتها بالعديد من المهام التي نفذها البشر، مثل الهجوم الذي نفذته طائرات سلاح الجو الأمريكي يوم 3 أكتوبر على مستشفى تابع لمنظمة أطباء بلا حدود في أفغانستان. قد تقلل الأسلحة المستقلة من وقوع خسائر بين المدنيين الى الحد الادنى بينما تحسن من إمكانية تنفيذ مهام ناجحة.
غير أنه قد تم تنظيم حجج مماثلة لمعظم الابتكارات على مدار تاريخ الأسلحة، بداية من البارود وانتهاء بـ"الضربات الجراحية" في حرب العراق الأولى (والتي تم تصويرها بشكل مبهر للغاية على شاشات التلفاز). وحتى لو تمكنت أسلحة جديدة من تحقيق "الاختيار الأمثل" للقتل، فسوف تجعله آليا أيضا. لقد ظل الجنود يصوبون على أشخاص لعدة قرون. وحاليا هم يصوبون أحيانا على أهداف بطريقة تشبه ألعاب الفيديو. وربما لا يصوبون على الإطلاق في المستقبل، لأنهم سوف يتركون هذه المهمة للآلات. لكن الاختلافات، مثلا، بين نظام سلاح مستقل بالكامل وبين صواريخ كروز أو طائرات حربية بدون طيار موجهه عن بعد هي في الواقع اختلافات تقنية أكثر من كونها أخلاقية أو معنوية. إذا تقبّل المجتمع الحديث الحرب على أنها لعبة فيديو— كما تقبّل سابقا "الضربات الجراحية" في فترة التسعينات—فسوف يتم تقبّل الأسلحة المستقلة في الحروب.
وقّع مؤخرا عدد من العلماء—من بينهم كاتب هذا المقال— على رسالة مفتوحة دعوا من خلالها إلى "فرض حظر على الأسلحة الهجومية المستقلة الخارجة عن السيطرة الفعلية للبشر". وبينما كنت أُعيد قراءة الرسالة، لاحظت مجددا أنها تقترح حظرا فقط على الأسلحة التي "تختار وتشتبك مع أهداف دون تدخل بشري"، في حين تستبعد "صواريخ كروز أو طائرات بدون طيار موجهة عن بعد والتي يتخذ البشر جميع قرارات الاستهداف الخاصة بها". تدل هذه الصيغة إلى حد ما على أن القتل العشوائي لأعداد كبيرة من الناس— سواء كانوا جنودا أو مدنيين، كبارا أو أطفالا— مسموح به طالما كان البشر هم من يتخذون قرارات الاستهداف. لكن بتفحص تاريخ البشرية، يصعب أن نستوعب أن التحكم البشري في الأسلحة يمكن أن يكون أفضل بكثير من تحكم الآلات المستقلة. ولنأخذ مثالا واحدا على ذلك من القرن العشرين— من بين خيارات عديدة للغاية— لم يمنع التحكم البشري القتل الجماعي لما يقدر بـ200 ألف من المدنيين في هيروشيما وناجازاكي في أغسطس من عام 1945(ورغم ذلك، ربما كان يمكن تجنب تلك الفظائع إذا تم وضع تطوير الأسلحة النووية واستخدامها في إطار تنظيم دولي فعال بمجرد أن أدرك العلماء أن صنع مثل هذه الأسلحة كان ممكنا).
لقد وقعتُ على الرسالة المفتوحة لأنني من دعاة السلام. وسأوقع على أي رسالة تقترح فرض حظر على تطوير الأسلحة وإنتاجها. ولكن لا أعتقد أن فرض حظر دولي شامل على الأسلحة المستقلة سوف يمنع تطويرها— لأن الأبحاث حول الأنظمة المتقدمة للروبوتيات الذكية القاتلة قد بدأت بالفعل منذ عقود. وبالمقارنة مع الأسلحة النووية والبيولوجية القابلة للاستخدام، والتي يتطلب تطويرها مختبرات متخصصة مكلفة للغاية والحصول على مواد سهلة التتبع، نجد أنه من السهل القيام بتصنيع أسلحة مستقلة. إذ يمكن لأي مختبر حالي للروبوتات الذكية، بتمويل متواضع وخلال أسابيع، القيام من نقطة الصفر بتصنيع روبوت متحرك قادر بشكل مستقل على تتبع وإطلاق النار على أي شيء يتحرك. قد يتعثر الروبوت عند مواجهته لأولى درجات السلم، لكنه رغم ذلك سيكون سلاحا مستقلا أساسيا.
لا توجد وسيلة عملية تضمن عدم القيام مطلقا بصنع أسلحة مستقلة. وفرض حظر على تطوير تلك الأسلحة سيكون بمثابة دعوة لإنشاء مختبرات سرية، مما يجعل من المستحيل السيطرة على تلك الأسلحة أو محاسبة الجهات التي طورتها. الوسيلة العملية هى التأكد— من خلال تنظيم دولي فعال—من أن تطوير الأسلحة المستقلة يتم تحليله وتعقبه على أساس كل حالة على حدة. ويجب أن تكون هناك قواعد صارمة تحكم أهداف الأسلحة المستقلة، كما يجب أن يكون نشر تلك الأسلحة متوافقا مع القانون الإنساني الدولي— وإذا ثبتت استحالة التوافق مع القانون، فلن يتم نشر الأسلحة في ميدان الصراع. وأخيرا، يجب وضع نظام لمحاسبة أي مؤسسة تفشل في الالتزام بالضوابط التي تحكم صنع الأسلحة المستقلة ونشرها.
Topics: Technology and Security
Share: [addthis tool="addthis_inline_share_toolbox"]