The authoritative guide to ensuring science and technology make life on Earth better, not worse.

الأسلحة المستقلة والسلامة المدنية: التنظيم مقابل الحظر

في شهر يوليو الماضي، وجّه باحثون في مجال الذكاء الاصطناعي والروبوتات رسالة مفتوحة إلى العالم—وقّع عليها شخصيات بارزة مثل ستيفن هوكينج— دعوا من خلالها إلى "فرض حظر على الأسلحة الهجومية المستقلة الخارجة عن السيطرة الفعلية للبشر". والرسالة في مضمونها تكرر حججا أثارتها "حملة وقف الروبوتات القاتلة" في عام 2013، والتي تعتبر الأسلحة المستقلة "تحديا رئيسيا أمام حماية المدنيين... وحقوق الإنسان الدولية والقانون الإنساني الدولي". لكن الدعوات الداعمة لفرض مثل هذا الحظر لم تحظ بإجماع الآراء. إذ يجادل البعض بأن الأسلحة المستقلة سوف ترتكب عددا أقل من الأعمال الوحشية في ساحات المعارك مقارنة بالبشر— بل إن حتى تطوير هذه الأسلحة قد يعد أمرا ضروريا من الناحية الأخلاقية. فيما يلي، يناقش مؤلفون من البرازيل والهند والولايات المتحدة هذا السؤال: هل ستعزز الأسلحة المستقلة المنشورة من السلامة المدنية أم ستقلل منها؛ وهل يعتبر فرض حظر شامل— أو تنظيم دولي فعّال— استجابة ملائمة لتطوير الأسلحة المستقلة؟

Round 1

حظر الأسلحة المستقلة وتنظيمها

أسلحة تصطاد في جماعات وأخرى على شبكات الحاسوب تقوم بدوريات. هى في البر والبحر والجو والفضاء—منتشرةً في كل مكان. الأسلحة المستقلة المنشورة تبدو بلا شك مشؤومة. لكن بشكل عام، هل ستعزز تلك الأسلحة من السلامة المدنية أم ستنتقص منها؟

تتطلب الإجابة عن هذا السؤال فهما واضحا لمصطلح "السلامة المدنية". فلو كانت تعني حماية أرواح المدنيين أثناء النزاعات المسلحة، فإذن نعم، قد تساهم الأسلحة المستقلة بشكل جيد في تحقيق هذه الغاية في يوم ما. لكن تكنولوجيا اليوم ليست قوية بما فيه الكفاية لتجعل الأسلحة المستقلة تميِّز بين المقاتلين وغير المقاتلين، ولا سيما أثناء حركات التمرد أو الحروب الأهلية. فأفضل ما يمكن أن تحققه التكنولوجيا الحالية هو التعرّف على اشارات الرادار أوالاشارات الحرارية أوالأشكال— أو، في حالة الأشخاص، التعرف على أجهزة الاستشعار المدمجة في الأزياء الموحدة. لكن هذا لا يساعد إلا في تحديد مقاتلي الصف الواحد، وهو أمر لا يزيد بأي حال من السلامة المدنية.

بمرور الوقت، قد تصبح تكنولوجيا الأسلحة المستقلة— نتيجة لتطور تقنية التعرف على الوجه والتعرف على الاشارات والقياسات الحيوية، وما إلى ذلك— أكثر قدرة على تحديد الأهداف المشروعة. لكن هذه التطورات لن تضمن عدم استهداف المدنيين. كما أنها لن تحول دون ظهور تهديدات أخرى لسلامة المدنيين. على سبيل المثال، من أجل مواجهة تهديدات محتملة، قد تقوم الأسلحة المستقلة في يوم من الأيام بمراقبة مستمرة للسكان، وهو أمر يشبه إلى حد ما نظام "جورجون ستير" وهو نظام مراقبة جوي تستخدمه حاليا الولايات المتحدة. في حالة استخدام تكنولوجيا مماثلة في الأسلحة المستقلة، سوف تواجه المجتمعات مجموعة من المشاكل التي لا تتعلق مباشرة بالنزاع المسلح ولكنها تتعلق بالسلامة المدنية.

إذن، يتجاوز مصطلح "السلامة المدنية" إدارة الأعمال العدائية— ويتجاوز نطاق القانون الإنساني الدولي. أي أن السلامة المدنية هى مصدر قلق في زمن الحرب وزمن السلم على حد سواء. في زمن السلم، يُطبق نوع آخر من القانون— القانون الدولي لحقوق الإنسان، وهو عبارة عن مجموعة أوسع نطاقا من المعاهدات والمبادئ والقوانين والالتزامات الوطنية بشأن "الحقوق المدنية والسياسية والاقتصادية والاجتماعية والثقافية التي يجب أن يتمتع بها جميع البشر".

ولكي تكون الأسلحة المستقلة منسجمة مع القانون الدولي لحقوق الإنسان، فيجب أن تتوافق على الأقل مع جميع معاهدات حقوق الإنسان الدولية والإقليمية والثنائية، وكذلك مع ما يقابلها من التشريعات المحلية. وفي الواقع، قد يكون من الضروري للأسلحة المستقلة أن تعزز حقوق الإنسان. لذا، لا يكفي أن تسأل دولة عمّا إذا كانت الأسلحة المستقلة سوف تحمي المدنيين في دولة أخرى مشتبكة معها في عمليات عسكرية؛ بل يجب أن تلتزم الأسلحة المستقلة أيضا بقوانين دولتها. وبشكل أكثر دقّة، يجب أن تحظى الأسلحة المستقلة بالقبول القانوني في الأوضاع غير المستقرة بين قوانين الحرب وقوانين السلام.

كل هذا يشكل سقفا عاليا جدا للأسلحة المستقلة. لرؤية هذا بوضوح، علينا دراسة كيف يمكن أن تنتهك الأسلحة المستقلة الاتفاقية الأوروبية لحقوق الإنسان على سبيل المثال. إذا تم نشر أسلحة مستقلة داخل أوروبا، وكانت تُستخدم للمراقبة في كل مكان، في عمليات مكافحة الإرهاب مثلا، قد تفشل تلك الأسلحة في احترام الحق في الحياة الخاصة والعائلية، وهو حق مكفول بموجب المادة 8 من الاتفاقية. ولأن هذه الأسلحة قد تكون متصلة بالانترنت بدلا من كونها روبوتات، يمكن أن يكون لها أيضا آثار سلبية على حرية الفكر والضمير والدين (المكفولة بموجب المادة 9). ويمكن أن تتعدى الأسلحة المستقلة المتصلة بالانترنت على حرية التعبير (المادة 10) إذا قامت بمنع الحوار أو التعبير عن الرأي عبر الإنترنت.

إن أخطر تهديد تشكله الأسلحة المستقلة هو بالطبع تهديد للحق في الحياة. ويمكن للمرء أن يفترض أن "السلامة المدنية" تعني الحق في الحياة، بدلا من الحق في الحياة الخاصة والعائلية مثلا. ولكن الحق في الحياة—المكفول ليس فقط بموجب المادة 2 من الاتفاقية ولكن أيضا بموجب صكوك دولية هامة أخرى—ليس مطلقا. إذ يعتمد الحق في الحياة إلى حد كبير على تراخيص قانونية فيما يتعلق باستخدام القوة المميتة.

ومع ذلك، تختلف هذه التراخيص القانونية تبعا لما إذا كان المرء في حالة حرب أو في حالة سلم. في حالات زمن السلم (أو "إنفاذ القانون")، يتطلب استخدام القوة المميتة خطرا وشيكا على المارّة أو الضباط. أما خلال الحرب، فتكون عتبة استخدام القوة المميتة أقل من ذلك بكثير. ويوحي تطبيق هذه الفروق على الأسلحة المستقلة بأنه إذا تم تحديد فرد باعتباره تهديدا محتملا أو حقيقيا، يجب على الاسلحة المستقلة محاولة إلقاء القبض عليه (إذا لم يكن التهديد مميتا ووشيكا على المارة؛ فلن يكون هناك أي خطر بالنسبة للآلات). وإذا كان النظام غير قادر على الاعتقال—لأنه نظام جوي مثلا — ستبدوا الخيارات محدودة على إما القتل أو عدم القتل. لكن قتل أحد الأشخاص في مثل هذه الظروف سيكون بمثابة انتهاك تلقائي للحق في الحياة. علاوة على ذلك، سيكون هذا الفعل تعديا على الحق في المثول أمام محاكمة عادلة. وإنكار الحق في محاكمة يقوض سيادة القانون، الذي يعد في حد ذاته أهم قوة لحفظ السلامة المدنية وحمايتها.

خطر على الجميع. علاوة على جميع ما تقدم، ستكون السلامة المدنية وبالتالي الحق في الحياة مهددان من خلال سباق تسلح محتمل في الأسلحة المستقلة والذكاء الاصطناعي. سوف يعرض مثل هذا السباق المدنيين في جميع أنحاء العالم لمخاطر وجودية محتملة لا مبرر لها. وإذا طُورت الاسلحة المستقلة وتم نشرها، فسيكون لها في النهاية مكان في كل نطاق— الجو والفضاء والبحر والبر والإنترنت. وسوف تصطاد في جماعات. وسيتم ربطهما في شبكة أنظمة الأسلحة المستقلة بدون قيادة بشرية. وسوف تنظم دوريات على شبكات الحاسوب. وسوف تكون في كل مكان. فمن الصلف إذن، أن نفترض أن دولة واحدة فقط سوف تسعى لتطوير تلك الأسلحة.

سوف تخلص عديد من الدول إلى أن دفاعاتها تتطلب، وبسرعة متزايدة من أي وقت مضى، أن يتم تطويرها بذكاء اصطناعي ذي قوة متزايدة وبأسلحة ذات قدر أكبر من الاستقلالية. لكن الأنظمة المستقلة القادرة على التعلم يمكنها بسرعة الخروج عن سيطرة مخترعيها. وستكون خطرا على أي شخص يكون في متناولها. كما أن الأسلحة المستقلة المتصلة مع بعضها البعض عبر الشبكات، أو وكلاء مستقلين ذوي ذكاء اصطناعي ومتصلين بالإنترنت، لن تقتصر على إقليم جغرافي واحد أو على دول مشاركة في نزاع مسلح. إن الآثار غير المقصودة لابتكار ونشر أنظمة مستقلة قد تكون شديدة للغاية بحيث تجعل المخاطر المرتبطة باستخدامها تفوق أي فوائد محتملة.

إذن هل فرض حظر تام هو الاستجابة المناسبة لتطوير أسلحة مستقلة، أم فرض قانون تنظيمي دولي فعال هو النهج الملائم؟ لقد جادلت في الماضي بحظر الأسلحة المستقلة— إذ أن مخاطر عدم حظرها مرتفعة للغاية. لكن سواء تم فرض حظر أو لم يتم، فالمطلوب هو إيجاد تشريع دولي فعال. إن العديد من تقنيات المعلومات والاتصالات هى ذات استخدام مزدوج— وهذا يعني أنه يمكن استعمالها في أغراض عسكرية وغير عسكرية. كما يمكن للذكاء الاصطناعي أن يفيد المجتمعات، فلا ينبغي رفض هذه المنافع بسبب الأضرار الأخرى. لذلك، يجب على الدول العمل معا، بمساعدة خبراء ومنظمات غير حكومية، لخلق نهج عملي قابل للتنفيذ لتقنيات مستقلة ذاتيا في مجال الروبوتات والأمن السيبراني— نهج يمنع التسليح لكنه يسمح بالاستخدامات المفيدة. لذا فليست المسألة تكمن في حظر الأسلحة المستقلة أو تنظيمها. بل تكمن حقا في الطريقة المثلى للقيام بكلا الأمرين على حد سواء.

الأسلحة المستقلة ولعنة التاريخ

الأسلحة المستقلة القادرة على اختيار ومهاجمة أهداف دون تدخل بشري هي حقيقة واقعة بالفعل. لكنها اليوم تقتصر إلى حد كبير على استهداف أهداف عسكرية في مناطق غير مأهولة—إلا أن أنظمة الكمبيوتر التي تتطور بسرعة بجانب قدرة المعالجة الهائلة واللوغاريتمات القوية للذكاء الاصطناعي قد تُمكِّن الدول في القريب العاجل من اتخاذ خيارات واقعية بشأن نشر أسلحة مستقلة بالكامل في حروب المدن.

لكن هل ستقلل الحرب الآلية من الأضرار الجانبية، كما يدعي بعض المراقبين— أم سوف تتسبب في دمار شامل؟ الإجابة ليست واضحة. لكن الواضح هو أن قرارات الاستهداف التي يتخذها البشر غالبا ما تكون سيئة للغاية. ومما لا شك فيه أنه من المهم مناقشة أخلاقيات الأسلحة المستقلة والتباحث حول ما إذا كان ينبغي حظرها أو تنظيمها أو تركها تتطور دون قيود. لكن القتل الآلي بكافة أشكاله هو أساس القضية هنا.

الاختيار الأمثل للضحايا. بداية ما المقصود بـ"الأسلحة المستقلة" على أية حال؟ فهذا مصطلح غير واضح المعالم. فصواريخ كروز والطائرات بدون طيار الموجهه من بعد هى إلى حد ما أسلحة مستقلة، وقد تم نشرها على نطاق واسع في ساحة المعركة. لكن عندما يتحدث الناس عن الأسلحة المستقلة، فهم بوجه عام يقصدون أسلحة ذات قدرات متطورة في مجال الذكاء الاصطناعي والروبوتات والتحكم الآلي، يمكنها تحديد أهداف معينة واتخاذ قرار بضربها أو عدم ضربها، بشكل مستقل عن التدخل البشري.

من المهم أيضا أن نفهم ما يعنيه "الذكاء الاصطناعي"— أو بالأحرى هنا، ما لا يعنيه هذا المصطلح. إن الذكاء الاصطناعي الذي تم تصويره في الأفلام والروايات الخيالية غالبا ما ينطوي على آلات تظهر قدرا من الذكاء البشري. لكن لا يوجد حاليا أي دليل علمي على إمكانية وجود شيء من هذا القبيل. بدلا من ذلك، يتعلق الذكاء الاصطناعي بتطوير لوغاريتمات حسابية مناسبة للمهام الاستنتاجية— المتمثلة في: حل المشكلات واتخاذ القرارات والتنبؤ والتشخيص، وما إلى ذلك. ويشمل الذكاء الاصطناعي أيضا تعميم أو تصنيف البيانات— وهو ما يعرف بالتعلم الآلي. ويمكن أن تشمل الأنظمة الذكية برامج الرؤية الحاسوبية التي تهدف في النهاية إلى تقديم تفسيرات ذات مغزى للصور. مثل هذه الوظائف لا تضيف الكثير من الإثارة لأفلام هوليوود، لكنها ذات أهمية كبيرة في تطوير الأسلحة المستقلة.

يجادل البعض بأن تطبيق الذكاء الاصطناعي في الحروب، ولا سيما باستخدام الأسلحة المستقلة، قد يتوخى الاختيار الأمثل للضحايا في ساحة المعركة. ويمكن لأنظمة الروبوتات الذكية، حسب هذا الرأي، تحديد الأهداف بدقة وكفاءة. كما يمكنها الانخراط في القتال بطريقة تقلل من الأضرار الجانبية إلى أدنى حد ممكن— وذلك بلا شك عند مقارنتها بالعديد من المهام التي نفذها البشر، مثل الهجوم الذي نفذته طائرات سلاح الجو الأمريكي يوم 3 أكتوبر على مستشفى تابع لمنظمة أطباء بلا حدود في أفغانستان. قد تقلل الأسلحة المستقلة من وقوع خسائر بين المدنيين الى الحد الادنى بينما تحسن من إمكانية تنفيذ مهام ناجحة.

غير أنه قد تم تنظيم حجج مماثلة لمعظم الابتكارات على مدار تاريخ الأسلحة، بداية من البارود وانتهاء بـ"الضربات الجراحية" في حرب العراق الأولى (والتي تم تصويرها بشكل مبهر للغاية على شاشات التلفاز). وحتى لو تمكنت أسلحة جديدة من تحقيق "الاختيار الأمثل" للقتل، فسوف تجعله آليا أيضا. لقد ظل الجنود يصوبون على أشخاص لعدة قرون. وحاليا هم يصوبون أحيانا على أهداف بطريقة تشبه ألعاب الفيديو. وربما لا يصوبون على الإطلاق في المستقبل، لأنهم سوف يتركون هذه المهمة للآلات. لكن الاختلافات، مثلا، بين نظام سلاح مستقل بالكامل وبين صواريخ كروز أو طائرات حربية بدون طيار موجهه عن بعد هي في الواقع اختلافات تقنية أكثر من كونها أخلاقية أو معنوية. إذا تقبّل المجتمع الحديث الحرب على أنها لعبة فيديو— كما تقبّل سابقا "الضربات الجراحية" في فترة التسعينات—فسوف يتم تقبّل الأسلحة المستقلة في الحروب.  

وقّع مؤخرا عدد من العلماء—من بينهم كاتب هذا المقال— على رسالة مفتوحة دعوا من خلالها إلى "فرض حظر على الأسلحة الهجومية المستقلة الخارجة عن السيطرة الفعلية للبشر". وبينما كنت أُعيد قراءة الرسالة، لاحظت مجددا أنها تقترح حظرا فقط على الأسلحة التي "تختار وتشتبك مع أهداف دون تدخل بشري"، في حين تستبعد "صواريخ كروز أو طائرات بدون طيار موجهة عن بعد والتي يتخذ البشر جميع قرارات الاستهداف الخاصة بها". تدل هذه الصيغة إلى حد ما على أن القتل العشوائي لأعداد كبيرة من الناس— سواء كانوا جنودا أو مدنيين، كبارا أو أطفالا— مسموح به طالما كان البشر هم من يتخذون قرارات الاستهداف. لكن بتفحص تاريخ البشرية، يصعب أن نستوعب أن التحكم البشري في الأسلحة يمكن أن يكون أفضل بكثير من تحكم الآلات المستقلة. ولنأخذ مثالا واحدا على ذلك من القرن العشرين— من بين خيارات عديدة للغاية— لم يمنع التحكم البشري القتل الجماعي لما يقدر بـ200 ألف من المدنيين في هيروشيما وناجازاكي في أغسطس من عام 1945(ورغم ذلك، ربما كان يمكن تجنب تلك الفظائع إذا تم وضع تطوير الأسلحة النووية واستخدامها في إطار تنظيم دولي فعال بمجرد أن أدرك العلماء أن صنع مثل هذه الأسلحة كان ممكنا).

لقد وقعتُ على الرسالة المفتوحة لأنني من دعاة السلام. وسأوقع على أي رسالة تقترح فرض حظر على تطوير الأسلحة وإنتاجها. ولكن لا أعتقد أن فرض حظر دولي شامل على الأسلحة المستقلة سوف يمنع تطويرها— لأن الأبحاث حول الأنظمة المتقدمة للروبوتيات الذكية القاتلة قد بدأت بالفعل منذ عقود. وبالمقارنة مع الأسلحة النووية والبيولوجية القابلة للاستخدام، والتي يتطلب تطويرها مختبرات متخصصة مكلفة للغاية والحصول على مواد سهلة التتبع، نجد أنه من السهل القيام بتصنيع أسلحة مستقلة. إذ يمكن لأي مختبر حالي للروبوتات الذكية، بتمويل متواضع وخلال أسابيع، القيام من نقطة الصفر بتصنيع روبوت متحرك قادر بشكل مستقل على تتبع وإطلاق النار على أي شيء يتحرك. قد يتعثر الروبوت عند مواجهته لأولى درجات السلم، لكنه رغم ذلك سيكون سلاحا مستقلا أساسيا.

لا توجد وسيلة عملية تضمن عدم القيام مطلقا بصنع أسلحة مستقلة. وفرض حظر على تطوير تلك الأسلحة سيكون بمثابة دعوة لإنشاء مختبرات سرية، مما يجعل من المستحيل السيطرة على تلك الأسلحة أو محاسبة الجهات التي طورتها. الوسيلة العملية هى التأكد— من خلال تنظيم دولي فعال—من أن تطوير الأسلحة المستقلة يتم تحليله وتعقبه على أساس كل حالة على حدة. ويجب أن تكون هناك قواعد صارمة تحكم أهداف الأسلحة المستقلة، كما يجب أن يكون نشر تلك الأسلحة متوافقا مع القانون الإنساني الدولي— وإذا ثبتت استحالة التوافق مع القانون، فلن يتم نشر الأسلحة في ميدان الصراع. وأخيرا، يجب وضع نظام لمحاسبة أي مؤسسة تفشل في الالتزام بالضوابط التي تحكم صنع الأسلحة المستقلة ونشرها.

الأسلحة المستقلة: التوازن على حبل مشدود

عندما أصدر باحثون في مجال الذكاء الاصطناعي رسالة مفتوحة في شهر يوليو دعوا خلالها إلى فرض حظر على "الأسلحة الهجومية المستقلة الخارجة عن السيطرة الفعلية للبشر"، حددوا أن الحظر قد يشمل أسلحة من نوعية "طائرات مسلحة رباعية المراوح" قادرة على تحديد وقتل أشخاص "تنطبق عليها معايير معينة محددة مسبقا". لكن الحظر لم يشمل "صواريخ كروز أو طائرات بدون طيار موجهة عن بعد التي يتخذ البشر جميع قرارات الاستهداف الخاصة بها". لذا، فمن الجدير بالملاحظة أن الحظر المقترح لن يمنع عددا من الاسلحة المستقلة التي قد تم نشرها بالفعل—لأن هذه الأسلحة تم تصنيفها بأنها دفاعية.

وتشمل هذه الأسلحة نظام فالانكس الصاروخي التابع للبحرية الأمريكية—"وهو نظام سريع الإطلاق خاضع لتحكم الكمبيوتر وموجه بالرادار" وهو قيد الاستخدام منذ عام 1980، كما اعتمد الجيش الأمريكي مؤخرا نسخة من هذا النظام يتم إطلاقه من الأرض. ونظام الدفاع الألماني إن.بي.إس مانتيس المستقل ذاتيا بالكامل والذي يستطيع كشف القذائف وتتبعها والاشتباك معها وإطلاق النار عليها. ونظام الدفاع الصاروخي الاسرائيلي "القبة الحديدية" الذي يعمل بشكل مستقل، إلا في حال استشعر تهديدا، فإنه يطلب تدخلا بشريا لاتخاذ قرار سريع بشأن اطلاق النار أو عدم الإطلاق.

مثل هذه الأنظمة مقبولة عموما كأدوات مشروعة للحرب. لكن الأسلحة الهجومية المستقلة ذاتيا بالكامل هي مسألة مختلفة. فهى تطرح أسئلة صعبة حول ما إذا كان بإمكان هذه الأسلحة الالتزام بالواجب الأخلاقي لحماية أرواح المدنيين خلال الصراعات. وهناك أيضا واجب أخلاقي آخر يتم التغاضي عنه بسهولة في هذا النقاش: وهو حماية المدنيين المعرضين للخطر من قبل الجهات الفاعلة غير الحكومية التي ترتكب عمدا أعمال عنف جماعي وإرهاب ضد الأبرياء.

من وجهة نظري، أي اقتراح لحظر الأسلحة المستقلة الفتاكة يجب أن يأخذ في الاعتبار الحروب غير التقليدية وغير المتماثلة وغير النظامية التي تقوم بها الجهات الفاعلة غير الحكومية التي تتجاوز الحدود الوطنية—وآثار هذه الصراعات على المدنيين. تزدهر غالبا الجهات الفاعلة غير الحكومية على وجه التحديد بسبب عدم إمكانية تمييزها عن السكان المدنيين المحليين. وتزدهر أيضا من خلال الاستفادة من المناطق الوعرة مثل الجبال والصحاري، ومن خلال التسلل عبر الحدود التي يسهل اختراقها، ومن خلال الاعتماد على مساعدات دول أو جهات حكومية متواطئة. يمكن للجيوش التغلب أحيانا على المزايا التي تتمتع بها الجهات الفاعلة غير الحكومية، لا سيما من خلال الاستخدام الأمثل للتكنولوجيا بما في ذلك الطائرات بدون طيار (المدعومة باستخبارات جيدة). لكن الجيوش تجد إشكالية كبيرة أمام تحقيق النصر على الجهات الفاعلة غير الحكومية بالشكل التقليدي. وفي مقابل ذلك، تكافح الجيوش من أجل حماية المدنيين.

هل يمكن لأسلحة مستقلة بالكامل ذات قدرات متطورة للغاية القيام بتغيير هذه المعادلة؟ هل يمكنها، بدلا من تعريض المدنيين للخطر، إنقاذ حياة الرجال والنساء والأطفال الذين يقعون بدون ذنب في مناطق نزاعات عنيفة؟ إذا تمكنت الأسلحة المستقلة من أن تشل أهداف العدو مع تقليل الأضرار غير المرغوب فيها، فإنها تستحق أن يُنظر إليها بجدية كأسلحة يتم استخدامها في قتال جهات فاعلة غير حكومية وإرهابيين.

ليس هناك سلاح موجود حاليا يمكن وصفه بشكل صحيح بأنه سلاح هجومي مستقل قادر على قتل أهداف مشروعة بينما يتجنب قتل مدنيين. إن الذكاء الاصطناعي الحالي، والذي لا يمكنه استنساخ الذكاء البشري والقدرة على إصدار الحكم، يضع تحديات أساسية أمام سلامة المدنيين إذا تم نشره في ساحة المعركة. لكن من الأهمية بمكان أن نتذكر أن تكنولوجيا الأسلحة المستقلة هى حقل متطور. إن الأبحاث والتطورات المستقبلية قد تجعل من الممكن ترميز الآلات بقدرات للحكم النوعي والتي ليست ممكنة حاليا. التطورات التكنولوجية في المستقبل قد تسمح للأسلحة المستقلة بالتفوق على البشر في المواقف التي تحدث في ساحة المعركة.

في النهاية، أنا أفضل تنظيم استخدام الأسلحة المستقلة بدلا من فرض حظر شامل على هذه التكنولوجيا بأكملها. لكن فرض حظر شامل يبدو أمرا مستبعدا على أية حال. على سبيل المثال، أعلنت وزارة الخارجية البريطانية "نحن لا نرى أن هناك حاجة لفرض حظر" على الأسلحة المستقلة القاتلة لأن "القانون الإنساني الدولي يوفر بالفعل تنظيما كافيا في هذه الناحية". إن ما نحتاجه في رأيي هو إطار تنظيمي يحد من معدل الفتك لأنظمة الأسلحة المستقلة في المستقبل. كذلك نحتاج إلى البحث في الوسائل (برمجة مطورة، مثلا) التي من شأنها أن تحد بشكل كبير من وقوع ضحايا مدنيين بسبب أسلحة مستقلة.

أخيرا، يظل التناسب هو محور الاهتمام الأساسي، كما هو الحال بالنسبة للعديد من الجوانب الأخرى للصراعات أو الحروب المعاصرة. في الواقع، يهمني القول بأنه يمكن اعتبار الأسلحة الفتاكة المستقلة أسلحة أخلاقية طالما أن الأضرار الجانبية التي تسببها لا تتجاوز مساهماتها في السلام والأمن والاستقرار ومنع سفك دماء المدنيين على نطاق واسع.

Round 2

الأسلحة المستقلة: ليست أذكى من القنابل الذكية فحسب

من السهل أن نفترض أن الأسلحة المستقلة سوف تفوق قدرة البشر على اتخاذ القرار في ساحة المعركة في يوم من الأيام، وذلك لأن قدرتها التقنية تتحسن باستمرار. فالبشر يُصيبهم التعب على أية حال. كما يُضللون بسهولة أو يكونون متعصبين أيديولوجيا أو يفتقرون إلى إصدار حكم سليم. لكن الأسلحة المتطورة تقنيا لن تعاني من أي من هذه العيوب.

لكن هذا الافتراض ليس له أساس في الواقع، ويُعد أساسا ضعيفا لاتخاذ قرارات حول مستقبل الأسلحة المستقلة.

زميلي في هذه المائدة المستديرة، باولو سانتوس، كتب يقول إنه لا يوجد دليل علمي يدعم فكرة أن الآلات ربما "تظهر قدرا من الذكاء البشري". لكنه لا يستبعد فكرة أنه "قد تقلل الأسلحة المستقلة من وقوع خسائر بين المدنيين الى الحد الأدنى بينما تحسن من إمكانية تنفيذ مهام ناجحة". هنا يسير سانتوس على خط رفيع وغريب بعض الشيء— كما يفعل الشيء نفسه عندما يتعلق الأمر بحظر الأسلحة المستقلة أو تنظيمها. فهو يفضل ألا يكون هناك وجود للأسلحة المستقلة مطلقا. لكنه يشعر بالقلق لأن فرض حظر، وهو أمر غير ممكن عمليا، من شأنه أن يشجع على إنشاء مختبرات سرية. لذا فقد انحاز إلى جانب التنظيم.

في الوقت نفسه، تشعر مونيكا تشانسوريا بقلق بالغ إزاء حماية المدنيين من الإرهابيين. وعلى هذا الأساس فهى تجادل ضد حظر الأسلحة المستقلة. لكن أنظمة الأسلحة المستقلة ليس لها علاقة بالإرهاب، ولا تشكل وسيلة لاستهداف الإرهابيين. هذه الأنظمة ليست وسيلة لـ"كسب" "الحرب" ضد الارهاب. إنما هى مجرد أسلحة يمكنها تتبع الأهداف واختيارها وإطلاق النار عليها من دون تدخل بشري.

غير أنه إذا رغب المرء أن يعتقد، كما تعتقد تشانسوريا، بأن أنظمة الأسلحة المستقلة سوف تكتسب في يوم ما القدرة على التمييز بين الإرهابيين والمدنيين (وبالتالي تتتبع وتختار إنسانا دون آخر)، إذن يجب على المرء أن يعتقد أنه سيتم دمج ذكاء اصطناعي متطور للغاية في هذه الأنظمة بحيث تفوق الذكاء البشري في القدرة على القيام بتمييز معين.

إذا لم أفترض أن التقنية سوف تعتمد على ذكاء اصطناعي يفوق الذكاء البشري، سيكون من الصعب علىّ أن أتصور كيف ستكون مثل هذه الأنظمة قادرة على تحديد الأفراد الذين لا يرتدون زيا رسميا موحدا لكنهم يشاركون بفعالية في أعمال عدائية. وعلى حد قول ستيوارت راسل، وهو خبير بارز في مجال الذكاء الاصطناعي في جامعة كاليفورنيا في بيركلي: "(المقاتل) لا يندرج تحت الفئة البصرية". بل تحت فئة من الأشخاص الذين يعملون في مجموعة غير محددة من الأنشطة. مما يعني أنه إذا لم يرتدِ البشر أجهزة استشعار يمكن أن تتبعها الأسلحة المستقلة، فلن يتمكن الذكاء الاصطناعي من تقديم "تفسيرات ذات مغزى للصور" (على حد قول سانتوس) في ساحة معركة معقدة حيث يشترك البشر في مجموعة غير محددة من السلوكيات.

إن الحصول على وضوح بشأن الأسلحة المستقلة يعني التخلي عن فكرة أنها ليست سوى أسلحة أكثر ذكاء من القنابل الذكية. إن الذخائر الموجهة بدقة والتي "تقلل من الأضرار الجانبية" تكون فقط دقيقة في قدرتها على تحديد موقع معين في وقت ومكان محددين. لكن يظل هذا الموقع مُحددا من قبل الإنسان، سواء تم رسمه بواسطة إنسان يستخدم الليزر أو تم توجيهه بواسطة إحداثيات وأقمار صناعية. فالإنسان هو من يختار هذا الهدف. أما دقة السلاح فتهتم فقط بإمكانية إصابة السلاح المكان المحدد بالضبط. لكن في المقابل، تقوم الأسلحة المستقلة باختيار أهدافها الخاصة، وكذلك اختيار الذخيرة التي ستطلقها نحو الهدف. هذه الذخيرة قد تكون "قنبلة ذكية" أو "قنبلة غبية" لكن الدقة ليست هى القضية هنا. فالقضية هى اختيار الهدف ذاته.

لذا، ليس من المفيد خلط المسائل من خلال إساءة تصنيف الأسلحة المستقلة، أومناقشة انتشارها في بيئات غير ملائمة من الناحية العملية، أو افتراض أن تطويرها سوف ينتج عنه حرب نظيفة مع أضرار جانبية أقل. هذه الأساليب لا تقدم شيئا لمواجهة التحديات الحقيقية التي تشكلها الأسلحة المستقلة. إن ما نحتاجه حقا هو أن يقوم المجتمع الدولي والمنظمات الدولية مثل الأمم المتحدة باتخاذ موقف حاسم وفي الوقت المناسب في هذا الشأن. كيف يمكن أن ينجح القانون التنظيمي؟ ما هو الشكل الذي يمكن أن يتخذه الحظر؟ هذه هي الأسئلة التي يجب أن تجيب عليها الدول الأعضاء. وقد حان الوقت لبدء الإجابة على هذه الأسئلة وأن نتوقف عن الانخراط في ثرثرة بلا معنى.

الأسلحة المستقلة والبحث المضني عن السلامة المدنية

أبدى الكاتبان الآخران في هذه المائدة المستديرة مخاوف معقولة بشأن الأسلحة المستقلة، لكنهما أوْلًيا قدرا قليلا من الاهتمام بمذابح المدنيين التي يرتكبها إرهابيون— هذه المذابح التي ربما تسهم أنظمة الأسلحة المستقلة بموجب قانون تنظيمي فعال في تخفيضها في يوم من الأيام.

إن الأسلحة المستقلة الفتاكة تستلزم وضع قانون تنظيمي دولي فعال— هذه هى إحدى النقاط التي يتفق عليها جميع الكتّاب في هذه المائدة المستديرة. لكن الكاتبة هيذر روف جادلت لصالح فرض حظر شامل على الأسلحة المستقلة بالإضافة إلى تنظيمها. غير أن سنّ حظر شامل يعتبر أمرا مستبعدا. مما يجعل وجود قانون تنظيمي دولي، تتم إدارته بواسطة نظام فعال، هو السبيل الوحيد للمضي قدما في هذا الصدد. ومن الناحية المثالية، فإن مثل هذا القانون التنظيمي سوف يقلل من الأضرار الجانبية التي قد تنتج عن استخدام الأسلحة المستقلة، كما سينظم تطوير الأسلحة وانتشارها. إلا أن الغاية القصوى من أي نظام تنظيمي سوف تتمثل في تعزيز فرص الأسلحة المستقلة للمساهمة في السلامة المدنية بدلا من الانتقاص منها.

إذن، هل هناك احتمال أن تشكل الأسلحة المستقلة مخاطر على المدنيين؟ بالتأكيد. فكما جادلت روف في الجولة الأولى، بأنه على الرغم من أن التطورات التقنية في المستقبل قد تمكن الأسلحة المستقلة من تحديد أهداف مشروعة، فإن هذه التطورات "لن تضمن عدم استهداف المدنيين". لكن هذه الملاحظة، برغم صحتها، تغفل المخاطر المُعَرّض لها المدنيون من قبل الجهات الفاعلة غير الحكومية التي تزدهر بسبب عدم إمكانية تمييزها عن السكان المدنيين المحليين. لنأخذ الهند كمثال توضيحي. وفقا لمعهد ادارة الصراع في نيودلهي، فإن حوالي 21 ألف شخص هندي من المدنيين وأفراد الأمن قد قتلوا في أعمال عنف إرهابية منذ عام 1988. لذا، رغم أنه لا يمكن القول بأن الأسلحة المستقلة سوف تعزز بالضرورة من سلامة المدنيين بدلا من الانتقاص منها— لأنها لا تزال تقنية قيد التطوير— يمكن للمرء أن يجادل عن اقتناع بأن سلامة المدنيين، في عدم وجود أسلحة مستقلة، مهددة بشدة من قبل الجهات الفاعلة غير الحكومية. في الواقع، فإنه من الصعب في ظل هذه الظروف التوصل إلى "فهم واضح" لمصطلح "السلامة المدنية" كما تريد روف. إذ إن أي بحث من هذا القبيل، وسط حركات التمرد والحروب الأهلية أو أنواع أخرى من العنف اللامتماثل، سوف يكون مضنيا.

في الوقت نفسه، جادل باولو سانتوس بأنه تم "تقبّل الأسلحة المستقلة في الحروب" لأن المجتمع الحديث قد تقبل "الحرب على أنها لعبة فيديو". ولكن في مكان مثل الهند، لم يتقبل المجتمع الحرب مطلقا—بل إن الحروب بأشكالها غير التقليدية وغير المتماثلة وغير المنتظمة تم فرضها على الهنود من قبل الجهات الفاعلة غير الحكومية والعابرة للحدود الوطنية. حيث تتلقى هذه المجموعات من دول أو هيئات حكومية متواطئة الموارد اللازمة للقيام بأعمال إرهابية. هذه النوعية من الحروب، التي تهدد السكان المدنيين، تخلق حالة من عدم استقرار في المنطقة، هذه الحالة في حد ذاتها يمكن أن تفرخ مزيدا من الأعمال الإرهابية أو حركات تمرد مسلحة.

إن الدول الديمقراطية المنفتحة التي تعتبر الحرية قيمة أساسية— وهى الدول التي يسعى قادتها للتصرف كأصحاب مصالح دوليين مسؤولين— لا تستهدف المدنيين الأبرياء. لكن الذي يستهدفهم هى الشبكات غير الحكومية التي توظف العنف الجماعي ضد المدنيين لصالح أجنداتها الخاصة. مثل هذا الاختلال في التوازن يضع الدول الديمقراطية في وضع سيئ بشكل تلقائي ويعرض المدنيين لخطر داهم. إذا كان بإمكان أنظمة الأسلحة المستقلة بموجب قانون تنظيمي فعال منع القتل الجماعي للمدنيين مع التقليل من الأضرار الجانبية، فهى إذن تستحق الدراسة الجادة باعتبارها تقنية مشروعة يمكن توظيفها أثناء النزاعات والحروب.

مستقلة ذاتيا وغير خاضعة للمساءلة

بالرغم من اتفاق المشاركين في الجولة الأولى من هذه المائدة المستديرة على أنه ينبغي أن تكون الأسلحة المستقلة خاضعة لتنظيم دولي، لم يخصص أي منهم وقتا كافيا لدراسة الكيفية التي يمكن من خلالها إنشاء مثل هذا الإطار التنظيمي.

ربما كان ذلك راجعا إلى أن المؤلفين الثلاثة ركزوا على عدة نقاط—برغم أنه يصعب الاختلاف عليها— كان من المهم توضيحها في البداية. إذ ينبغي أن تمثل سلامة المدنيين أولوية قصوى في زمن الحرب وزمن السلم على حد سواء. وأنه ليس بإمكان الأسلحة المستقلة أن تزيد من فرص النجاح العسكري وأن تقلل من خطر الأضرار الجانبية في الوقت الحاضر، لكنها قد تكتسب تلك القدرات في يوم من الأيام. وأنه يمكن أن تقوض الأسلحة المستقلة المتقدمة، في حال تم نشرها، حقوق الإنسان الأساسية.

في ضوء ما سبق، جادلت أنا ومونيكا تشانسوريا لصالح تنظيم الأسلحة المستقلة بدلا من حظرها— على الرغم من أن كلانا توصّل إلى هذا الرأي لأسباب مختلفة للغاية. أما هيذر روف فقد جادلت لصالح التنظيم والحظر على السواء. غير أن  كل مؤلف ناقش بإيجاز كيفية إنشاء قانون تنظيمي— وهو أمر صعب باعتراف الجميع. إن الهدف من الأسلحة المستقلة، بحكم التعريف، هو قيامها باتخاذ قرارات من تلقاء نفسها. فكيف يمكن تحديد مسؤولية الجرائم التي ترتكبها؟ وعلى من يقع اللوم إذا تعطلت إحدى الأسلحة المستقلة الفتاكة؟

ولك أن تأخذ في الاعتبار عدد المرات التي سمعت فيها عبارة مثل "المشكلة نجمت عن خطأ في النظام". مثل هذا الوصف يوقف عادة إجراء مزيد من المناقشات. لذلك فمن السهل أن نتخيل سيناريوهات يتم فيها قتل مدنيين أبرياء، ربما بالعشرات، دون أن يخضع أحد للمساءلة لأن اللوم يقع على "خطأ في النظام". إذن على من يقع اللوم؟ هل يقع على قائد المهمة العسكرية الذي نشر سلاحا مستقلا، متوقعا أنه سيتعامل مع هدف ملائم؟ أم يقع على مطوري الأسلحة الذين ليس لهم أية علاقة بتحديد الأهداف؟

إن الأسلحة المستقلة سوف تخلق بشكل تلقائي ثغرات في المساءلة. لكن تحديد المسؤولية عن أفعال الآلات العسكرية المستقلة لا ينبغي حقا أن يختلف كثيرا عن تحديد المسؤولية عن العمليات العسكرية الأخرى: إذ ينبغي أن تتبع المسؤولية التسلسل القيادي. لذا، ينبغي على المنظمة أو الأفراد الذين أصدروا الأمر باستخدام سلاح مستقل أن يتحملوا مسؤولية أفعال تلك الآلات. ولا ينبغي أبدا أن يكون "فشل النظام" مبررا لخسائر بشرية لا داعي لها. إذا أدرجت تلك الفكرة في القانون الإنساني الدولي وقانون حقوق الإنسان الدولي— الذين يحكمان حاليا العناصر البشرية فقط، وليس الآلات— فقد يقدم هذان المجالان من القانون الدولي (اللذان تناولتهما روف باستفاضة في الجولة الأولى) أساسا كافيا لتنظيم الأسلحة المستقلة.  

لقد تعلم البشر كيفية التعايش مع الابتكارات العسكرية بدءا من القصف الجوي وانتهاءً بالأسلحة النووية. كما تعلموا التعايش حتى مع الهجمات الإرهابية. وبطريقة مماثلة، سوف يعتاد الناس على الاستقلالية المتزايدة في الآلات القاتلة. لكن لا ينبغي أبدا أن يحول ذلك دون تقديم الأشخاص المسؤولين عن جرائم حرب إلى العدالة، بغض النظر عن الأدوات المستخدمة في ارتكاب تلك الجرائم.

من جانب آخر، ليس من الواضح ما إذا كان المجتمع الدولي سوف يكتشف حالات قامت فيها أسلحة مستقلة بقتل مدنيين أبرياء. كما أن السرّية التي تكتنف برنامج الولايات المتحدة العسكري  للطائرات بدون طيار لا تبعث كثيرا على الثقة في هذا الصدد. إن الثغرات التي تتعلق بالمساءلة تكون شائعة في زمن الحرب. هذه الثغرات تنجم عن السرية الكامنة في العمليات العسكرية وعدم اكتراث وسائل الإعلام والمواقف العامة النابعة من الجهل. إن الثغرات المتعلقة بالمساءلة—والتي ستظل باقية سواء في وجود الأسلحة المستقلة أو عدم وجودها—سوف تحرك عقرب الدقائق في ساعة يوم القيامة باتجاه منتصف الليل بشكل أسرع من الأسلحة المستقلة.

Round 3

تمييز الأسلحة المستقلة عن الأسلحة الآلية

جادل زميلاى في هذه المائدة المستديرة، باولو سانتوس ومونيكا تشانسوريا، لصالح تنظيم الأسلحة المستقلة بدلا من حظرها. لكنهما لم يحددا بالضبط ما هى الأسلحة التي سيتم تنظيمها. وهذا إغفالٌ مثير للازعاج— إذ ينبغي على أي شخص يجادل لصالح تنظيم الأسلحة أو استعمالها أن يكون لديه فكرة واضحة تماما عما ينطوي عليه هذا التنظيم.

الأسلحة المستقلة، وفقا لوزارة الدفاع الأمريكية، هي الأسلحة التي تختار هدفا وتطلق عليه النار دون تدخل عامل بشري. لكن ما الذي تعنيه كلمة "تختار" بالضبط؟ وماذا تعني كلمة "تدخل؟" هذه الأسئلة دقيقة بصورة أكبر مما تبدو عليه في الظاهر.

قد تعني كلمة "تختار" مسح مكان معين بحثا عن جهاز استشعار— على سبيل المثال، اشارات لرادار أو صورة لوجه إنسان. لكن في هذه الحالة فإن السلاح لا يختار الهدف، بل يتعقب هدفا تم تحديده مسبقا. فالإنسان هو الذي اختار الهدف في الواقع، إما عن طريق برمجة معالم الهدف أو تحديد الهدف ذاته أو المنطقة المستهدفة. فالأسلحة من هذه النوعية ليست أسلحة مستقلة في الحقيقة، بل هى أسلحة آلية.

من جانب آخر، يمكن أن تشير كلمة "تختار" إلى مجرد استشعار الهدف. لكن الجيوش الحديثة سوف تجد مثل هذا التفسير إشكاليا. فالعديد من أنظمة الأسلحة الحالية— صواريخ كروز والأنظمة المضادة للصواريخ وصواريخ الهاون والطوربيدات والألغام البحرية— تستشعر الأهداف وتطلق عليها النار. كما أنه من المستبعد للغاية أن تقوم أي دولة بتصنيف هذه الأنظمة على أنها أسلحة مستقلة.

إذن فما الذي يميز الأسلحة المستقلة عن الأسلحة الآلية— ومن ثمّ يتم إخضاعها للتنظيم أو الحظر؟ سوف أجيب على هذا السؤال من خلال التمييز بين الأسلحة الآلية المتطورة وبين أنظمة الأسلحة المستقلة محدودة التعلم.

الأسلحة الآلية المتطورة غير قادرة على التعلم أو على تغيير أهدافها. ولكن نظرا لقدرتها على التحرك، وفي بعض الحالات قدرتها الملاحية المستقلة، تكون قادرة على أن تدمر السكان المدنيين. وعلاوة على ذلك، فإنه لا يمكنها الالتزام بمبادئ الضرورة والاحتياطات والتناسب. ولذلك، فإنها على الأرجح سوف تُستخدم كأسلحة مضادة للمعدات، ولن تُستخدم كأسلحة مضادة للأفراد.

وفي الوقت نفسه، فإن الأسلحة محدودة التعلم قادرة على التعلم وعلى تغيير أهدافها الفرعية حين يتم نشرها. إنها تختار بالفعل هدفها من بين مجموعة من الأشياء أو الأشخاص. وباختصار، فإنها تتعقب أهدافا عسكرية— مثلما يقرر الجنود ما اذا كانوا سيطلقون النار على شخص أو مركبة أو مبنى أو ما هى أفضل السبل للـ"صعود إلى تل". هذه فعلا هى أنظمة الأسلحة المستقلة. (وبالمناسبة، لم تعلن أي دولة تأييدها لاستخدام الاسلحة المستقلة ضد الأفراد. حتى الدول التي تعارض فرض حظر على استخدام الأسلحة المستقلة أو تعارض تنظيمها تؤكد على أن أنظمة الأسلحة المستقلة يمكن أن تستخدم فقط في "الحالات المناسبة من الناحية العملية" في " بيئات غير مزدحمة". لذا، فإن اقتراح تشانسوريا بأن الأسلحة المستقلة يمكن أن تستخدم في عمليات مكافحة الإرهاب ليس له ما يدعمه في الدوائر الدبلوماسية أو العسكرية).

أشار زميلاى أيضا إلى أنني أنكرت إمكانية أن يتفوق الذكاء الاصطناعي على بعض القدرات البشرية، أو أنني أنكرت أن يكون الذكاء الاصطناعي ملائما للقيام بمهام معينة بشكل أكبر من البشر. لكنني لا أنكر أي شيء من ذلك— وهذا هو بالضبط سبب تخوفي من المخاطر التي يمكن أن تشكلها الأسلحة محدودة التعلم إذا ما طُورت واستُعملت في ساحة المعركة. هذه المخاطر— والتي تشمل تغيير ملامح الحرب وأيضا ملامح السلامة المدنية والحرية في وقت السلم— هى مخاطر عظيمة ولذلك يجب فرض حظر تام على الأسلحة التي تشكل مثل تلك المخاطر. وقبل أن يُشيد أي شخص، مثلما أشادت تشانسوريا، بأسلحة مستقبلية قادرة على إصدار "أحكام نوعية"، فمن الأفضل أن نتذكر أنه لا يمكن أن تظهر "الأحكام النوعية" إلا بعد أن تكون التقنيات المستقلة قد اجتازت بصعوبة بالغة نقطة وسط تجمع بين ذكاء "محدود" وقدر قليل من إصدار الأحكام.

أسئلة صعبة. إذن ما الذي ينبغي القيام به، بطريقة عملية، تجاه أنظمة الأسلحة الواردة في هذه المائدة المستديرة؟
 
عندما يتعلق الأمر بالأسلحة الآلية المتطورة، يتعين على الحكومات التفكير مليا حول ما إذا كان ينبغي نشر هذه الأسلحة في بيئات معقدة. وينبغي على الدول أن تضع لوائح بشأن الكيفية التي يمكن أن تُستخدم بها. لكن يجب أن يتم حظر الأنظمة المستقلة بالفعل— سواء كانت أسلحة محدودة التعلم أو حتى أسلحة أكثر تطورا. إن استخدام هذه الأسلحة سوف يحمل مخاطر هائلة للمدنيين، وقد يصعد الصراعات، ومن المرجح أن يتسبب في إحداث سباق تسلح في الذكاء الاصطناعي، وقد يخلق حاجة إلى شبكات استشعار في جميع ساحات المعارك (والمدن). وفي الواقع، فإن أنظمة المراقبة المنتشرة وحدها تسبب مخاوف تكفي لتبرير فرض حظر على الاسلحة المستقلة.

كما إنه من غير المقنع الادعاء بأنه من غير المرجح، كما ادعى زميلاى، أن يتم فرض حظر على الأسلحة المستقلة أو أن مثل هذا الحظر سيكون غير عملي إذا تم فرضه. هناك تقنيات أخرى تم منعها قبل أن يتم استخدامها، مثل أشعة الليزر المسببة للعمى— فلم لا يكون الحال كذلك بالنسبة للأسلحة المستقلة؟ ومثلما تم حظر الأسلحة الكيميائية بدعم من علماء العالم والصناعات الكيميائية، فيمكن أن تُعالج التحديات التي تشكلها الأسلحة المستقلة من خلال التعاون بين العلماء والمتخصصين في علم الروبوتات والصناعة الخاصة بهذه التقنية.وعلاوة على ذلك، فإن بعض الجيوش لديها بالفعل القدرة على إدماج لوغاريتمات محدودة التعلم في أسلحتها، لكنها لم تنتشر هذه القدرات بسبب عدم التيقن والمخاطرة. فإذا كانت الجيوش تظهر ضبطا للنفس، فلماذا لا يتم الضغط عليها لرفض الأسلحة المستقلة تماما؟

إن الأسلحة المستقلة تنطوي على أسئلة صعبة وتحديات خطيرة، وقد حان الوقت لمعالجتها جميعا. لكن اقتراح أفكار مفرطة في التفاؤل حول طبيعة الصراع في المستقبل لن يحقق شيئا في هذا الصدد.

الأسلحة المستقلة: مفيدة لو نُظمت بشكل جيد

كوبا والاكوادور ومصر وباكستان والفاتيكان—هذه الدول الخمس فقط، من أصل 87 دولة أرسلت ممثلين لها إلى مؤتمر الامم المتحدة حول الأسلحة المستقلة الفتاكة عام 2014، هى التي قدمت بيانات تطالب بحظر أنظمة الأسلحة المستقلة. في الوقت نفسه، قد تكون هناك عشرات من الدول الأخرى تقوم بتطوير روبوتات عسكرية. في مثل هذه البيئة، يبدو أن حظر الأسلحة المستقلة الفتاكة أمر مستبعد للغاية— كما أنه من المستبعد أيضا أن يكون الحظر عمليا في حال تم فرضه.

يبدو أن زميلتي في هذه المائدة المستديرة "هيذر روف" تستبعد تماما إمكانية تفوق الأسلحة االمستقلة على البشر فيما يتعلق باتخاذ القرارات في ساحة المعركة. وفيما يتعلق بهذه النقطة، دحض باولو سانتوس حجة روف— حيث استشهد بأبحاث علمية تشير إلى أن اللوغاريتمات الحديثة للتعرف على الوجوه يمكنها أن تتفوق على البشر في مطابقة الأوجه. ثم احتج بأن الأسلحة المستقلة قد تتفوق على البشر في بعض المواقف لأنها ليست بشرا على وجه التحديد. ويقول العالم ستيفن جروفز في "مؤسسة التراث" الأمريكية إن الأسلحة المستقلة "قد يكون أداؤها أفضل من البشر في البيئات الخطرة التي قد يتصرف خلالها المقاتل البشري بدافع من الخوف أو الغضب".

وخلافا لما اقترحته "روف"، يمكن للأسلحة المستقلة أن تلعب عددا من الأدوار العسكرية المفيدة— مع توافقها التام مع القانون الإنساني الدولي. يقول جروفز إن الأسلحة المستقلة المستخدمة في بيئات العمليات قد تقوم في يوم ما بمهاجمة تشكيلات من الدبابات في مناطق نائية مثل الصحارى— أو تهاجم سفنا حربية متمركزة بعيدا عن طرق الملاحة التجارية. مثل هذه الاستخدامات للأسلحة المستقلة ستكون متوافقة مع مبدأ التمييز— وهو أحد عناصر القانون الإنساني الدولي الذي يطالب أطراف النزاع بالتمييز بين المدنيين والمقاتلين وتوجيه الهجمات فقط ضد الصنف الأخير. أما في مناطق القتال التي تخلو من المدنيين أو أهداف مدنية، سيكون من المستحيل أن تنتهك الأسلحة المستقلة مبدأ التمييز.

كذلك، يمكن أن تؤدي الأسلحة المستقلة المنتشرة في الجو مهاما عسكرية مهمة مع الالتزام بمبدأ التناسب في الهجوم، وهو عنصر آخر للقانون الإنساني الدولي. فمثلا، قد تقوم أسلحة مستقلة بمطاردة طائرات العدو في المناطق التي لا يُسمح فيها للطائرات المدنية بالطيران. تلك الأسلحة قد تكون مبرمجة على التعرف على طائرات العدو من خلال أشكالها واشاراتها الحرارية والحد الأدنى لسرعة طيرانها، وما شابه ذلك— إذ كل تلك الأشياء تميز الطائرات الحربية عن المدنية. في مثل هذه الحالات، لا يمكن أن تتضاءل مزايا مهاجمة طائرات العدو أمام خطر سقوط ضحايا كثيرة من المدنيين. إذ إن نسبة الخطر تقترب من الصفر. يقول جروفز إن نفس الشيء ينطبق تقريبا على الأسلحة المستخدمة تحت الماء— فأنظمة الأسلحة المستقلة يمكنها القيام بدوريات في المياه ومهاجمة غواصات العدو دون أن تشكل قدرا كبيرا من خطر وقوع أضرار جانبية مفرطة. لكن من الواضح أن روف لم تضع شيئا من ذلك في اعتبارها وأصدرت حجة عامة ضد الأسلحة المستقلة.

لا يمكن للاستراتيجيات والتكتيكات العسكرية التقليدية وحدها أن تتعامل بشكل كاف مع بعض التحديات الموضوعة أمام الدول الديمقراطية الليبرالية من قبل الجهات الفاعلة غير الحكومية والعابرة للحدود الوطنية، بما في ذلك أشكال الصراعات غير التقليدية وشبه التقليدية وغير المتماثلة وغير النظامية. كما يجب على الدول أن تحد من نطاق وكثافة القوة العسكرية التي تطبقها بسبب المعايير التي تتطلب التقليل من الأضرار الجانبية والمحافظة على التناسب. لكن الجهات الفاعلة غير الحكومية لا تحترم هذه القواعد. وهذا يحدث نوعا من عدم التماثل السياسي والنفسي الذي يجب معالجته في ساحات المعارك في المستقبل. لذا لا ينبغي رفض الأسلحة المستقلة نظرا لأنه يمكنها في ظل نظام ملائم أن تساعد في تحقيق هذه المهمة.

لقد قلت في الجولة الأولى إنه يمكن اعتبار الأسلحة الفتاكة المستقلة أسلحة أخلاقية طالما أن الأضرار الجانبية التي تسببها لا تتجاوز "مساهماتها في السلام والأمن والاستقرار ومنع سفك دماء المدنيين على نطاق واسع". إن موقفي هذا يتوافق مع قول العالم جيمس جاي كارافانو في "مؤسسة التراث" بأن الأسلحة المستقلة لديها "القدرة على زيادة الفعالية … في ساحة المعركة، بينما… تقلل الأضرار [الجانبية] والخسائر في الأرواح البشرية". إنني استمسك بما قلته في الجولة الأولى— وأقف ضد فرض حظر على الأسلحة المستقلة الذي يعد أمرا مستبعدا وغير عملي.

حظر الأسلحة المستقلة: أمر غير عملي وغير فعال

لطالما تفوقت أجهزة الكمبيوتر على البشر في القيام بوظائف معينة يُنظر إليها على أنها تتطلب قدراً من "الذكاء". أحد الأمثلة الشهيرة على ذلك هى آلة "بومبا" التي تم تطويرها خلال الحرب العالمية الثانية في حديقة بلتشلي، والتي مكّنت المملكة المتحدة من فك رسائل مشفرة بواسطة آلات "إنيجما" التابعة للجيش الألماني. وفي عام 1997، فاز حاسوب "ديب بلو" الذي أنتجته شركة "آي.بي.إم" على بطل العالم في الشطرنج جاري كاسباروف في مباراة مكونة من ستة أدوار. وفي عام 2011، ظهر حاسوب "واتسون" الذي أنتجته شركة "آي بي إم"— والذي "يستخدم معالجة اللغة الطبيعية والتعلم الآلي للكشف عن معلومات من بين كميات كبيرة من البيانات غير المنظمة"— على شاشة التلفزيون في برنامج المسابقات "Jeopardy " حيث تغلب على فائزين سابقين بجائزة البرنامج. لذا، أرفض ما اقترحته زميلتي هيذر روف في مقالتها الثانية بأنني قد ناقضت نفسي عندما قلت، من جهة، إنه يستحيل على الأرجح أن يصل الذكاء الاصطناعي إلى مستوى الذكاء البشري؛ ومن جهة إخرى إنه قد تقوم الأسلحة المستقلة في المستقبل بتنفيذ بعض المهام العسكرية بشكل أفضل من المقاتلين البشريين. فمن وجهة نظري، لا يوجد تناقض بين الأمرين .

وفي سياق مماثل، رفضت روف الحجة التي كتبتها مونيكا تشانسوريا، المشاركة الثالثة في هذه المائدة المستديرة، بأن الأسلحة المستقلة قد تصبح مفيدة في مكافحة الإرهاب. حيث ترى روف أن الآلات لن تكون قادرة على التمييز بين الإرهابيين والمدنيين لأنّ هذه القدرة تتطلب "ذكاء اصطناعي متطور للغاية يفوق الذكاء البشري في القدرة على القيام بتمييز معين". غير أن بعض النتائج تدل على أن اللوغاريتمات الحديثة للتعرف على الوجوه يمكنها أن تتفوق على البشر في مطابقة الأوجه. في الحقيقة، عندما يتعلق الأمر بالقدرات التي من شأنها أن تتيح للأسلحة المستقلة مكافحة الإرهاب بشكل فعال، تصبح قدرة التعرف على الوجوه بدقة بالغة في ظل ظروف مراقبة متفاوتة هى القدرة الرئيسية. وبدون شك، تواجه الآن اللوغاريتمات التي تشكل الأساس للدقة الآلية عددا من القيود، مثل عدم القدرة على تفسير الأوضاع المتغيرة بسرعة. لكني لا أرى سببا يمنع من التغلب على هذه العقبات في المستقبل (حتى لو أسفر الأمر في النهاية عن إمكانية استخدام هذه الدقة الآلية بشكل أفضل في أنظمة المراقبة بدلا من الأسلحة الآلية).  

إن المشكلة الحقيقية في نشر أنظمة أسلحة مستقلة فتاكة لمكافحة الإرهاب تكمن في أن قتل إرهابيين مشتبه بهم— بجانب حرمانهم من الحق في المثول أمام محاكمة عادلة— سيكون بمثابة اغتيال من قبل الدولة. وعلى أي حال فإن مفهوم "الإرهاب" مشحون أيديولوجيا. على سبيل المثال، كان يمكن أن تُفسر حركات الاستقلال في الأمريكتين خلال القرنين الـ18 والـ19 على أنها حركات إرهابية في العواصم الأوروبية آنذاك.

مهمة دقيقة. تجادل روف لصالح فرض حظر على الأسلحة المستقلة الفتاكة. وكوني أحد دعاة السلام، أوافق على أن فرض حظر تام هو أفضل نهج، وذلك من الناحية المثالية. لكن معظم نظم التشغيل الآلي قد تم دمجها بالفعل في تصميم الأسلحة مما يجعل حظر الأسلحة المستقلة الفتاكة يبدو أقرب إلى وقف تطوير الحرب نفسها— وهو أمر مستحيل عمليا. وحتى لو تم فرض حظر، فمن المرجح أن يكون غير فعال (وربما وُصف بأنه ساذج). ولنفترض أنه تم تنفيذ حظر في ظل ظروف مماثلة لتلك التي وُصفت في الرسالة المفتوحة عن الأسلحة المستقلة التى أرسلها العام الماضي باحثون في مجال الذكاء الاصطناعي والروبوتات، حينها سوف يتم حظر تطوير الأسلحة الفتاكة المستقلة ذاتيا بالكامل— لكن لن يتم حظر الآلات القاتلة التي يتم التحكم فيها عن بعد وصواريخ كروز وغيرها من الأسلحة ذات مستويات مختلفة من التشغيل الآلي. في هذه الحالة، كيف يمكن للمجتمع الدولي أن يكون متيقنا من أن الأسلحة التي يُتحكم فيها عن بعد والمستخدمة في صراع ما لا يتم التحكم فيها بشكل كامل بواسطة آلة اصطناعية؟ إذ ليس من الضروري أن تتغير واجهة السلاح وفقا للمتحكم فيه سواء كان إنسانا أو آلة اصطناعية. ويمكن للبشر مراقبة حركات السلاح في كلتا الحالتين. لكن قد يتخذ الإنسان قرارات الاستهداف في إحدى الحالات، بينما يقوم الذكاء الاصطناعي بفعل ذلك في حالة أخرى.

هذا هو أحد الأسباب التي تجعلني أفضل وضع قانون تنظيمي قوي للأسلحة المستقلة بدلا من فرض حظر تام على تلك التقنية. إن القانون التنظيمي سوف يوفر الأدوات اللازمة لتحليل وفهم زيادة نظم التشغيل الآلي في الحروب. وسوف يتضمن ذلك فرض قيود على تطوير واستخدام الأسلحة المستقلة. كما سيقوم بتوجيه ضربة ضد القتل الآلي ​​والاغتيالات التي ترعاها الدولة.

إذا كان القانون التنظيمي هو المسار الصحيح، إذن تصبح المسألة هى كيف نقوم بتغيير القانون الإنساني الدولي وقانون حقوق الإنسان، وهى قوانين تحكم حاليا البشر فقط، حتى يمكنها التعامل مع نظم التشغيل الآلي في الحروب. لا شك أن هذه المهمة ستكون دقيقة للغاية، ولن تكون سهلة. غير أن المصنفات التي يمكن أن تستند عليها المناقشات موجودة بالفعل. لقد حان الوقت للبدء في هذا المشروع— بدلا من السعي وراء حظر قد لا يتم فرضه أبدا وإذا تم فرضه فلن يكون فعالا.


Share: [addthis tool="addthis_inline_share_toolbox_w1sw"]

RELATED POSTS

Receive Email
Updates