هذه الأسلحة ستكون أشد فتكا من الأسلحة النووية والعالم يتسابق لامتلاكها
مقدمة الترجمة
في هذه المادة المنقولة عن مجلة فورين أفيرز، يتناول الكاتب موضوعا هاما وخطيرا في الآن ذاته، حيث الأسلحة المستقلة التي ستشكل جانبا من حروب المستقبل.
أما مكمن خطورة هذه الأسلحة فعائد إلى استقلاليتها الكاملة في اتخاذ قرار الاستهداف والقتل بالاعتماد على تقنيات الذكاء الاصطناعي، مما يطرح تساؤلات عديدة حول مدى الدمار الذي يمكن أن تولّده هذه الأسلحة حينما ننحّي العامل الإنساني بما فيه من مشاعر واعتبارات معقّدة جانبا بالإضافة للاعتبارات السياسية والمصلحية التي تطرأ وفق تغيرات الواقع، لتصبح الآلة هي التي تبحث عن الهدف، وتختاره، ثم تستهدفه، دون أدنى تدخل بشري سوى برمجة السلاح مسبقا.
اقرأ أيضا
list of 2 itemsأسلحة الليزر.. كيف تدمر خصمك بأقل من دولارين؟
فأي أبعاد ستحملها هذه الأسلحة إلى العالم المليء بالصراعات والحروب؟ هذا ما تسعى المادة للإجابة عنه.
نص الترجمة
في العام الماضي، زعمت شركة الطائرات المسيرة الأوكرانية "ساكر" أنها طورت سلاحًا مستقلا بالكامل يُدعَى "ساكر سكوت" (Saker Scout)، يعتمد على الذكاء الاصطناعي في اتخاذ قراراته الخاصة بشأن من يجب قتله في ساحة المعركة.
وأعلن مسؤولو الشركة أن الطائرة المسيرة شنت هجمات ذاتية على نطاق صغير. وعلى الرغم من أن مزاعم هذه الشركة لم تؤكدها أيُّ جهة خارجية مستقلة، فإن التكنولوجيا اللازمة لتصنيع مثل هذا السلاح متوفرة بالتأكيد، ناهيك بأن استخدام تكنولوجيا الذكاء الاصطناعي في تصميم وتشغيل أسلحة ذاتية التشغيل قد يشكِّل خطوة تقنية صغيرة، إلا أنه مع ذلك يحمل أبعاداً أخلاقية وقانونية كبيرة.
فعندما تغدو الأسلحة قادرة بنفسها على البحث عن الأهداف واختيارها، فإن ذلك يثير تساؤلات حول المسؤوليات والتبعات الأخلاقية لمثل هذه القرارات.
على الجانب الآخر، يؤكد انتشار طائرة "ساكر" أن الوقت المتاح لتطبيق القوانين والتنظيمات التي تحكم استخدام الأسلحة المستقلّة بات يتسرب من بين أيدينا. ولعقدٍ من الزمان، استمرت الدول في مناقشة ما يجب فعله بشأن الأسلحة الذاتية، لكنها لم تتمكن في النهاية من التوصل إلى اتفاقات لتحديد لوائح تقلل من أضرار هذه الأسلحة.
ومع ذلك، ما زالت هناك حاجة مُلّحة إلى اتفاق دولي، فالتطور غير المقيد للأسلحة الذاتية قد يؤدي إلى خطر حقيقي يتمثل في حروب تتجاوز سيطرة البشر، مع توفير قدر أقل من الحماية للجنود والمدنيين على السواء.
وحتى لو كان من الصعب تحقيق حظر شامل على الأسلحة الذاتية، فثمة العديد من التنظيمات العملية التي يمكن للحكومات اعتمادها للتخفيف من أسوأ المخاطر التي يمكن للأسلحة المستقلة أن تنطوي عليها. لكن الطريقة التي تتبناها دول العالم في تصنيع الأسلحة الذاتية دون أيّ قيود، ستتسبب في انزلاق البشرية إلى مهوى وخيم العواقب، وسنواجه خطر الاندفاع نحو مستقبل من الحروب الخطيرة التي تتحكم فيها الآلات.
على وشك الوصول
منذ ثمانينيات القرن الماضي والجيوش تستخدم أسلحة ذاتية التشغيل بصورة جزئية في ظروف دفاعية محدودة (أي أنها لا تعتمد بالكامل على الذكاء الاصطناعي أو التكنولوجيا الذاتية لاتخاذ القرارات*). واليوم تُدير ما لا يقل عن 30 دولة أنظمة تصدٍّ وحماية ضد الهجمات الجوية والصاروخية، أو لتحييد الصواريخ المعادية التي تستهدف المركبات البرية. وبمجرد تفعيلها، يمكن لهذه الأنظمة أن تستشعر تلقائيًا خطر الصواريخ ومدافع الهاون أو الطائرات القادمة، والتدخل فورًا لاعتراضها.
ومع ذلك، لا يزال هناك عنصر بشري يشرف على عمليات تشغيلها والتدخل إذا حدث خطب ما. غير أن المشكلة كانت تكمن دائمًا في حركة الجيوش البطيئة بشأن تبني تقنيات الذكاء الاصطناعي التي سبق أن طوّرها القطاع التجاري، ويعود ذلك جزئيا إلى الإجراءات البيروقراطية الطويلة والمعقدة المتعلقة بعمليات الشراء والتوريد في القطاع العسكري.
لكن ما يبعث على الأمل قليلا، أن الأمور بدأت تأخذ منحنى آخر منذ بداية الحرب الروسية الأوكرانية، فقد ساهمت هذه الحرب في تسريع وتيرة الابتكارات من الجانبين، خاصة فيما يتعلق بمجال التكنولوجيات التجارية مثل الطائرات المسيَّرة الصغيرة.
توسعت موسكو وكييف في استخدام الطائرات المسيرة لعمليات الاستطلاع والتجسس، والهجمات على القوات البرية، وأفضت هذه الاستخدامات بدورها إلى تطوير إجراءات مضادة جديدة، بما فيها أنظمة الحرب الإلكترونية التي تعطِّل روابط اتصال الطائرات المسيَّرة أو تحديد موقع المشغّلين على الأرض، الذين يمكن استهدافهم بعد ذلك بسهولة. أما من الناحية الإستراتيجية، فيبدو التركيز على المتحكمين في الطائرات المسيّرة أمرًا منطقيًا، لأن معظم هذه الطائرات مُصممة للتحكم فيها عن بُعد، وهو ما يجعل المشغِّل البشري هدفا أساسيا لاغتياله.
وبدون العامل البشري، تفقد الطائرات المسيّرة التقليدية قيمتها تمامًا. ومن هنا تكتسب الطائرات المسيرة المستقلِّة (ذاتية التشغيل) قيمتها الكبرى، إذ لا تعتمد الأخيرة على روابط اتصال ضعيفة (كالاتصالات اللاسلكية أو الشبكات التي يمكن أن تكون عرضة للتعطل أو التشويش)، بالإضافة إلى أنك لكي تواجهها، عليك العثور على الطائرة نفسها وتدميرها.
على الجانب الآخر، سيتحدد شكل الأسلحة المستقلِّة بناءً على احتياجات ومتطلبات الصراع الدائر، بمعنى أن الاستخدام الفعلي ونوعية الأسلحة المستقلة قد تختلف باختلاف طبيعة وظروف النزاع. ففي الحرب بين أوكرانيا وروسيا -على سبيل المثال- استخدمت موسكو وكييف طائرات مسيّرة صغيرة لاستهداف الأفراد ومهاجمة المركبات، بينما استعانتا بطائرات مسيّرة أكبر تُحلّق على ارتفاع متوسط للوصول إلى عمق أكبر خلف خطوط العدو (أي المناطق الأكثر إستراتيجية وحيوية) لاستهداف الرادارات والمنشآت، في حين استخدمت أوكرانيا أيضا زوارق مسيرة لمهاجمة الأسطول الروسي في البحر الأسود.
والجدير بالذكر أن جميع هذه الطائرات المسيّرة المُصممة للتحكم فيها عن بُعد، يمكن تحديثها لتغدو ذاتية التشغيل، وهو ما سيسمح بمواصلة عملها إذا ما تعطلت روابط الاتصالات.
يمكن لصراعات أخرى أن تؤدي إلى تطوير أسلحة مستقلة مختلفة، إذ تعمل العديد من الدول -بما فيها الصين وفرنسا والهند وروسيا والمملكة المتحدة والولايات المتحدة- على صناعة طائرات مسيرة قتالية متخفية، وبالتالي يمكن للحروب المستقبلية أن تشهد على القدرة الذاتية والقرارات المستقلِّة للطائرات المسيّرة في استهداف أنظمة دفاع جوية أو أجهزة إطلاق القذائف المتنقلة دون تدخل بشري. ومقارنةً بنظيراتها الجوية والبحرية، سنجد أن الروبوتات الأرضية تخلَّفت كثيرًا عن نظيراتها بالفعل.
ومع ذلك، قد تغيِّر الحروب المستقبلية مصير هذه الروبوتات وتستغلها في تثبيت الأسلحة المستقلة عليها وتنفيذ العمليات العسكرية دون الحاجة إلى توجيه بشري.
ومن المحتمل ألا تتوقف التغييرات عند هذا الحد، إذ يمكن لأسراب من الطائرات المسيرة تنسيق سلوكها ذاتيا، متفاعلةً مع التغيرات في ساحة المعركة بسرعة تتجاوز حتى القدرات البشرية. كما يمكن لردود الفعل السريعة التي تتبناها الآلة أن تُفضي إلى تسريع وتيرة العمليات، وبالتالي تسريع وتيرة المعركة، وهو ما قد يؤدي بدوره إلى زيادة الضغط لاستبعاد البشر من دورات اتخاذ القرار.
وسيكون نتاجُ ذلك كله هو التحول إلى عصر زاخر بحروب تتلمس طريقها نحو شكل جديد بقيادة الآلات التي ستمضي تضرب في الأرض على غير هدى، مخلِّفةً وراءها تأثيرا عميقا على طبيعة الصراعات.
خطر محدق في الأفق
في السياق ذاته، حذّر عدد من كبار علماء الذكاء الاصطناعي، ومن بينهم البروفيسور ستيوارت راسل، من جامعة كاليفورنيا، وعالم الحاسوب الفرنسي يان ليكون، الحائز على جائزة تورينغ (التي يُشار إليها غالبًا باسم جائزة نوبل للحوسبة*)؛ حذروا من خطورة الأسلحة المستقلة. كما شكَّل تحالف مكون من أكثر من 250 منظمة غير حكومية، تشمل منظمة العفو الدولية، وهيومن رايتس ووتش، ومبادرة نوبل للمرأة، حملة لوقف الروبوتات القاتلة، تطالب بإبرام اتفاقية مسبقة وملزمة قانونيًا لحظر الأسلحة الذاتية.
أما الدافع الكامن وراء هذا السعي الحثيث فهو القلق النابع من احتمالية أن تزيد الأسلحة المستقلة من عدد الضحايا في صفوف المدنيين. وعلى الرغم من أن تلك الأسلحة يمكن أن تقلل من الخسائر المدنية بقدرتها على استهداف المقاتلين ببراعة ودقة، فإن الأمور لا تسير وفق هذا النسق، خاصة إذا وقعت أسلحة كهذه في يد دولة لا تهتم كثيرًا بالضحايا المدنيين، أو تكتسحها رغبة في فرض عقاب جماعي عليهم، ففرصة كهذه ستستغلها بالطبع لارتكاب أبشع الجرائم على غرار استهداف وقتل الآلاف في وقت واحد، لدرجة أننا لو قررنا مقارنة هذه الأسلحة المستقلة بالقنابل الذكية اليوم، ستبدو الأخيرة خرقاء وغير متقنة. (وهذا ما يحصل في الحرب التي يخوضها جيش الاحتلال الإسرائيلي في مواجهة المدنيين العُزّل في غزة، وبالفعل تتدخل أنظمة الذكاء الاصطناعي لتنفيذ مهام كانت السبب في استشهاد آلاف المدنيين*).
في كثير من الأحيان قد لا نفطن إلى أن أشد مخاطر تكنولوجيا الذكاء الاصطناعي والتحكم الذاتي تتمثل في دمجها مع الأسلحة النووية. ففي عام 2022، أعلنت الولايات المتحدة أنها ستحرص على وجود عنصر بشري يتحكم في قرارات استخدام الأسلحة النووية، وبينما اعتمدت المملكة المتحدة سياسة مماثلة، رفضت روسيا والصين هذه السياسة.
ورغم أن السيطرة البشرية على الأسلحة النووية قد تبدو نقطة بداية سهلة ومنطقية للتوصل إلى اتفاق دولي، فقد أظهرت موسكو استعدادا مثيراً للقلق لدمج التحكم الآلي أو الأتمتة في عملياتها النووية، وهو ما لا يُعتبر بالأمر الجديد، فبعد انتهاء الحرب الباردة، أوضح مسؤولون سابقون في الاتحاد السوفياتي أن الاتحاد بنى بالفعل نظاما نوويا انتقاميا شبه آلي، بمجرد تفعيله ستتمكن سلسلة من الأجهزة الاستشعارية الآلية من اكتشاف أي هجوم نووي على الأراضي السوفياتية.
وفي حال وقوع هجوم نووي على الأراضي الروسية دون استجابة من القادة الرئيسيين للبلاد -الذين ربما قُتلوا في الهجوم- ستُنقل سلطة إطلاق الأسلحة النووية تلقائيا إلى ضابط أقل رتبة نسبياً يقبع داخل مخبأ آمن. وفي عام 2018، أكدت السلطات الروسية أن هذا النظام لا يزال يعمل، بل وأُجريت عليه تحديثات كذلك.
وفي الآونة الأخيرة، بدأت موسكو في تطوير غواصة ذاتية التشغيل مزودة بأسلحة نووية، لكن تظل فكرة إرسال الدول طائرات مسيرة مسلَّحة نوويا في البحر أو الجو للقيام بدوريات، فكرةً خطيرة ومحفوفة بالمخاطر، لاحتمال وقوع حوادث أو فقدان السيطرة على السلاح النووي.
على الجانب الآخر، سنجد أن استخدام الأسلحة ذاتية التشغيل المنتشرة على نطاق واسع وتكاملها مع جوانب أخرى من التكنولوجيا العسكرية المتقدمة، يمكن أن يؤدي إلى عصر جديد من الحروب التي تقودها الآلة، إذ يمكن لتطبيقات الذكاء الاصطناعي العسكرية أن تسرِّع وتيرة معالجة المعلومات واتخاذ القرارات.
ومع تبني الدول للذكاء الاصطناعي والأتمتة، سيقل الوقت المستغرق في العثور على أهداف العدو وتحديدها واستهدافها. نظريا، قد يتيح هذا مزيدًا من الوقت للبشر لاتخاذ قرارات مدروسة ومتأنية، لكنْ عمليا سيشعر المنافسون بالضغط للرد بالمثل، وذلك باستخدام الأتمتة لتسريع عملياتهم الخاصة لمواكبة هذه الوتيرة السريعة، وهو ما سيفضي في النهاية إلى جولة تصاعدية من زيادة الأتمتة وتقليل التحكم البشري.
وبالتالي، قد تكون النهاية المحتملة لهذه المنافسة نشوب حروب سُتنَفّذ بسرعة آلية جنونية عصية على السيطرة البشرية. وفي مجال التمويل على سبيل المثال، سنجد أن الاستخدام الواسع للخوارزميات في التداول عالي التردد (أي استخدام الحواسيب والبرمجيات المتقدمة لتنفيذ الصفقات المالية بسرعة فائقة*) أدى إلى تداول الأسهم آليًا وبسرعات تفوق القدرات البشرية.
في السياق ذاته، افترض الباحث العسكري الصيني تشن هانغوي، وجود "مفردة" في ساحة المعركة، يُعرّفها بأنها تلك النقطة التي ستتجاوز فيها سرعة الحروب المدفوعة بالآلات سرعةَ القرارات البشرية. ومن شأن نقطة التفرد هذه أن تُجبِر البشر على التنازل عن الحكم للآلات في اتخاذ القرارات التكتيكية والإستراتيجية. ولن يقتصر دور الآلات على اختيار أهداف معينة فحسب، بل ستعمل على تخطيط وتنفيذ حملات عسكرية كاملة دون تدخل بشري، بينما سيقتصر دور البشر على تشغيل الآلات والجلوس على الهامش، مع قدرة ضئيلة في السيطرة على الحروب أو حتى إنهائها.
عالقون على حافة الهاوية
يمكن للمنظمات الدولية التحكم في استخدام الأسلحة المستقلة والتخفيف من بعض أسوأ الأضرار الناجمة عنها، إذا كانت هناك جهود مبذولة في سبيل صياغة هذه الاتفاقيات بعناية وتنفيذها بنجاح. وقد دعت حوالي 30 دولة واتحاد من المنظمات الإنسانية إلى إبرام معاهدة قانونية لحظر الأسلحة المستقلة.
ورغم قدرة الحكومات على تحقيق نجاح نسبي في حظر الأسلحة الكيميائية والبيولوجية، والقنابل العنقودية، واستخدام البيئة بوصفها سلاحا (بتدميرها أو تلويثها*)، فإن التقدم المماثل في تنظيم الأسلحة المستقلة أثبت أنه معقّد وعصيّ على التحقيق. كما أنه من المستبعد فرض حظر شامل نظرًا إلى أن الأسلحة المستقلة لم تُطَور بصورة كاملة بعد، ولم نستطلع مجاهلها أو نستكشف خباياها المتعلقة بقيمتها العسكرية، وهو ما جعل الحكومات مترددة بشأن التخلي عن سلاح قيّم كهذا جراء مخاوف غير مؤكدة حول أضرارها المحتملة في المستقبل.
تُناقَش القضايا ذات العلاقة بكيفية تنظيم الأسلحة المستقلة في العديد من المحافل، فعلى المستوى الدولي، بدأت الحكومات بمناقشتها في اتفاقية الأمم المتحدة المتعلقة ببعض الأسلحة التقليدية منذ عام 2014. وتعتبر هذه الاتفاقية ملتقى دوليا لتنظيم الأسلحة التي تُسبب أضرارا بالغة للمقاتلين أو المدنيين، مثل الألغام الأرضية وأشعة الليزر المسببة للعمى. وتضم الاتفاقية 126 دولة، وتتطلب دعم كافة الحكومات المشاركة، وهو ما قد يؤدي إلى صعوبة التوصل إلى اتفاق، أو تعثر الجهود المبذولة في تنظيم مسائل مثل الأسلحة المستقلة.
وأقرب مثال على ذلك هو معارضة روسيا والولايات المتحدة بشدة لمعاهدة حظر هذه الأسلحة، واعتبرتا أن القواعد الموجودة حاليا في قانون الحرب كافية للتعامل مع أي أضرار محتملة. ومن الواضح أن معارضة موسكو وواشنطن تُعد أمرًا مصيريا وحاسما في فشل الجهود لتحقيق الهدف المنشود، فحظر الأسلحة المستقلة لا معنى له إذا لم يشمل أكبر القوى العسكرية في العالم.
وبناءً على الاعتراف بعدم إحراز أي تقدم بشأن هذه القضية منذ عام 2023، رفع مؤيدو حظر الأسلحة المستقلة هذه القضية إلى الجمعية العامة للأمم المتحدة. وصوتت اللجنة الأولى للجمعية العامة في نوفمبر/تشرين الثاني 2023 لصالح تكليف الأمين العام الأممي بإعداد تقرير حول الأسلحة المستقلة، يأمل أنصار الحظر أن يكون الخطوة الأولى نحو مِنحَة للتفاوض على معاهدة، في حين اقترحت الولايات المتحدة نهجًا بديلاً للحظر الشامل.
ففي أواخر عام 2023، قادت واشنطن 40 دولة لتأييد إعلان سياسي يشجِّع على ضرورة الاستخدام المسؤول للذكاء الاصطناعي العسكري. وفي فبراير 2024، انضمت أكثر من 50 حكومة إلى هذه الجهود. وعلى الرغم من أن الإعلان لا يحظر الأسلحة ذاتية التشغيل، فإنه يوفر مع ذلك إرشادات عامة لاستخدامها، مثل ضمان إجراء اختبارات كافية للحد من مخاطر وقوع حوادث. قد يبدو أن إعلانا كهذا يتبنى مبادئ قيمة، إلا أنه يفتقر إلى قيود أخلاقية على الأسلحة ذاتية التشغيل الموجهة ضد المدنيين والأسلحة المستقلة في العمليات النووية.
قبل فوات الأوان
إذا فكرنا بروية فيما ستؤول إليه الأمور بدلا من هذه الأساليب أو التوجهات المتعثرة، فسنستنبط حقيقة مفادها أن بإمكان الدول اللجوء إلى خمس مبادرات للحد من التهديد الذي تشكّله الأسلحة المستقلة. فمثلًا، يمكن للحكومات اعتماد مبدأ عام ينص على إعلان الحد الأدنى على الأقل من المشاركة البشرية في اتخاذ القرارات المصيرية المتعلقة بالحياة والموت، كما يمكن تبني مثل هذا المبدأ بوصفه قاعدة قانونية أو إعلانا سياسيا ملزِمًا.
ومعيارٌ كهذا لا بد أن يتطلب وجود صانع قرار بشري بحوزته معلومات محددة وكافية حول الهدف المقصود، فضلا عن السلاح، والبيئة، وسياق الهجوم، لتحديد مدى قانونية هذا الهجوم قبل التصريح به. بالإضافة إلى ذلك، يمكن للدول أيضًا الاتفاق على أنه من أجل أن تكون المراقبة البشرية ذات مغزى، لا بد لأي استخدام للأسلحة المستقلة أن يكون محدودًا من حيث المكان والزمان والأهداف المنشودة. ورغم أن هذا المبدأ لن يحظر جميع الأسلحة المستقلة (بل على العكس من ذلك قد يُضفي شرعية على استخدامها)، فإنه على الجانب الآخر سيُوفر إطارا لكيفية استخدام الدول لهذه الأسلحة، وسيضمن مشاركة البشر في أهم القرارات المصيرية حول تأكيد الهجمات.
ثانيا، يمكن للحكومات أن تحظر الأسلحة المستقلة التي تستهدف البشر، ففي عالمٍ يعج بمقاتلين لا يرتدون الزي الرسمي (حتى البشر يصعب عليهم في الغالب التمييز الدقيق بين المدنيين والجنود)، ستواجه الخوارزميات صعوبة أكبر في استنتاج ما إذا كان الشخص الذي يحمل بندقية مقاتلًا أم مزارعًا يحمي أرضه.
كما أن الآلة أقل قدرة على التعرف بدقة إن كان الجندي يحاول الاستسلام حقًا أم أنه يتظاهر فقط، وبالتالي أصبح واضحا كيف تُشكِّل الأسلحة المستقلة الموجهة ضد الأفراد مخاطر أكبر من تلك التي تستهدف المركبات أو المعدات فقط، فضلا عن أن الضرر الذي يمكن لهذه الأسلحة أن تخلِّفه وراءها يتجاوز بكثير قيمتها العسكرية. وهنا، على الدول اختيار ما إذا كانت ترغب في حظرها أم لا، قبل أن يغدو استخدامها شائعًا.
ثالثا، يمكن للدول وضع معايير وإجراءات لاختبار الذكاء الاصطناعي العسكري والأنظمة الذاتية لتجنب وقوع الحوادث، كما أن على الولايات المتحدة مشاركة الدول الأخرى أفضل الممارسات لتحسين سلامة هذه الأنظمة بطريقة مماثلة لكيفية مشاركتها المعلومات حول إجراءات مراجعة الأسلحة المختلفة قبل استخدامها أو تصديرها، دون الكشف عن تفاصيل مراجعاتها الفردية.
رابعاً، على الولايات المتحدة أن تتعاون مع المملكة المتحدة لإقناع الدول الأخرى التي تملك ترسانة نووية؛ بضرورة التوصل إلى اتفاق يضمن السيطرة البشرية الصارمة على الأسلحة النووية. وتُعَد لندن الشريك المناسب لهذا الجهد بسبب سياستها في الحفاظ على التحكم البشري فيما يتعلق بترسانتها النووية.
لذا فالحصول على تصريحات مماثلة من القوى النووية الأخرى للحفاظ على وجود عنصر بشري يسيطر على الترسانة النووية، سيشكِّل خطوة مهمة نحو ضمان بقاء الأسلحة الأشد ضراوة تحت سيطرة البشر. كما أن التوصل إلى اتفاق بين الأعضاء الخمسة الدائمين في مجلس الأمن الدولي (وهم روسيا والصين وفرنسا والمملكة المتحدة والولايات المتحدة*)، سيمثل بيانا رسميا قويا يعكس التزام هذه الدول بالسيطرة البشرية على الأسلحة النووية. وفي الوقت ذاته، لا بد للولايات المتحدة أن تضغط على بكين بشأن هذه القضية في المحادثات الثنائية الجديدة بين البلدين بخصوص الذكاء الاصطناعي.
خامسًا وأخيرا، يمكن للدول أن تتبنى قواعد موحدة للتحكم في الطائرات المسيرة لتقليل الحوادث، فمع زيادة استخدام الدول لهذه الطائرات في الجو والبحر، ومع تزايد استقلالية هذه الطائرات، ترتفع احتمالية وقوع حادث أو خطأ في التقدير قد يؤدي إلى حوادث دولية. في عام 2019 مثلا، أسقطت الدفاعات الجوية الإيرانية طائرة أميركية مسيَّرة من طراز "غلوبال هوك" (Global Hawk) فوق مضيق هُرمُز. وفي مارس/آذار 2023، اعترضت مقاتلة روسية طائرة أميركية مسيّرة من طراز "ريبر" (MQ-9 Reaper) فوق البحر الأسود، مما تسبب في تحطم المسيّرة الأميركية في النهاية.
ولأن هذه الطائرات مُصممة للتحكم فيها عن بعد، فيُفترض أن الإنسان هو من يقرر كيفية الرد. لكنْ مستقبلا، قد تصبح الطائرات الجوية والبحرية مستقلّة، وهو ما يعني أنه في حال وقوع حوادث مماثلة، ستُنفذ هذه الطائرات تلقائيًا الإجراءاتِ التي بُرمجت عليها، وإذا بُرمجت على الرد فورًا، فقد يُفضي ذلك إلى تصعيد دولي دون أي قرار بشري متعمد لتنفيذ ذلك. وبالتالي، على الحكومات أن تتأكد من أن أي سلوكيات يمكن للأسلحة المستقلة أن تتخذها، لا بد أن تكون متسقة مع النوايا البشرية.
ساعدت اتفاقية حوادث البحر بين الولايات المتحدة والاتحاد السوفياتي عام 1972 في تقليل عدد الحوادث العشوائية بين القوات البحرية الأميركية والسوفياتية خلال الحرب الباردة (وتنص هذه الاتفاقية على إقامة آليات للتعاون والتنسيق بين الطرفين فيما يتعلق بالتحقيق في حوادث البحر التي تشمل السفن البحرية العسكرية*).
كما أن وجود اتفاقية مماثلة للحوادث الناجمة عن الأسلحة المستقلة قد يساعد الدول في التعامل مع مخاطر الأنظمة الذاتية المتنافسة والمنتشرة في المناطق المُتنَازع عليها، وتجنب الحوادث غير المخطط لها وغير المرغوب فيها. لذا، فالاتفاق بين الولايات المتحدة والصين، باعتبارهما أكبر القوى العسكرية والاقتصادية والتكنولوجية في العالم حاليا، يُعتبر خطوة صعبة ولكنها حاسمة نحو إدارة مخاطر الأسلحة المستقلة.
في نهاية المطاف، من المهم أن ندرك جيدًا أن الأسلحة المستقلة في طريقها إلى الظهور والانتشار، شئنا أم أبينا، وأن محاولات حظرها بالكامل -رغم حسن النوايا- قد تكون عقيمة وبلا جدوى، وهذا لأن قيمتها العسكرية ببساطة كبيرة للغاية. ومع ذلك، تملك الدول خيارا لتطويع هذه الأسلحة بصورة تعزز الاستقرار، من خلال اتخاذ خطوات عاجلة بشأن هذه القضية، وهو ما سيتطلب تجاوز الخيار الحالي الذي يبدو بسيطًا لكنه مضلل في الوقت ذاته، ويتمثل في احتمالين: إما فرض حظر على جميع الأسلحة المستقلة، أو عدم فرض قيود عليها مطلقا.
وتحت هذه المظلة الوافرة للموت، تمثل الأسلحة المستقلة اختبارًا مبكرًا لقدرة البشر على التعامل مع الذكاء الاصطناعي المسلّح، الذي ستظهر منه أشكال أشد ضراوة وأكثر خطورة فيما بعد. وبالفعل، أظهرت أنظمة الذكاء الاصطناعي الحديثة قدرتها على المساعدة في تطوير الأسلحة السيبرانية والكيميائية والبيولوجية، لذا فالعالم بحاجة ماسة للتوصل إلى اتفاق دولي للتحكم في تطويرها، والحد من انتشارها، ومعالجة آثارها السلبية، ووضع الأسس للتعاون في مواجهة مخاطرها مستقبلا.
—————————
* إضافة المترجم
هذه المادة مترجمة عن مجلة فورين أفيرز ولا تعبر بالضرورة عن الموقف التحريري للجزيرة نت