العصا الخشبيّة في مواجهة "الدرونز".. ذلك المشهد قبل الأخير في استشهاد "يحيى السنوار"، هو الوصف الدقيق تمامًا لما يحدث في العدوان على غزة والأراضي الفلسطينية المحتلة بشكل عام.
يقف أصحاب الأرض مُرابطين، مُسلحين بأبسط الوسائل القتاليّة المُتاحة في مواجهة آلة حرب متقدمة وشرسة، تستخدم أحدث التقنيات لإبادة البشر والحجر بلا تمييز.
وصحيحٌ أن الصمود الفلسطيني لا يرتكز على قوة السلاح، بل يتجذر في قوة العزيمة وصلابة الثبات، إلا أن إدراك آليات تطور الحروب الحديثة، وفهم التكتيكات والتكنولوجيا المستخدمة في ساحة المعركة، أمر لا غنى عنه لمواصلة مسيرة تحرير الأرض.
باتت القوى العالمية العُظمى تتنافس في الاعتماد على الذكاء الاصطناعي كجزء من التقدم التكنولوجي، وعلى رأسها الولايات المتحدة والصين، وهي تتنافس من أجل التفوق في هذا المجال للتحكم في رسم المشهد العالمي المستقبلي
وفي نظرة سريعة على ساحات الحروب في هذا العقد، نرى أن هناك تحولًا جذريًّا بات واضحًا مع دخول الذكاء الاصطناعي كعنصر حاسم قد يغير معادلة الصراع. فلم تعد الحروب تقتصر فقط على المواجهات المباشرة بين الجنود والأسلحة التقليدية، بل أصبحت الخوارزميات وحدة عسكرية أساسية في الجيوش، فهي القوة الخفيّة التي توجّه الطائرات بدون طيار، وتقود الهجمات السيبرانية، وتدعم القوات العسكرية بأدق التفاصيل في المعارك.
وإن أخذنا ساحة العدوان على غزة كمثال لاستخدام الذكاء الاصطناعي، فسنرى أن إسرائيل خصصت وحدة لتطوير تقنيات الذكاء الاصطناعي للتطبيقات العسكرية، متخذة سكان الضفة الغربية وقطاع غزة مختبرات لهذه التقنيات، حيث يتم تجميع البيانات من الطائرات بدون طيار، ومن كاميرات المراقبة وصور الأقمار الصناعية، ومن الإشارات الإلكترونية والاتصالات عبر الإنترنت ومنصات التواصل الاجتماعي، لتحليلها وتحديد أهدافها العسكرية بناء على اختيارات الآلة!
الوحدة العسكرية المتخصصة في ذلك تدعى "الوحدة 8200″، وهي إحدى الوحدات الاستخباراتية الرئيسية لدى إسرائيل، ويتمثل دورها في جمع وتحليل البيانات والإشارات الإلكترونية؛ حيث تراقب الوحدة من كثب كل تحرك في المناطق المستهدفة، وخاصة الضفة الغربية وقطاع غزة، لتعمل بالتوازي مع أنظمة معقدة مثل "Fire Factory" و"Lavender".
يوضع مصير وحياة الفلسطينيين في يد آلة الذكاء الاصطناعي، التي تتحكم فيها عقلية عنصرية وعدوانية، لتدمر أرضهم وتُفني حياتهم بناء على حسابات اللوغاريتمات بضغطة زر!
العملية التي تعتمد فيها إسرائيل على أنظمة الذكاء الاصطناعي في استهداف الأهداف العسكرية أو الأشخاص تتبع تسلسلًا معينًا، وفق الآتي:
- أولًا: جمع البيانات باستخدام نظام مثل "Alchemist"، حيث يقوم بجمع وتحليل البيانات الأولية حول المواقع والمعدات والأفراد المستهدفين، عن طريق الأقمار الصناعية والدرونز وأجهزة التنصت. ثم يأتي "Blue Wolf"، وهو نظام التعرف على الوجه، والذي يعتمد على قاعدة بيانات ضخمة تحتوي على صور لعدد كبير من الفلسطينيين للتعرف عليهم عبر الحواجز أو في المواقع المستهدفة.
- ثانيًا: يقوم تطبيق Lavender بتحديد أماكن الأنفاق أو مخازن الأسلحة، وكذلك الأشخاص الذين قد يكونون من قادة الفصائل أو المقاومة.
- ثالثًا: رصد الأهداف سواء كانت أفرادًا أو منشآت عن طريق "Gospel"، وهو النظام المسؤول عن اتخاذ القرار النهائي حول الأهداف التي يجب استهدافها.
- رابعًا: يتدخل نظام Fire Factory لتنظيم الهجمات على الأهداف المُحددة سلفًا، حيث يعمل على حساب كميات الذخائر المطلوبة، وتحديد نوع الهجوم، سواء كان قصفًا جويًّا، أو هجومًا بطائرات بدون طيار أو باستخدام الصواريخ، ثم يضع جدولًا زمنيًا لتنفيذ الهجوم.
وبهذا يوضع مصير وحياة الفلسطينيين في يد آلة الذكاء الاصطناعي، التي تتحكم فيها عقلية عنصرية وعدوانية، لتدمر أرضهم وتُفني حياتهم بناء على حسابات اللوغاريتمات بضغطة زر!
برغم الادعاءات بأن الذكاء الاصطناعي يُستخدم لتقليل الخسائر المدنية، هناك تساؤلات كثيرة حول مدى قدرة الذكاء الاصطناعي على تجنب هامش الخطأ بشكل قاطع
وبشكل عام، باتت القوى العالمية العُظمى تتنافس في الاعتماد على الذكاء الاصطناعي كجزء من التقدم التكنولوجي، وعلى رأسها الولايات المتحدة والصين، وهي تتنافس من أجل التفوق في هذا المجال للتحكم في رسم المشهد العالمي المستقبلي، وتنفق الدول مليارات الدولارات لتطوير هذه الأنظمة الذكية؛ فقد خصصت الولايات المتحدة بين 7.4 و9.1 مليارات دولار لتطوير أبحاث الذكاء الاصطناعي بين عامي 2018 و2024، فيما تُقدّر ميزانية الدفاع الصينية بما يصل إلى 232 مليار دولار في عام 2024، تركز بشكل كبير على تطوير أنظمة تعتمد على الذكاء الاصطناعي في مجالات مثل الطائرات بدون طيار والأسلحة الذاتية.
ولكن، هل يُعتبر استخدام الذكاء الاصطناعي في الحروب عملًا قانونيًّا وأخلاقيًّا؟
أخلاقيًا، ولكي نحدد الإجابة، يجب علينا فهم طبيعة عمل تلك الأنظمة العسكرية المعتمدة على الذكاء الاصطناعي، فهي تعتمد في الأساس على البيانات الهائلة، التي تجمعها لتكون قادرة على تحديد أهدافها بدقة، ثم تعطي البشر قائمة بالأهداف التي أنشأتها بناء على حساباتها دون أن نعرف نحن البشر كيف تم إنشاء القائمة، وكذلك بدون القدرة على التأكد من توصيات الاستهداف بطريقة تتماشى أخلاقيًّا وقانونيًّا مع المعايير الإنسانية، بحيث توازن بين الضرورات العسكرية وحماية المدنيين.
وبرغم الادعاءات بأن الذكاء الاصطناعي يُستخدم لتقليل الخسائر المدنية، هناك تساؤلات كثيرة حول مدى قدرة الذكاء الاصطناعي على تجنب هامش الخطأ بشكل قاطع، وماذا إذا كان هناك خطأ في حساباته قد يقضي على عائلات بأكملها؟ وهو ما يحدث حتى الآن في العدوان على غزة.
أفيستطيع الإنسان وضع قيود وضوابط أخلاقية تمنع استخدام الذكاء الاصطناعي بشكل خاطئ، أم إننا سنجد أنفسنا أسرى لتكنولوجيا تفلت من أيدينا، تمامًا كما شهدنا مع السلاح النووي
كذلك فإن السرية المحيطة بتطور الذكاء الاصطناعي تثير المخاوف من أن يتحول إلى آلات قتل مستقلة بالكامل، كما أن الافتقار إلى الشفافية في تحديد هوية متخذ القرار الخوارزمي يزيد من المخاوف بشأن الآثار الأخلاقية لتطور هذا الذكاء، الذي قد يخرج عن سيطرة البشر يومًا ما.
أما قانونيًّا، فإن القانون الدولي الإنساني يشترط أن يكون لكل قرار عسكري قائد بشري مسؤول عنه، لضمان التناسب والتمييز في الهجمات. كذلك يُشترط في أي هجوم أن يكون هناك تمييز واضح بين الأهداف العسكرية والمدنيين، ناهيك عن أنه من الصعب تحديد على من ستكون المسؤولية؛ على مبرمجي الأنظمة، أم مشغليها، أم على القادة العسكريين الذين قرروا استخدامها؟. فبدءًا من النار حتى القنبلة النووية، استخدام التكنولوجيا بشكل غير صحيح ليس بجديد على الحضارة الإنسانية.
أفيستطيع الإنسان وضع قيود وضوابط أخلاقية تمنع استخدام الذكاء الاصطناعي بشكل خاطئ، أم إننا سنجد أنفسنا أسرى لتكنولوجيا تفلت من أيدينا، تمامًا كما شهدنا مع السلاح النووي الذي أعاد صياغة وجه الحروب في القرن العشرين؟
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.