استطلاع يكشف المعضلة الأخلاقية للسيارات الذكية

In this Thursday, Nov. 12, 2015 photo provided by Zandr Milewski, a California police officer pulls over a self-driving car specially designed by Google that was being tested on a local road in Mountain View, Calif. The police officer saw the car going a road-clogging 24 mph in a 35 mph zone and realized it was a Google Autonomous Vehicle. After getting closer to it he noticed that there was no one actually driving the car. The officer stopped the car and contacted the person behind the wheel to say the vehicle was impeding traffic, but he didn't give out a citation. (Zandr Milewski via AP)
سيارة لغوغل أوقفها شرطي مرور في طريق محلي بمدينة ماونت فيو في كاليفورنيا ليكتشف أنها بدون سائق (رويترز)

مع اقتراب وصول السيارات الذاتية القيادة إلى الشوارع، تزداد التساؤلات حول إمكانية الاعتماد عليها كوسيلة أساسية للتنقل في المدن في ظل وجود معضلة أخلاقية لم تحل بعد في برمجة تلك السيارات عندما تجد نفسها في موقف تكون فيه مضطرة إما للاصطدام بالمشاة أو تجنبهم والمخاطرة بأرواح راكبيها، وهي المعضلة التي أكد وجودها استطلاع حديث للرأي. 

وبحسب مؤسسة الخدمات المالية "مورغان ستانلي" فإنه من المرجح أن تصبح السيارات الذاتية القيادة أمرا شائعا في المجتمع بحلول العام 2025، حيث تجري العديد من الشركات الاختبارات على نماذجها من هذه السيارات، ومنها شركة غوغل التي أعلنت أن سياراتها سارت في الشوارع لما يزيد عن المليون ميل خلال السنوات الأخيرة.

وبما أن حوادث السير لا يمكن تجنبها حتى مع السيارات الذاتية القيادة، فإن الخوارزميات المستخدمة أثناء تطوير هذه السيارات تلعب أدوارا هامة في تحديد الأضرار المحتملة عند وقوع الحوادث، مما يلقي بمسؤولية أخلاقية كبيرة على عاتق مصممي هذه السيارات تحتم عليهم وضع خوارزميات تحدد أولويات السلامة عند حتمية وقوع الاصطدام.

فإذا كانت سيارة ذاتية القيادة على وشك الاصطدام بأحد المشاة، فهل يجب عليها الانحراف والمجازفة بقتل ركابها؟ إن هذا التساؤل قد يكون بالنسبة لمشترين اعتادوا الحديث عن موديلات السيارات وألوانها غير مرغوب فيه، لكن الأمر يختلف بالنسبة لمصنعي تلك السيارات الذين يشكل لهم هذا التساؤل معضلة حقيقية.

ورغم أن مثل هذا السيناريو قد يكون نادر الحدوث، فإنه حين تتواجد في الطرقات ملايين السيارات الذاتية القيادة فإن حوادث فردية شاذة قد تصبح حدثا يوميا.

وفي مجموعة من الاستطلاعات التي نشرتها مجلة "ساينس" الخميس الماضي، حاول باحثون في الولايات المتحدة وفرنسا استكشاف كيف يجب أن تتصرف السيارات الذاتية القيادة في مواقف لا رابح فيها.

‪‬ غوغل قالت إن سياراتها الذاتية القيادة سارت في الشوارع لأكثر من مليون ميل خلال السنوات الأخيرة(رويترز)
‪‬ غوغل قالت إن سياراتها الذاتية القيادة سارت في الشوارع لأكثر من مليون ميل خلال السنوات الأخيرة(رويترز)

وأظهر أحد الاستطلاعات أن 76% من الناس وافقوا على أنه يجب على السيارة الذاتية القيادة التضحية بركابها بدل الانحراف وقتل عشرة مشاة، كما وافقوا على أنه أخلاقيا يجب برمجة هذه السيارات بهذه الصورة لتقليل الوفيات التي تسببها السيارات. وتضاربت الآراء عندما طُلب منهم تصور أنفسهم أو أحد أفراد عائلاتهم يركب تلك السيارات.

لكن ظهرت أولى بوادر الإشكال عندما سُئل الناس هل سيشترون سيارة تتحكم بها هذه الخوارزمية الأخلاقية؟ حيث فتر حماسهم وقالوا إنهم يفضلون شراء سيارة مبرمجة لحمايتهم بدلا من حماية المشاة. وبعبارة أخرى، فإن السيارات الذاتية القيادة التي تضحي أحيانا بركابها لتحقيق هدف أسمى، هي فكرة جيدة ولكن فقط لأشخاص آخرين.

ويمكن لمثل هذا التضارب أن يقوض فوائد السلامة في السيارات الذاتية القيادة، ويترتب عليه أن كل شخص يعتقد أن على هذه السيارات أن تتصرف بطريقة معينة، لكن بسبب قراراتهم فإنها تتصرف بطريقة أقل أخلاقية وأقل أمانا، وفقا للباحثين الذين أجروا الاستطلاع وهم عاصم شريف من جامعة أوريغون، وإياد رهوان من معهد ماساتشوستس للتقنية، وجان فرانسوا بونيفون من معهد الدراسات المتقدمة في تولوز.

المصدر : غارديان + مواقع إلكترونية