توشك السيارات الذكية ذاتية القيادة أن تصبح واقعا ملموسا في المستقبل القريب، لكنه قد يتأخر ما لم يتم التوصل إلى حل بشأن العقدة الأخلاقية للروبوتات الذكية، التي تعد السيارات الذكية أحد نماذجها، فعلى سبيل المثال إن كانت السيارة في مكان مزدحم وتعرضت فجأة لموقف تكون فيه مضطرة للاختيار بين صدم سيارة أخرى أو أحد المشاة، فما القرار الذي ستتخذه؟

لذلك يتوجب على الروبوتات المستقبلية أن تتمتع بصفات وأخلاق إنسانية، لا أن تكون مجرد آلات بلا مشاعر، ولهذا يعمل العديد من الخبراء على حقل جديد يهتم بأخلاق الروبوتات، ويتطلب هذا المجال تعاون علماء الحاسوب مع أخصائيين بمجالات الفلسفة وعلم النفس وحقوق الإنسان لوضع ضوابط خاصة تجلب للروبوتات بطريقة تفكير سليمة "أخلاقيا" واجتماعيا لدى اتخاذ القرارات أثناء العمل بجوار الإنسان.

ويجب أن تجعل هذه الضوابط من الروبوتات قادرة على اتخاذ قرارات صائبة في المواقف الحرجة، فعلى سبيل المثال: يقع على عاتق الروبوتات العسكرية المستقبلية مسؤولية اتخاذ قرار إطلاق النار أم لا، كما يتوجب على السيارات ذاتية القيادة اختيار استعمال الفرامل أو الانحراف، وغير ذلك من المواقف التي قد يجد الإنسان صعوبات بالتعامل معها.

ووفق رئيس مجموعة الدراسات التقنية والأخلاقية التابعة لجامعة ييل، ويندل والاش، فإن السيارات ذاتية القيادة -التي ما تزال قيد التطوير- تعتبر من أهم أمثلة الروبوتات الأخلاقية، معبرا عن ثقته بأنها ستكون أكثر أمنا من السيارات التقليدية، خاصة على الطرقات السريعة.

لكن تلك السيارات الذكية قد تتعرض لموافق محرجة خاصة في الأماكن المزدحمة، كما ذكرنا في المقدمة، وهنا يكون قرارها موقفا أخلاقيا بحتا، وفقا لوالاش.

جلب الأخلاق والمشاعر الإنسانية إلى الروبوتات قد يجعلها تتجاوز الإنسان في أخلاقها وقدرتها على اتخاذ القرارات الصائبة، الأمر الذي من شأنه أن يساعد في تقبل الإنسان لها

رياضيات أخلاقية
ويعمل مدير مجموعة الأخلاق والعلوم الصاعدة بجامعة كاليفورنيا للعلوم التطبيقية، الفيلسوف باتريك لين، على ما يدعى "الرياضيات الأخلاقية" وهو مجال من شأنه أن يساعد السيارات ذاتية القيادة باتخاذ قرار في المواقف الحرجة، وتحديدا عندما سيترتب على ذلك حياة أشخاص، كأن تفضل السيارة الانحراف إلى الرصيف مع احتمالية صدم أحد المشاة على الاصطدام بسيارة صغيرة تقل بعض الركاب، أو تفضل صدم سيارة كبيرة على أخرى صغيرة، وبالتالي اختيار الاحتمال الأقل ضرراً وإزهاقا للأرواح.

ولا يقتصر تطبيق العلوم الأخلاقية على السيارات ذاتية القيادة، فبعض شركات الأسلحة تعكف على تطوير روبوتات عسكرية قادرة ذاتيا على اتخاذ قرار إطلاق النار بناء على تقديرها للموقف وفق قوانين الحرب الدولية، فعلى سبيل المثال تتم برمجتها لتوجيه ضربتها إلى أحد الأعداء عبر التعرف عليه من لباسه مثلا، لكنها قد تتراجع عن إطلاق النار عليه في حال كان جريحا، أو موجودا بالقرب من مستشفى أو مدرسة.

ويعمل عالم الروبوتات رونالد آركن، من معهد جورجيا التقني، على دراسة الوسائل الممكنة لتزويد الروبوتات العسكرية بقواعد أخلاقية، كأن يكتشف الروبوت الفرق بين الدمار المتوقع حدوثه لدى استخدامه سلاحا معينا، والدمار الفعلي، وفي حال كان الفرق كبيرا، فإن شعورا بالذنب قد يتولد لدى الروبوت دافعا إياه إلى التوقف عن استخدام هذا السلاح.

ومن المتوقع لمثل هذه الروبوتات أن تتصرف باعتدال أكبر من الإنسان في ساحات القتال، ففي كثير من المرات قد يدفع الخوف أو الإرهاق المحارب إلى التصرف بسلوك خاطئ أثناء المعركة، وجلب الأخلاق والمشاعر الإنسانية إلى الروبوتات قد يجعلها "على خلق" وربما تتجاوز الإنسان في قدرتها على اتخاذ القرارات الصائبة، الأمر الذي من شأنه أن يساعد في تقبله لها.

المصدر : البوابة العربية للأخبار التقنية