أصدر "معهد مستقبل الحياة" الأميركي تقريرا خاصا يتضمن الوسائل الواجب اتباعها لمنع تقنيات الذكاء الصناعي من التصرف بطرق غير مرغوبة قد تنجم عنها أفعال تدميرية، ويأتي ذلك نتيجة النمو المطرد الذي تشهده أبحاث الذكاء الصناعي والتي يتوقع أن يزداد تأثيرها على المجتمعات خلال الأعوام المقبلة، وما قد تحمله من مخاطر محتملة يمكن أن تشكل تهديدا للبشرية.

وحققت بعض نماذج الذكاء الصناعي نجاحا ملفتا على غرار تقنيات التعرف على الكلام أو ترجمته الفورية، وتصنيف الصور, والروبوتات الذكية, والسيارات ذاتية القيادة.

وفي تقريره أشار المعهد -الذي يضم في هيئته الاستشارية عددا من العلماء والمستثمرين في مقدمتهم مؤسس شركة صناعة السيارات الكهربائية "تيسلا موتورز" إيلون موسك، والفيزيائي ستيفن هوكينغ- إلى ضرورة الانتباه منذ المراحل التصميمية الأولى إلى المخاطر المحتمل وقوعها بسبب هذه التقنيات.

وأوضح التقرير أنه عند البدء بتصميم أنظمة ذكية يجب تحديد "السلوك الصحيح" لتلك الأنظمة بإضافة ضوابط أخلاقية مبرمجة مسبقا من قبل علماء حواسيب وخبراء بالأخلاق، وذلك لتعزيز قدرة الأنظمة الذكية على اتخاذ القرار السليم في المواقف الحرجة.

كما أوصى التقرير بضرورة فحص البرمجيات الخاصة بالتقنيات الذكية بشكل مكثف قبيل اعتمادها ودمجها في الآلة، لأن من شأن أي خطأ برمجي أن يؤدي إلى سلوك غير مقبول، مشيرا إلى أن وسائل التحقق من البرمجيات في الأنظمة الذكية تختلف كليا عنها في الأنظمة التقليدية، حيث تتطلب وسائل التحقق من الأنظمة الذكية تحريضها على العمل داخل المختبرات في ظروف مشابهة لظروف عملها المطلوب ومراقبة النتائج من قبل المصممين واستكشاف الأخطاء وتصحيحها.

يجب توفير الرقابة والتحكم المستمرين بأنظمة الذكاء الصناعي رغم صعوبة ذلك بسبب قدرتها على التحايل أثناء أداء المهام المطلوبة

رقابة واختبار
كما اقترح المعهد أن تكون كافة الأجزاء المكونة للنظام الذكي مختبرة مسبقا، لضمان سلامة النظام ككل الذي يجب أن يخضع بدوره لاختبارات متعددة، يتم إجراء بعضها من قبل أدوات حاسوبية خاصة وبعضها الآخر من قبل مهندسين متخصصين.

إلى جانب ذلك، يرى المعهد أنه من الضروري فرض قيود متنوعة على قدرات الأنظمة الذكية، لأنه من غير الواضح حاليا إذا كانت هذه الأنظمة ستؤدي إلى ظهور مشاكل أمنية أم لا، فقد تؤدي البنية المعقدة لها إلى جعل عمليات اختراقها ذات فعالية كبيرة، وفي المقابل تستطيع هذه الأنظمة التعلم تلقائيا، مما قد يجعلها أكثر قدرة على الصمود في وجه محاولات الاختراق.

علاوة على ذلك، يجب توفير الرقابة والتحكم المستمرين بأنظمة الذكاء الصناعي رغم صعوبة ذلك بسبب قدرتها على التحايل أثناء أداء المهام المطلوبة، كما أن المطور قد لا ينجح في تغيير أو تعطيل أو تعديل مهام النظام الصناعي الذكي إذا رغب في ذلك بسبب قدرة بعض تلك التقنيات على التصرف بمفردها وتجنب التغييرات، ولذلك اقترح المعهد توسيع الأبحاث في مجال الأنظمة القابلة للإصلاح لبناء أنظمة ذكاء صناعي لا تمانع تقبل التغييرات ولا تتجنبها.

ولأن بعض أنظمة الذكاء الصناعي تتسبب بمشاكل غير متوقعة لدى محاولتها إيجاد حلول لتحقيق أهدافها فقد اقترح المعهد فرض قيود على مهام هذه التقنيات بحيث تكون محدودة التأثير.

المصدر : بروجيكت سينديكيت