كرر عالم الفيزياء النظرية ومدير الأبحاث في جامعة كامبريدج البريطانية ستيفن هوكينغ مرة أخرى تحذيره من تطوير ذكاء اصطناعي خارق، لأن ذلك قد يكون "أسوأء شيء يحصل للبشرية".

وكان هوكينغ يتحدث الأربعاء في افتتاح مركز ليفرهولمي لمستقبل الذكاء في جامعة كامبريدج، وهو معهد متعدد التخصصات، يهدف إلى مراقبة الآثار المترتبة على تسارع وتيرة تطور أبحاث الذكاء الاصطناعي.

ويتنبأ العالم بأنه ربما تطور الروبوتات "أسلحة قوية ذاتية التحكم" أو أساليب جديدة "لاضطهاد الكثيرين"، وقال "أعتقد أنه لا توجد فروقات عميقة بين ما يمكن للعقل البيولوجي أن يحققه وما يمكن للحاسوب أن يحققه". وأضاف أنه نتيجة لذلك فإنه "يمكن للحواسيب -نظريا- مضاهاة الذكاء البشري والتفوق عليه".

وحذر هوكينغ أن "بإمكان الذكاء الاصطناعي تطوير إرادة خاصة به -إرادة تكون على صراع مع إرادتنا"، مؤكدا أن "بزوغ ذكاء اصطناعي قوي قد يكون أفضل أو أسوأ شيء يمكن أن يحصل للبشرية".

ورغم تحذير عالم الفيزياء من أن البشر ربما يكونون يهندسون فناءهم الذاتي إذا ابتكروا ذكاء اصطناعيا خارقا مع إرادة خاصة به، إلا أنه كان سريعا أيضا بالإشارة إلى "الفوائد الضخمة" التي يمكن أن تجلبها أبحاث الذكاء الاصطناعي. 

فقال هوكينغ "لا يمكننا التنبؤ بما قد نحققه عندما تتضخم عقولنا بمساعدة الذكاء الاصطناعي، وربما باستخدام أدوات تلك الثورة التقنية الجديدة قد نتمكن من التراجع عن بعض الأضرار التي لحقت بالعالم الطبيعي بسبب الثورة الأخيرة (الصناعية)"، إلى جانب أن الذكاء الاصطناعي قد يستهدف القضاء أخيرا على المرض والفقر.

ويذكر أن هذه ليست المرة الأولى التي يحذر فيها هوكينغ من مخاطر تطور الذكاء الاصطناعي، حيث كان صرح في عام 2014 لمحطة "بي بي سي" البريطانية بأن الذكاء الصناعي الكامل -بمعنى ابتكار أجهزة تمتلك عقولا خاصة بها- يمكن أن يؤذن بنهاية الجنس البشري.

المصدر : مواقع إلكترونية