اعتذرت شركة البرمجيات الأميركية مايكروسوفت في تدوينة نشرتها على موقعها الإلكتروني عن التغريدات العنصرية التي نشرها روبوت الذكاء الاصطناعي "تاي"، والذي أوقفته بعد أقل من 24 ساعة من طرحه.

و"تاي" -الذي أطلقته مايكروسوفت قبل أيام- عبارة عن برنامج تم تطويره باستخدام تقنية الذكاء الاصطناعي، تمثله شخصية افتراضية لفتاة مراهقة يمكنها الدردشة مع المستخدمين والإجابة على أسئلتهم عبر حساب خاص بها على "تويتر"، وتم تصميمه بحيث يصبح "أذكى" تدريجيا كلما زاد حجم التفاعل معه والدردشات التي يجريها.

لكن "تاي" تحولت في وقت قصير إلى أداة لنشر العنصرية والكراهية، حيث بدأ حسابها بنشر رسائل تمجد النازية وهتلر وتحرض على السود والمهاجرين وتدعو إلى التطهير العرقي، الأمر الذي دفع مايكروسوفت إلى إيقافها الخميس الماضي والخروج بتصريح مقتضب يقول إن هذا الربوت عبارة عن "آلة تعلُّم" و"بعض ردوده غير ملائمة وتعكس نوع التفاعلات التي كان يجريها معه بعض الناس".

ولم تكتف الشركة بهذا، بل كتب نائب الرئيس للأبحاث بيتر لي رسالة اعتذار على مدونتها الرسمية أمس الجمعة أقر فيها بالفشل الذريع للتجربة، وأن الشركة "تأسف بعمق لما بدر من تاي من تغريدات مسيئة ومؤذية، ولا تعبر عن مايكروسوفت ولا عن الكيفية التي تم بها تصميم تاي".

وأوضح بيتر لي أن هذه ليست أول تجربة لتطبيق بتقنية الذكاء الاصطناعي تطلقه مايكروسوفت، حيث سبق أن أطلقت الروبوت "شياولسي" في الصين واستخدمه نحو أربعين مليون شخص للدردشة وتبادل الأحاديث.

وأضاف أن تلك التجربة كانت ناجحة جدا مما دعا مايكروسوفت إلى تجربة الروبوت "تاي" الموجه للأميركيين بين عمر 18 و24 عاما، مؤكدا أن الشركة حرصت أثناء تطويره على اختباره في مختلف الظروف، وسعت كي يقدم تجربة إيجابية خالية من المشاكل.

لكن حدث ما وصفتها الشركة بـ"الهجمات المنسقة" لأشخاص تمكنوا من استغلال ثغرة في نظام تاي مكنتهم من بث الأفكار العنصرية وأفكار الكراهية التي كررها الروبوت الذي يتعلم ويطور معارفه من خلال تفاعله مع الآخرين.

وبحسب الشركة فإنها طورت "تاي" بشكل لا يتيح التلاعب به، إلا أنها غفلت عن هذا النوع من الهجمات تحديدا، مؤكدة أن أمامها الآن تحديا جديدا لتحسين أبحاث الذكاء الاصطناعي بهدف تفادي مثل هذه الحوادث مستقبلا.

المصدر : مواقع إلكترونية