إدخال المشاعر البشرية للآلات.. هل يحل مشاكل الذكاء الاصطناعي؟

آلان كوين العالم السابق في غوغل يأمل أن يتم دمج منصته في تطبيقات المستهلك مثل مقاطع الفيديو والمساعدات الرقمية (مواقع التواصل)

نظرًا لأن الذكاء الاصطناعي بدأ في الدخول لحياتنا الاجتماعية والاستهلاكية، فمن المفترض "نظريا" أن يقضي على جميع العيوب التي يقوم بها البشر.

ولكن الواقع مختلف تمامًا بالطبع، بحسب مقال نشرته "واشنطن بوست" (Washington post) الأميركية، الذي يقول إنه بداية من خوارزميات "فيسبوك" (Facebook) التي تروّج للكراهية للحصول على المزيد من المشاهدين إلى تطبيقات التعرف على الوجه التي لا تتعرف على الأشخاص الملونين، لا يقدم الذكاء الاصطناعي في كثير من الأحيان يد المساعدة في حل مشاكل البشرية.

ولكن عالم البيانات السابق في "غوغل" (Google) ألان كوين، الذي له خلفية في مجال علم النفس، أنشأ شركة أبحاث تسمى "هيوم إيه آي" (Hume AI)، يقول إنها يمكن أن تساعد في جعل الأعمال الفوضوية للذكاء الاصطناعي أكثر تعاطفا وإنسانية.

وقال كوين إنه من خلال التدريب على مئات الآلاف من تعبيرات الوجه والصوت من جميع أنحاء العالم، يمكن للذكاء الاصطناعي على منصة هيوم أن يتفاعل مع شعور المستخدمين حقًا ويلبي احتياجاتهم العاطفية بشكل وثيق.

وأعرب عن أمله في أن يتم دمج المنصة في نهاية المطاف في تطبيقات المستهلك مثل مقاطع الفيديو والمساعدات الرقمية.

وسيكون إطلاق المنصة التجريبي في مارس/آذار المقبل، مع الكشف الرسمي بشكل أكبر لاحقًا. كما سيكون مجانيًا للعديد من الباحثين والمطورين.

وقال كوين في مقابلة "نعلم أن هذه المعركة ستكون طويلة.. لكننا نحتاج إلى البدء في تحسين هذا المجال".

ليس الأول

رائد الأعمال البالغ من العمر 31 عامًا ليس أول تقني يحاول ضخ المشاعر البشرية في الفضاءات الرقمية.

فهناك حركة "الذكاء الاصطناعي الأخلاقي" التي يتمثل هدفها في دمج الإنصاف والعدالة في الخوارزميات، والتي تضم العديد من المنظمات من بين أعضائها مثل مركز مارك روتنبرغ موجه سياسة الذكاء الاصطناعي والسياسة الرقمية (Marc Rotenberg’s policy-oriented Center)، ومعهد أبحاث الذكاء الاصطناعي الموزع الجديد لمكافحة التحيز الذي يضم عالمة أخلاقيات الذكاء الأصطناعي تيمنت غيبرو، التي كانت تعمل مع غوغل في هذا المجال.

وكانت تيمنت غيبرو قد عيّنت في غوغل لتكون ناقدًا صريحًا للذكاء الاصطناعي غير الأخلاقي، ثم تم طردها بسبب ذلك. وهناك أيضًا عدد كبير من الخبراء الأكاديميين الذين اتخذوا مواقف عامة قوية بشأن تطوير الذكاء الاصطناعي للقضاء على التحيز الاجتماعي.

ولكن ما يجلبه كوين لهذا المجال هو درجة عالية من البحث النفسي لمرافقة تلك الأهداف الأخلاقية. ويتضمن عمله السابق دراسة الاستجابات العاطفية عبر الثقافات (مثل دراسة ردود الفعل المماثلة للأغاني الحزينة في الولايات المتحدة والصين) والعمل على العديد من الفروق الدقيقة للتأثيرات الصوتية.

كوين جمع 5 ملايين دولار للتحقيق في كيفية صياغة الذكاء الاصطناعي لتطوير فهمه للبشر (شترستوك)

مساعدون لتعليم الآلة التعاطفَ

كما يأتي كوين بجيش من الأسماء التي لها باع في هذ المجال. فقد انشأت مبادرة هيوم لجنة للأخلاقيات مع العديد من العلماء في مجال الذكاء الاصطناعي العاطفي والأخلاقي، بما في ذلك مؤسس شركة "إيمباثي لاب" (Empathy Lab) دانييل كريتيك كوب، وخبير "الإنصاف الحسابي" كارثيك ديناكار، بالإضافة إلى الأستاذ بجامعة كاليفورنيا (University of California) داشر كيلتنر، الذي كان معلمًا للدراسات العليا لكوين وقدم خدماته لشركة بيكسار بشأن المشاعر عند انتاجها فيلم الكرتون "إنسايد أوت" (Inside Out).

وقال كوين إنه جمع 5 ملايين دولار من استوديو "آيجز فنتشرز" (Aegis Ventures) مع جولة أخرى لاحقة. وسيتم توجيه الأموال للتحقيق في كيفية صياغة الذكاء الاصطناعي ليس فقط للمعالجة بسرعة كبيرة ورؤية الأنماط غير المرئية، ولكن أيضًا لتطوير فهمه للبشر، وهو نهج أطلق عليه كوين اسم "الذكاء الاصطناعي التعاطفي".

وقد تضمن بحث كوين في غوغل "الحوسبة العاطفية"، التي تهدف إلى زيادة قدرة الآلات على قراءة المشاعر ومحاكاتها.

LONDON, ENGLAND - AUGUST 04: A robot poses as Westfield prepare to host an interactive artificial intelligence storytelling event for kids at a pop-up indoor park on August 10 at Westfield London, August 4, 2016 in London, England. (Photo by Jeff Spicer/Getty Images for Westfield)
أكثر من ثلثي خبراء الذكاء الاصطناعي لا يعتقدون أنه سيُستخدم في الغالب لتحقيق الصالح الاجتماعي (غيتي)

ميزات وسلبيات

قد تبدو فكرة وجود المزيد من المشاعر تتناقض مع الأفكار السائدة حول الذكاء الاصطناعي، الذي غالبًا ما يُنظر إلى قوته الأساسية على أنها اتخاذ القرارات دون أخذ الشعور الإنساني في الاعتبار.

لكن الكثيرين في مجتمع الحوسبة العاطفية يقولون إن عدم قدرة الذكاء الاصطناعي على قراءة الأشخاص هو ما يجعلها خطيرة، ويجعل من المهم أن يرى الذكاء الاصطناعي الناحية الإنسانية في البشر الذين يخدمهم.

بالطبع، ليس هناك ما يضمن أنه إذا تمكن الذكاء الاصطناعي من قياس المشاعر، فلن تستغلها، خصوصا إذا كانت شركات التكنولوجيا الكبيرة تسعى لتعظيم أرباحها.

يكمن التحدي الآخر في تطوير العاطفة عند الذكاء الاصطناعي في كيفية تجنب البناء على عواطف مبرمجيه البشريين والتي قد تكون متحيزة.

ويقول شركاء كوين إنهم يعتقدون أن نموذج هيوم يتجنب التحيز. وقال أرجون ناجيندران، الشريك المؤسس لشركة "مورشن" (Mursion) لتدريب الموظفين على الواقع الافتراضي، "نماذج هيوم غنية بالمعلومات ولكنها لا تزال بعيدة عن التحيز".

وبدوره، قال الأستاذ بجامعة ماريلاند (University of Maryland) وخبير الذكاء الاصطناعي بن شنايدرمان "إن مبادرات مثل كوين يمكن أن تلعب دورًا في إنشاء ذكاء اصطناعي متحيز عرقيا، لكنه ليس كذلك".

ووجدت دراسة أجراها مركز بيو للأبحاث (Pew Research Center) ونشرت في يونيو/حزيران الماضي، أن أكثر من ثلثي خبراء الذكاء الاصطناعي لا يعتقدون أن الذكاء الاصطناعي سيُستخدم في الغالب لتحقيق الصالح الاجتماعي بحلول عام 2030.

وأقر كوين بمخاطر تزويد الذكاء الاصطناعي سريع النمو بالمزيد من البيانات العاطفية. لكنه قال أيضًا إن البديل أكثر ترويعًا "إذا واصلنا تحسين هذه الخوارزميات لتحسين المشاركة دون مشاريع مثل الذكاء الاصطناعي التعاطفي، فحينئذٍ سيقضي الأطفال 10 ساعات يوميًا على وسائل التواصل الاجتماعي.. ولا أعتقد أن هذا مفيد لأي شخص".

المصدر : واشنطن بوست