التمييز ضد السود والنساء.. الجانب المظلم للذكاء الاصطناعي

لون البشرة قد يحول بين بعض خوارزميات التعرف على الوجه وبين تمييز الشخص (غيتي)
لون البشرة قد يحول بين بعض خوارزميات التعرف على الوجه وبين تمييز الشخص (غيتي)
يبدو أن خوارزميات الذكاء الاصطناعي التي لم تخضع للتجريب والتدريب الجيد قد تؤدي بالجهاز إلى اتخاذ قرارات تمييزية، مما يعتبر مشكلة تتطلب حلا جذريا، حسب ما جاء في صحيفة ليزيكو الفرنسية.

كاتبة التقرير دبورا لوي ضربت مثالا على ذلك هو تصنيف نظام غوغل للتعرف على الوجه في عام 2015 صورة لشخص أميركي من أصل أفريقي في فئة "الغوريلا".

كما أوردت قصة الباحثة في معهد ماساتشوستس للتكنولوجيا جوي بولامويني ذات البشرة السوداء التي اكتشفت بالصدفة وهي تجرب برنامج تعرف على الوجه أنه لا يتعرف على وجهها، في حين أنه يتعرف بشكل جيد على وجوه أصدقائها، فدفعها ذلك لارتداء قناع أبيض، وكانت المفاجأة أن البرنامج تعرف فورا على "وجهها".

ومن هذه التجربة قررت بولامويني إعداد عرض قدمته في نهاية فبراير/شباط الماضي بمؤتمر "الإنصاف والمساءلة والشفافية" الذي عقد في جامعة نيويورك، وقد كشفت في هذا العرض عن عيب رئيسي في الذكاء الاصطناعي يمكن أن تكون له عواقب واسعة وخطيرة.

تدريب الخوارزميات
والواقع أنه للتعرف على الوجه وتسجيله في فئات مختلفة -مثل الجنس أو العمر- لا بد أن تتدرب الخوارزميات على قواعد البيانات، فعلى سبيل المثال بمجرد أن يرى الجهاز عددا من الوجوه المرتبطة بصفة "المرأة" يمكنه التعرف على امرأة أخرى غير موجودة في الصور التي عالجها، ولكن إذا كانت قاعدة البيانات غير متنوعة بما فيه الكفاية -على سبيل المثال إذا لم يكن بها ما يكفي من صور النساء السود- فذلك يعني أن الخوارزمية لم تكن مدربة تدريبا جيدا.

ومع زيادة وتنويع استخدامات الذكاء الاصطناعي يمكن أن تكون لهذا التحيز عواقب كارثية، فالمستقبل سيجعل من الخوارزميات وسيلة للتنبؤ، إذ سوف تساعد مصرفنا على اتخاذ قرار بإعطائنا قرضا أو حرماننا منه، وستساعد طبيبنا على معرفة العلاج المناسب، "فالذكاء الاصطناعي يوفر القدرة على أتمتة عملية صنع القرار مع تدخل بشري ضئيل أو منعدم كليا، وعلينا بالتالي أن نكون يقظين كي لا تضخم هذه القرارات الآلية التحيزات البشرية "، حسب ما تراه المؤسسة المشاركة لهيئة تطلق على نفسها "نساء في الذكاء الاصطناعي" كارولين لير.

وبما أن هذه المشاكل قد تم تحديدها فإن العديد من الباحثين يعملون الآن على حلها، مثل الباحث في مختبر الذكاء الاصطناعي في فيسبوك محمد مصطفى سيسي الذي يقول "أنا أعمل على خلق ذكاء اصطناعي يتماشى مع القيم التي يريد المجتمع أن يكون معروفا بها"، وللقيام بذلك قال سيسي إنه يدقق في النماذج من خلال تفكيكها لاكتشاف أي تحيز محتمل فيها.

وإذا كانت هذه المشكلة قد طرحت عالميا فإن تسويتها ستظل شائكة، إذ علينا أن نجد الأدوات التقنية الضرورية "لتصحيح" الخوارزميات، ولا بد قبل ذلك من اتفاق دولي لتحديد المجتمع الذي نريده
والقيم التي نعتبرها غير قابلة للتصرف، وإذا نجحنا في ذلك يمكن للذكاء الاصطناعي حينها أن يحمي الإنسان من التحيز، ويجعل عمليات مثل التوظيف أو منح الائتمان أكثر عدلا، حسب لوي.

المصدر : الصحافة الفرنسية