أنظمة التعرف على الوجوه تتحيز ضد النساء والسود.. وهذه هي الأسباب؟

Huawei's AI face recognition software is seen during a demonstration at an exhibition in Bangkok, Thailand January 30, 2019. Picture taken January 30, 2019. REUTERS/Athit Perawongmetha
أنظمة التعرف على الوجوه قد تؤدي لأخطاء كارثية بسبب صعوبة تمييز وجوه النساء والرجال ذوي البشرة الداكنة (رويترز)
جيمي غوميز ديمقراطي من كاليفورنيا، خريج جامعة هارفارد وأحد المحامين الهسبانيين (من أصول إسبانية) القلة الذين يخدمون في مجلس النواب الأميركي، لكن بالنسبة لنظام التعرف على الوجوه الخاص بشركة أمازون فهو يبدو مثل مجرم محتمل.

وغوميز هو واحد من 28 عضوا في مجلس الكونغرس الأميركي تم مطابقتهم خطأ بصور لأشخاص اعتقلوا من قبل، في إطار اختبار أجراه اتحاد الحقوق المدنية الأميركي العام الماضي على برنامج أمازون للتعرف على الوجوه.

وتقريبا، فإن 40% من المطابقات الخاطئة لأداة أمازون -التي كانت مستخدمة من قبل الشرطة- تعلقت بأشخاص ملونين.

وتعزز النتائج مخاوف متزايدة بين مجموعات الحريات المدنية والمشرعين وحتى بعض شركات التقنية من أن أنظمة التعرف على الوجوه قد تضر الأقليات، لأن هذه التقنية أصبحت أكثر انتشارا.

ويستخدم بالفعل أحد أشكال التقنية في هواتف آيفون وأندرويد، وبدأت أيضا الشرطة والمتاجر والمدارس التوجه لاستخدامها تدريجيا، لكن الدراسات أظهرت أن أنظمة التعرف على الوجوه تواجه صعوبات في التعرف على النساء والأشخاص ذوي البشرة الداكنة، مما قد يؤدي إلى نتائج كاذبة كارثية.

فوفقا لدراسة أجراها باحثون من مختبر وسائط جامعة ماساتشوستس للتقنية، فإن أنظمة التعرف على الوجوه لشركات مايكروسوفت و"آي بي أم" و"فيس++" وجدت صعوبة في تمييز جنس النساء ذوات البشرة الداكنة مثل الأميركيات من أصول أفريقية مقارنة بالرجال البيض.

كما وجدت دراسة أخرى للجامعة ذاتها صدرت في يناير/كانون الثاني الماضي أن تقنية أمازون للتعرف على الوجوه وجدت صعوبات أكبر من أدوات مايكروسوفت أو "آي بي أم" في التعرف على جنس النساء ذوات البشرة الداكنة.

آبل تستخدم تقنية التعرف على الوجه لفك قفل هواتف آيفون الحديثة (رويترز)
آبل تستخدم تقنية التعرف على الوجه لفك قفل هواتف آيفون الحديثة (رويترز)

 أسباب المشكلة
هناك أسباب عدة قد تكون وراء الصعوبة التي تواجهها أنظمة التعرف على الوجوه في تمييز وجوه أصحاب الأقليات والنساء مقارنة بالرجال البيض، أبرزها -وفقا للزميلة في مركز الحقوق بجامعة جورج تاون للخصوصية والتقنية كلير غارفي- أن الصور العامة التي يستخدمها التقنيون لتدريب الحواسيب على تمييز الوجوه تتضمن صور رجال بيض أكثر من صور أصحاب الأقليات.

فمثلا إذا استخدمت شركة صورا من قاعدة بيانات لشخصيات مشهورة فإن تلك الصور تميل إلى أن تكون لأشخاص بيض، لأن الأقليات غير ممثلة جيدا في هوليود.

كما أن المهندسين في شركات التقنية -الذين معظمهم رجال بيض- قد يصممون أنظمة التعرف على الوجوه من غير قصد، لتعمل بشكل أفضل على تمييز أعراق معينة، وفقا لغارفي.

ثم إن هناك تحديات التعامل مع ضعف التباين اللوني في البشرة الداكنة، أو مع النساء اللواتي يستخدمن المكياج لإخفاء التجاعيد أو يصففن شعرهن بطريقة مختلفة، بحسب غارفي.

وتبذل شركات التقنية جهودا كبيرة لتقليص نسبة الأخطاء إلى أدنى حد ممكن في أنظمة التعرف على الوجوه التي تطورها، لكن مع ذلك فإن المخاوف من إساءة استخدام مثل هذه الأنظمة للتمييز ضد المهاجرين أو الأقليات لا تزال قائمة، ويعود ذلك في جزء منه إلى أن الناس لا يزالون يكافحون التحيز في حياتهم الشخصية.

المصدر : مواقع إلكترونية