"تجّار الوجوه".. لماذا قررت "IBM" إيقاف تكنولوجيا التعرف على الوجه نهائيا؟

لا شك أن الخبر التقني الأكثر لفتا للانتباه خلال الأسابيع القليلة الماضية كان إعلان(1) شركة "آي بي إم" (IBM) العالمية إيقاف مشاريعها للعمل على تكنولوجيا التعرف على الوجه، الأمر الذي جاء في صورة خطاب إلى الكونغرس الأميركي رفض فيه "أرفيند كريشنا" الرئيس التنفيذي للشركة استخدام تكنولوجيا التعرف على الوجه من أجل عمليات المراقبة الجماعية والتنميط العِرقي وانتهاك حقوق الإنسان والحريات الأساسية.

 

ما حدث لم يكن قرارا من شركة وحيدة، بعد خطاب "آي بي إم" بيومين أعلنت أمازون(2) أنها ستُعلِّق استخدام الشرطة لبرنامج التعرف على الوجه الخاص بها -ويُسمى "ريكوجنيشن"- لمدة عام واحد، ثم تلتها مايكروسوفت(3) خلال أيام قليلة بإعلان تقول فيه إنها ستُعلِّق مبيعات تكنولوجيا التعرف على الوجه الخاصة بها إلى الشرطة حتى تُوضَع ضوابط قانونية لاستخدام التقنية، أما شركة غوغل(4) فكانت قد اتخذت خطوات شبيهة قبل نحو عام من الآن، وفي الولايات المتحدة الأميركية وبعض الدول فإن بعض المدن والولايات تمنع استخدام التقنية قانونا على أراضيها.

 

جاء ذلك كله على خلفية اتهامات للشرطة الأميركية بإساءة استخدام تقنيات التعرف على الوجه في أثناء الانتفاضة التي تلت(5) مقتل المواطن الأميركي جورج فلويد في 25 مايو/أيار 2020، أثناء تثبيته على الأرض بغرض اعتقاله من قِبل شرطة المدينة، لكن ذلك يأتي بشكل خاص في إطار يتعلّق بتقنية التعرف على الوجه نفسها، حيث يبدو أنها -مثل الكثيرين في الولايات المتحدة الأميركية- متحيزة ضد السود أيضا!

 

 

في الواقع، فإن قرار "آي بي إم" لم يكن وليد اللحظة كما تصوّر البعض أو فقط ردّ فعل على انتفاضة فلويد، بل بدأت المشكلة قبل نحو خمسة أعوام حينما كانت الأميركية جوي بولامويني طالبة في معهد جورجيا التقني وواجهت مشكلة غريبة بعض الشيء، فبينما كانت تعمل على تصميم روبوت يمكنه أن يمارس أحد ألعاب الأطفال معها، لم تتمكن عيون الروبوت -الكاميرا الخاصة به- من التعرف على وجهها، بل ولم تتعرف على وجود أي وجه من الأساس. كانت بولامويني تستخدم برمجية شهيرة معروفة بدقتها في التعرف على الوجوه، واضطرت بسبب تلك المشكلة أن تستعين بإحدى رفيقاتها في الغرفة لتقوم بالتجربة بدلا منها، لأنه يبدو أن الروبوت يواجه مشكلة مع وجه بولامويني تحديدا، لكن هل يفعل ذلك حقا؟!

 

بالطبع لا، كل المشكلة أن بشرة بولامويني سوداء، والخوارزمية التي بُني هذا البرنامج عليها أكثر دقة مع أصحاب البشرة البيضاء، تكرر الأمر في أكثر من موقف، خاصة أن عمل بولامويني كان يتطلّب خوارزميات شبيهة للدرجة التي دفعتها لتقصي الأمر فتحول إلى رسالة الدكتوراه الخاصة بها وهو ما أصبح معروفا فيما بعد باسم مشروع ظلال الجندر (Gender Shades)، والذي بنى نفسه على ورقة بحثية(6) كتبتها بالتعاون مع يمنت جيبرو من معامل مايكروسوفت، صدرت في 2018.

 

تحاول تلك الدراسة أن تُقارن بين استجابات منظومات التعرف على الوجوه المختلفة بالنسبة إلى الجندر والعِرق. لأجل تلك المهمة استخدمت بولامويني ألف صورة لأشخاص من أعراق مختلفة ومن الجنسين، ثم استخدمت برمجيات صادرة من ثلاث شركات، وهي "آي بي إم" و"مايكروسوفت" و"فيس++"، لفحص تلك الصور، هنا جاءت النتائج لتقول إن دقة تلك البرمجيات كانت أقل بفارق نحو 10% فقط لصالح أصحاب الوجوه البيضاء من الرجال مقارنة بأصحاب البشرة السوداء، وبدا واضحا أنه كلما كان لون البشرة داكنا أكثر -من أشقر تام إلى أسود تام- كان الخطأ أكبر.

 

لكن المشكلة الأساسية ظهرت(7) حينما قارنت بولامويني نِسَب الخطأ بين الرجال أصحاب البشرة البيضاء والنساء أصحاب البشرة السمراء، حيث وصل الخطأ -في برمجية "آي بي إم"- إلى نسبة 34%، وكلما كانت البشرة داكنة أكثر وصل الخطأ إلى قرابة 50%، أشعلت تلك النتائج جدلا شديدا في الأوساط التقنية والعامة، ليس لأنها الأولى من نوعها، فقد كان الموضوع مُثارا من قبل وهناك الكثير من الأبحاث حوله إلى الآن، لكن لأنها المرة الأولى التي تختبر فيها برمجيات مستخدمة في السوق بالفعل.

بعد صدور الدراسة حاولت شركة "آي بي إم" تحسين درجة التحيز ضد السود في أدوات التعرف على الوجه الخاصة بها، فقامت بإضافة مليون صورة لمنظومة الذكاء الاصطناعي التي تتعلم التعرف إلى الوجه بغرض تحسين التنوّع في الخوارزمية، لأن إحدى المشكلات بالأساس كانت أن الخوارزمية تدربت على عدد أكبر من الوجوه البيضاء مقابل السمراء على تدرج ألوانها، ما دفعها لبناء معادلاتها على أساسات تنطلق من هذا النوع من البشرة، مع الملامح الأخرى المصاحبة لها.

 

تحسّنت النتائج بالفعل لكن ليس كثيرا، إلا أن المشكلة الأكبر كانت أن الشركة حصلت على تلك الصور من منصة فليكر دون إذن من المصورين أو الأشخاص المستخدمة صورهم، ما بدأ بدوره جولة جدل(8) جديدة، ليس عن التمييز العنصري فقط، بل أيضا عن إمكانية استخدام تلك الأدوات لانتهاك حقوق الإنسان، في تلك النقطة -وخلال 2019- كانت "آي بي إم" قد بدأت بسحب أدوات تلك التقنية من منصتها شيئا فشيئا، وصولا إلى لحظة جورج فلويد.

 

الحديث عن العلاقة بين حقوق الإنسان واستخدام تلك الأدوات المعتمدة على قدرات الذكاء الاصطناعي للتعرف على الوجه لم يكن فقط متعلقا بالإنجازات الأخيرة من قِبل شركة "آي بي إم" ورفاقها، في الواقع فإن "آي بي إم" تحديدا ليست لاعبا ثقيلا جدا في هذا النطاق بالقدر الكافي لصنع تأثير كبير على تحركاته التقنية والاقتصادية مستقبلا مع توقفها، لكن الصورة الأكثر رعبا من الأمر ظهرت في يناير/كانون الثاني الفائت مع تحقيق أجرته النيويورك تايمز(9) عن مبادرة حديثة جدا تُدعى "كير-فيو إيه آي" (Clearview Ai).

 

تهدف هذه المبادرة بشكل مباشر للتعامل مع الجهات المنوطة بإنفاذ القانون، وهي بالفعل تتعامل مع 600 من تلك الجهات في الولايات المتحدة إلى جانب بعض الشركات الخاصة، قوة هذه المبادرة تأتي من عدد الصور التي حصلت عليها من فيسبوك وتويتر ويوتيوب وإنستغرام وغيرها من منصات التواصل الاجتماعي، هذه الصور يضعها المستخدمون بشكل عام ما يعني -بحسب المبادرة- أنها متاحة للاستخدام، تمكّنت "كلير-فيو" من جمع(10) أكثر من 3 مليارات صورة!

مع هذا العدد، فإن دقة تقنية التعرف على الوجه الخاصة بـ "كلير-فيو" وصلت إلى أكثر من 99%، نحن أمام محرك بحث يشبه غوغل لكنه فقط يبحث عن الصور الخاصة بك في كل مكان ممكن على الإنترنت، يزعم هوان تون ثات، المؤسس والمدير التنفيذي للمبادرة، أن هذه التقنية صُمِّمت فقط للبحث عن المجرمين الذين تلقّوا أحكاما قانونية بالفعل، لكن المشكلة -كالعادة- تكمن في ثقل هذه التقنية، هل يمكن للبعض أن يُسيء استخدامها؟ وكيف يمكن فرض رقابة على ذلك؟

 

بالتالي، فإن انسحاب شركة "آي بي إم" ورفاقها، مهما بلغ ثقلهم، من سباق العمل على تطوير أو فقط التجارة مع الحكومات في تقنيات التعرف على الوجه قد لا يؤثر بشكل كبير أو دائم في خط سير تطوير التقنية الذي يبدو أنه لن يتوقف أبدا، ومن حين لآخر تظهر مبادرات مثل "كلير-فيو" (بالانتير نموذجا(11)) بصدمة جديدة، بل وكان تقرير قد صدر في مارس/آذار الماضي من مؤسسة "جراند فيو" لتحليلات السوق قد أشار(12) إلى أن الدعم أو الطلب الذي تتلقاه أعمال التطوير في هذه التقنية سيتسبّب في نمو قدره 14.5% بحلول العام 2027.

 

أضف إلى ذلك أنه خارج الولايات المتحدة، خاصة في دول غير ديمقراطية، فإن هناك رغبة عارمة من قِبل السلطات في الحصول على هذا النوع من التقنيات، الأمر الذي سيساعد تلك التقنية على التطور مهما بلغت قوة الواقفين ضدها. (للمزيد عن التجربة الصينية تحديدا في هذا الأمر، إمكاناتها ومآلاتها، يمكنك أن تراجع(13) تقريرا سابقا لـ "ميدان" بعنوان: "الأخ الأكبر يراقبك".. هكذا صنعت الصين أضخم نظام لمراقبة المواطنين بالعالم).

لكن على الجانب الآخر، فإن انسحاب تلك الشركات لا يُعَدُّ فارغا بشكل كامل، بالطبع فإن أبحاثها تساهم في تطوير التقنيات بشكل أسرع، وبالتالي فإن إيقافها سيؤثر بدرجة ما، لكن الفكرة الأكثر أهمية هي أن انسحابها يثير الكثير من الضجة حول الأمر في كل المجتمعات حول العالم، الأمر الذي قد يساعد على فرض قوانين تحدّ من سوء استخدامها، سواء كان ذلك عبر وكالات حكومية أيًّا كانت، أو فقط من قِبل شخص لا تعرفه.

 

تخيل أن أحدهم رأى إحداهن في مقهى ما، لا يعرف عنها شيئا لكنه يمكن ببساطة أن يلتقط لها صورة -دون أن تعلم- بالكاميرا الخاصة به ثم يدخلها على أيٍّ من تطبيقات التعرف على الوجه، هنا سيتمكن من الوصول إلى كل حساباتها وربما محل سكنها أو عملها، إن كان هذا الشخص أكثر تهورا فربما يقرر فجأة أن يزورها في المنزل ويتسبب لها في الكثير من المشكلات، هذا فقط مثال واحد، ويمكن أن تفتح الباب لخيالك كي يتوقع ما يمكن أن يحدث بسبب انتشار تقنية كتلك.

 

تقنيات التعرف على الوجه مفيدة حقا، وقد تساعد المجتمعات بشكل أفضل للتخلص من الجريمة، لكن المفارقة التي يطرحها العصر الرقمي -على بساطتها- أعمق من ذلك: إمّا الأمان أو الخصوصية، إذا انحزت ناحية الأمان فقدت الكثير من الخصوصية، والحرية بالتبعية، وإذا انحزت ناحية الخصوصية فقدت الكثير من الأمان.

أحد أشهر الأمثلة على هذا النوع من الجدل هو ما يحدث حاليا في حالة كورونا المستجد، ففي بعض الدول تقرّر(14) استخدام برامج تعقب استخباراتية على المواطنين العاديين، قد يتطور ذلك، خاصة أن الاستخبارات بطبيعتها نهمة للمعلومات، لبرامج مراقبة إنترنتية دائمة بحجة الوقاية الصحية. لو تأملت قليلا لوجدت أن الصحة هي أفضل ما يمكن أن تستخدمه لمساومة الناس على حرياتهم، سيوافقون على أي شيء طالما سيُبقيهم في أمان.

 

المستقبل مع تقنيات التعرف على الوجه غير معروف، قد يكون أفضل، لكنه سيُغيّر من شكل الخصوصية كما نعرفه للأبد، وذلك بدوره قد يكون ضارا للبشر، التكنولوجيا ببساطة ليست مجرد سكّين تكون مخيرا في استخدامه بين أن تُقطّع الطماطم أو تقتل جارك، لكنها -كما يشير جاك إيلول في كتابه "خدعة التكنولوجيا"- ذات تأثير قوي علينا، ما إن نمتلكها حتّى تتغير أولوياتنا في استخدامها، يتطور ذلك بداية من المنجزات العلمية للنظرية النسبية والكوانتم وصولا إلى قنبلة هيروشيما وناجازاكي، الأمر كذلك بالنسبة لتقنيات التعرف إلى الوجه، نعم، قد تعطيك ملامح حياة أفضل، لكنها قد تُعطي أجهزة الاستخبارات ملامح حياتك بشكل أفضل أيضا!

_____________________________________________

المصادر

  1. IBM CEO’s Letter to Congress on Racial Justice Reform
  2. We are implementing a one-year moratorium on police use of Rekognition
  3. Microsoft Won’t Sell Facial Recognition Tech to Police
  4. Google favors temporary facial recognition ban as Microsoft pushes back
  5. How George Floyd Was Killed in Police Custody
  6. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification
  7.  المصدر السابق
  8. Facial recognition's ‘dirty little secret': Millions of online photos scraped without consent
  9. The Secretive Company That Might End Privacy as We Know It
  10.  Clearview AI’s Database Has Amassed 3 Billion Photos. This Is How If You Want Yours Deleted, You Have To Opt Out
  11. Palantir Knows Everything About You
  12.  Facial Recognition Market Size, Share & Trends Analysis Report By Technology (2D, 3D), By Application (Emotion Recognition, Attendance Tracking & Monitoring), By End Use, And Segment Forecasts, 2020 – 2027
  13. "الأخ الأكبر يراقبك".. هكذا صنعت الصين أضخم نظام لمراقبة المواطنين بالعالم
  14. Yuval Noah Harari: the world after coronavirus

المزيد من مقالة
الأكثر قراءة