هل خطر في بالك يوما كيف يعرف الموقع الذي تتصفحه أنك تبحث عن حقيبة جديدة فيعرض عليك إعلانات موجهة خاصة بهذه السلعة؟ أم كيف يتعرف هاتفك (الذكي) على وجهك عندما تنظر في الشاشة فيفتح قفله المغلق؟ أم كيف تعرف منصة فيسبوك أنك تحب قراءة منشورات صديق معين فيعرضها لك في مقدمة المنشورات؟
تتداخل تطبيقات الذكاء الاصطناعي مع العديد من نشاطاتنا اليومية فتعيننا على أداء مهمات وتسهيل حاجيات وتحسين كثير من الخدمات. لكن يغيب عن البعض أن لهذه التقنية المتقدمة جانبا مظلما يعمل أثره السلبي في حياتنا بشكل جلي أو خفي قد يصل في أحيان إلى تدمير مدن وقتل مدنيين وأطفال.
يمكن تشبيه أنظمة الذكاء الاصطناعي بتطور الطفل الصغير يتعلم الكلام والتعامل مع مواقف الحياة المختلفة من خلال مشاهدة أمثلة وتعلم أنماط من تصرفات من حوله ثم تعميم هذه الأمثلة والأنماط على مواقف جديدة في حياته.
صناعة الذكاء
يهدف الذكاء الاصطناعي إلى تعليم الآلات (مثل أجهزة الحاسب أو الهواتف الذكية) كيف تكتسب القدرة على المحاكمة والاستنتاج بدون تدخل مباشر من المستخدم بحيث تصبح قابلة على القيام بإجراء ما كإيقاف تحويل بنكي لأن المعاملة مشكوك بها مثلا، أو كترشيح لمقطع فيديو قد يعجبك على منصة يوتيوب بناء على مشاهداتك السابقة ومعلومات أخرى تعرفها المنصة عنك.
عملية تدريب الآلة هذه لها عناصر ثلاثة:
- الأول: كمية كبيرة من المعطيات والبيانات (مثل الصور والنصوص وغيرها).
- الثاني: خوارزميات ومعادلات رياضية تهضم هذه البيانات –والهدف هنا تعريض الخوارزمية لكم كبير من الأمثلة لمساعدتها على استنتاج أنماط عامة من هذه الأمثلة.
- الثالث: استخدام هذه الأنماط المستنتجة للتنبؤ (الرياضي) بنتائج لم تكن مشمولة في البيانات والأمثلة التي استخدمت في مرحلة التدريب، وهذه الأخيرة هي الغاية المطلوبة من هذه التطبيقات (أي بناء قدرة الآلة على تجاوز الأمثلة المقدمة واستقراؤها في وضع جديد).
يمكن للتبسيط تشبيه أنظمة الذكاء الاصطناعي بتطور الطفل الصغير يتعلم الكلام والتعامل مع مواقف الحياة المختلفة من خلال مشاهدة أمثلة وتعلم أنماط من تصرفات من حوله ثم تعميم هذه الأمثلة والأنماط على مواقف جديدة في حياته. أذكر مثال الطفل هنا لتقريب الفكرة مع التنبيه لفوارق عدة أهمها أن للطفل إرادة واعية وفهم فطري لا تملكه أنظمة الحاسب وهذه نقطة يكثر الجدل فيها بين من يعتقد أنه يمكن لأنظمة الذكاء الاصطناعي أن تطور وعيا تشبه به البشر ومن يرفض الفكرة. وقد شاعت هذه الأفكار في الخيال العلمي حتى غدا البعض يخشى أن الذكاء الاصطناعي سيكتسب ذكاء البشر وربما يسبقنا به ويسيطر على العالم يوما ما. ولعلي أرجع لهذه النقطة بتدوينة مستقلة أستوفي فيها نقاط الاختلاف.
شاهدنا مؤخرا تقارير عن استخدام تقنيات الذكاء الاصطناعي من قبل الجيش الإسرائيلي في عدوانه على غزة وما نتج عنه مقتل عدد مهول من المدنيين العزل في منازلهم وتدمير للبنية التحتية غير مسبوق في تاريخ الحروب المعاصرة.
أداة للخير والشر
قبل ذكر المحاذير لا بد أن أنوه أن تطبيقات الذكاء الاصطناعي تدخل في الكثير من الاستخدامات المفيدة لا بل والحيوية أيضا أذكر منها على سبيل المثال وليس الحصر: تطبيقات الهواتف المحمولة والتسويق والاتصالات والطاقة والمعاملات البنكية والتحويلات المالية والملاحة وحتى في التشخيص الطبي وتطوير الدواء. ومنها أبضا تطبيقات في حماية البيئة والإغاثة في الحروب والكوارث الطبيعية. ولها دور في مساعدة ذوي الاحتياجات الخاصة عن طريق تطبيقات تساعد من يعاني من صعوبات مؤقتة أو دائمة في النطق حيث تراعي هذه التطبيقات صعوبات النطق الخاصة بالمستخدم، أو الصعوبات البصرية حيث يستخدم الصوت للوصول الى شبكة الإنترنت والتفاعل مع محتواها.
لكن للذكاء الاصطناعي أيضا محاذير ينتج عنها أضرار على الأفراد والمجتمعات إذا أهملت. فهو كباقي تطبيقات العلوم والتكنولوجيا تحتاج إلى بعد أخلاقي يراقب آثارها على المجتمع ويرشد مسارها. ألخص بعض هذه المخاطر في ثلاث نواح أساسية ولعلي أفصل فيها في مدونات لاحقة إن شاء الله:
- الانحياز والتمييز العنصري: أحد أكبر محاذير تطبيقات الذكاء الاصطناعي التي تكتب عنها الدراسات ويحذر من مخاطرها الباحثون هو الانحياز المبطن الضمني في أنظمة الذكاء الاصطناعي والتي تنتج في الغالب من مضمون البيانات المستخدمة لتدريب الخوارزمية. حيث تحمل هذه البيانات في طياتها انحيازات تتعلمها الخوارزمية فتعممها على شكل أنماط منحازة فتتنبأ بنتائجها بناء على ذلك المضمون المنحاز.
كمثال على ذلك نجد في بعض التطبيقات أن البيانات المستخدمة للتدريب مصدرها الإنترنت فهي تحتوي على معلومات مشوهة عن المرأة المسلمة المحجبة في صورة امرأة ضعيفة مقهورة غير متعلمة عاكسة بذلك أنماطا من التحيز غير مقصودة لكنها نتاج بيانات منحازة أصلا ملأت بها حبائل الشبكة العنكبوتية. وقد تنبه الباحثون في هذا المجال لهذه المسألة وطوروا أساليب وأدوات لكشفها والحد من آثارها.
- تطبيقات في الشر: ومنها تطبيقات إما معدة خصيصا لأهداف غير أخلاقية أو أن لها تطبيقات عامة واستثمرت في مساحات لا أخلاقية. كما في أنظمة التعرف على وجوه المتظاهرين وحملات التأثير على الرأي العام (في مواسم الانتخابات مثلا) وفي الرقابة على محتوى معين في وسائل التواصل الاجتماعي بغرض كف الأفواه.
وقد شاهدنا مؤخرا تقارير عن استخدام تقنيات الذكاء الاصطناعي من قبل الجيش الإسرائيلي في عدوانه على غزة وما نتج عنه مقتل عدد مهول من المدنيين العزل في منازلهم وتدمير للبنية التحتية غير مسبوق في تاريخ الحروب المعاصرة.
- الأضرار البيئية: تتطلب عملية التدريب في معظم تطبيقات الذكاء الاصطناعي كمية كبيرة من الطاقة التي تصرف على تشغيل وتخفيض درجة حرارة المعالجات الحاسوبية الفائقة المستخدمة في إعداد أنظمة الذكاء الاصطناعي. ويكون لمعظم هذه الطاقة المصروفة بصمة كربون لا يستهان بها.
فمثلا وجد الباحثون أن عملية تدريب بعض تطبيقات الذكاء الاصطناعي قد تنتج من الكربون خمسة أضعاف ما تنتجه السيارة خلال عمر استخدامها. ولا تزال هذه المسألة تشغل الباحثين اليوم وقد نشط بعض من يهتم بالقضايا البيئية والأخلاقية بالتوعية بها والسعي لإيجاد حلول لها.
يتطور حقل الذكاء الاصطناعي بسرعة هائلة وتتوسع تطبيقاته بصورة يصعب حصرها.
تطبيقات الذكاء الاصطناعي لا تختلف كثيرا عن باقي تطبيقات العلوم والتكنولوجيا من حيث قابليتها للخير والشر. فكما ينتج عن بعض تطبيقات الكيمياء والبيولوجيا السموم وتلوث الهواء والماء، تسهم نفس هذه العلوم في تصنيع الدواء وإيجاد الحلول لإصلاح مشاكل البيئة. وكما تستخدم معادلات الفيزياء في تصنيع السلاح النووي الفتاك، تستخدم أيضا نفس هذه المعادلات في إنتاج طاقة بديلة وتحررنا من الاعتماد على المحروقات الملوثة. وكذلك الحال في الذكاء الاصطناعي حيث يمكن كما عرضت أن تكون لها استخدامات في نشر الخير واستعمار الأرض كما أمرنا ربنا سبحانه وتعالى، وأخرى سلبية مدمرة. وتقع المسؤولية على الباحث والدارس والمطور في مراقبة غايات تطبيقات هذه التقنيات وفي مراعاة الجانب الأخلاقي كأولوية وضرورة ملحة ويشاركهم في هذه المسؤولية صناع القرار في مجالات الأعمال والسياسة.
يتطور حقل الذكاء الاصطناعي بسرعة هائلة وتتوسع تطبيقاته بصورة يصعب حصرها. ولعلي أكتفي بهذا كمقدمة وللحديث بقية.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.