كان الذكاء الاصطناعي خيالًا علميًا بعيد المنال، وما هي إلا سنوات معدودة حتى اقتحم بيوتنا دون استئذان، وغدا يتصرف في تفاصيل حياتنا اليومية! إنه يُدير محركات البحث التي نستخدمها، ويُترجم الكلام بين اللغات، ويقترح منتجات نتسوقها من الإنترنت.
فهل تتخيل عالمًا بدون هذا المؤثر العميق؟ ولعل أكبر وأهم تأثير للذكاء الاصطناعي هو صياغة شخصية الأجيال الجديدة (ما يعرف بجيل z وجيل ألفا) بقطيعة شبه تامة مع الماضي، إلا ما ينتقيه من سرديات أو نماذج لا نتحكم فيها بالضرورة.
أصدرت الحكومة اليابانية وثيقة بعنوان "المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان"، تهدف إلى تحقيق أول "مجتمع جاهز للذكاء الاصطناعي" في العالم
ومن أجل تدارك الموقف، ظهرت مطالب هنا وهناك بوضع "أخلاقيات للذكاء الاصطناعي"، وهي مجال متنامٍ يدرس الآثار الأخلاقية والاجتماعية لتطوير ونشر أنظمة الذكاء الاصطناعي، بهدف ضمان استخدامه بطريقة مسؤولة وعادلة وآمنة، مع مراعاة القيم الإنسانية و"حقوق الإنسان".
ويتضمن ذلك عدم إلحاقه الضرر، ومعالجة التحيزات والمخاطر المحتملة، والآثار الاجتماعية الناجمة عنه.
ولقد تنبه الأوروبيون -وهم مشاركون في إنتاج الذكاء الاصطناعي- إلى ما يمكن أن يصاحب فوائده الجمة من مخاطر على الإنسان؛ فبادروا بتعيين لجنة متخصصة من 52 خبيرًا، عهد إليها بصياغة مقترح "أخلاقيات الذكاء الاصطناعي" في الاتحاد الأوروبي. بدأت هذه اللجنة أعمالها سنة 2017، وقدمت تقريرها النهائي عام 2020، وقد تضمن التوصيات السبع التالية:
- الرقابة البشرية: ضمان وجود سيطرة بشرية على أنظمة الذكاء الاصطناعي لاتخاذ القرارات النهائية.
- المتانة التقنية: أن تكون أنظمة الذكاء الاصطناعي آمنة وموثوقة وقادرة على التعامل مع الأخطاء أو الهجمات.
- خصوصية وإدارة البيانات: حماية البيانات الشخصية، وضمان استخدامها بشكل أخلاقي وقانوني.
- الشفافية: جعل عمليات الذكاء الاصطناعي واضحة وقابلة للفهم، مع إمكانية تتبع القرارات.
- المساءلة: تحديد المسؤوليات في حال حدوث أضرار أو أخطاء بسبب أنظمة الذكاء الاصطناعي.
- الإنصاف: تجنب التحيز، وضمان معاملة عادلة لجميع الأفراد والمجموعات.
- الرفاهية: ضمان أن يعزز الذكاء الاصطناعي رفاهية الأفراد والمجتمع.
لا شك أن ثمة إجماعًا بشريًا على ما يُعتبر خيرًا للإنسان وما يعد شرًا له؛ وهو ما يمكن أن نطلق عليه "المشترك الأخلاقي"، مثل عموم الأمن والسلام، وتوفير المياه النقية والهواء النقي، وتعزيز صحة الإنسان وبيئته
وقبل الاتحاد الأوروبي، في عام 2019، أصدرت الحكومة اليابانية وثيقة بعنوان "المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان"، تهدف إلى تحقيق أول "مجتمع جاهز للذكاء الاصطناعي" في العالم.
تعكس هذه المبادئ رؤية اليابان لدمج الذكاء الاصطناعي بشكل أخلاقي وفعّال في المجتمع، مع التركيز على حقوق الإنسان والتنمية المستدامة. وأما أهداف المبادئ اليابانية فهي:
- حماية حقوق الإنسان الأساسية: عدم انتهاك الذكاء الاصطناعي للحريات الفردية أو الكرامة الإنسانية.
- ضمان التعليم الأساسي ومحو الأمية الرقمية: تمكين الأفراد من فهم الذكاء الاصطناعي واستخدامه بفاعلية.
- الحفاظ على الخصوصية والأمان: ضمان حماية البيانات، وتوفير بيئة تنافسية عادلة.
- الشفافية والمساءلة: تطبيق معايير العدالة في تطوير وتشغيل أنظمة الذكاء الاصطناعي.
- تعزيز الابتكار عبر التعاون المحلي والدولي: تشجيع الشراكات بين القطاعات الحكومية والخاصة والدولية.
ويعتبر اليابانيون هذه المبادئ تطبيقًا لثلاثة أسس فلسفية، هي الأصل الذي تتعين مراعاته في كل تطور وتطوير:
- احترام الكرامة الإنسانية: يجب أن يدعم الذكاء الاصطناعي اختيارات الإنسان، ولا يحلّ محل إرادته.
- المجتمع المستدام: استخدام الذكاء الاصطناعي لتحقيق أهداف التنمية المستدامة (مثل الصحة والبيئة).
- رفاهية الأفراد في مجتمع متنوع: تصميم أنظمة ذكاء اصطناعي تلبي احتياجات جميع الفئات، بمن فيهم كبار السن والمعاقون.
الذكاء الاصطناعي ميدان سريع التطور، تتطلب مواكبته يقظة مستمرة ومرونة في الاستجابة لهذا التطور السريع. لذلك، يحسن ببلداننا المبادرة إلى سن قوانين تنظم استخدامات الذكاء الاصطناعي
ولا شك أن ثمة إجماعًا بشريًا على ما يُعتبر خيرًا للإنسان وما يعد شرًا له؛ وهو ما يمكن أن نطلق عليه "المشترك الأخلاقي"، مثل عموم الأمن والسلام، وتوفير المياه النقية والهواء النقي، وتعزيز صحة الإنسان وبيئته (الحيوان والنبات والبحار..).
وبعد هذا المشترك الأخلاقي، تأتي خصوصيات الأمم التي تحدد قيَمها، مثل الدين والثقافة، أو طموحاتها التي تبين أولوياتها، مثل الرؤية الوطنية (2030 في بعض الدول، 2040 في أخرى).. وهكذا، فكل تلك العوامل تسهم في تعريف الأخلاقي عند كل أمة. فما هي محددات أخلاقيات الذكاء الاصطناعي في المجتمعات العربية والإسلامية؟
نرى أن التوصيات الخمس الأولى للاتحاد الأوروبي والمبادئ اليابانية الخمسة محل اتفاق؛ يمكن البناء عليها ودعمها في حالة إقرار ميثاق دولي.
ويبقى أن نضيف خصوصياتنا في تعريف الفئات الاجتماعية، والمباح والمحظور، والأولويات وغير ذلك. ولعل البدء يكون بالتركيز على دفع المضرة، عملًا بقاعدة "دفع المضارّ أولى من جلب المنافع"؛ فيمنع ما يهدد النسيج الاجتماعي من الوسائل غير التقليدية، كالألعاب الإلكترونية التي تشجع العنف والشذوذ والانتحار والإلحاد؛ فمثل هذه التطبيقات تفتك بالنشء في صمت وفي عقر ديارهم، وهي جرائم تسجل ضد "مجهول".
وقد حصلت حالات كثيرة من انتحار المراهقين في دول غربية عديدة، سُجلت ضد تطبيقات مثل تيك توك وبلو وايل (الحوت الأزرق) وما شاكلهما.
ويأتي بعد ذلك الحفاظ على الكليات الخمس، وهي الدين والنفس والعقل والنسب والمال، ولا تخفى أهميتها؛ إذ حفظها هو هدف تشريعنا وتشريع من قبلنا، ولكن المبادئ المذكورة أعلاه (يابانية وأوروبية) بأوسع تفسير تشمل النفس والمال، وربما العقل إلى حد ما (الخمور المذهبة للعقل مباحة عندهم)، ولكن لا أثر فيها للدين ولا للنسب.
ومن هنا يتعين علينا السعي لسن قوانين تحفظ هذه الكليات الخمس في وجه عواصف الذكاء الاصطناعي، التي بدأت تهب قوية من الشرق والغرب.. تتصارع في بيوتنا، لا تردها الجدران ولاتمنعها حصون الخرسانة والحديد، تستهدف أفلاذ أكبادنا، تختلسهم اختلاسًا من خلال الإدمان على "الألعاب" و"التسليات" فتأسر انتباههم وتوجهه كما حلا لها. إنها بذلك تقتلعهم من أصولهم؛ فيعيشون غرباء في بيوتهم وبين آبائهم وأمهاتهم.
وهناك جانب آخر لم تشر إليه المبادئ السابقة صراحة -وإن كان يمكن إقحامه ضمنيًا- وهو الحفاظ على البيئة وحمايتها، ولا يقل هذا أهمية عن حماية الإنسان؛ إذ لا وجود للإنسان خارج البيئة.
ولا نجد تعبيرًا عن خراب البيئة أدق ولا أكثر اختصارًا من هلاك الحرث والنسل، وقد رأينا في حرب الإبادة على غزة كيف أسهم الذكاء الاصطناعي في هذا الهلاك، وهي فرصة سبْق لبلداننا كي تسن قوانين لحماية البيئة من أخطار الذكاء الاصطناعي، قوانين تحد من ظهور الفساد في البر والبحر بما كسبت أيدي الناس.
ثم إن الذكاء الاصطناعي ميدان سريع التطور، تتطلب مواكبته يقظة مستمرة ومرونة في الاستجابة لهذا التطور السريع. لذلك، يحسن ببلداننا المبادرة إلى سن قوانين تنظم استخدامات الذكاء الاصطناعي، وإعلان أخلاقيات تشارك بها بلداننا في إرساء ميثاق دولي، يلزم العالم باحترام المشترك الأخلاقي ويجرم أي انتهاك له. أما على المستوى المحلي، فيمكن تحديث القوانين حسب تطور أنظمة الذكاء الاصطناعي وتأثيرها على الإنسان والبيئة، أما السكوت والغياب فليس خيارًا.
بالغ بعض علماء الذكاء الاصطناعي في تهويل مستقبله وتحكمه في حياة الناس. ومن هؤلاء جيفري هينتون، الذي استقال من وظيفته كبير خبراء الذكاء الاصطناعي في غوغل، لينذر بأن أنظمة الذكاء الاصطناعي باتت أذكى من البشر الذين أنتجوها
ومن المخاطر الأقل فتكًا والأعم انتشارًا وظهورًا، والتي تهدد المجتمع إذا لم تُتخذ إجراءات تنظيمية للذكاء الاصطناعي:
- إلغاء الوظائف: قد تؤدي الأتمتة التي يقودها الذكاء الاصطناعي إلى الاستغناء عن عدد من الوظائف في مختلف القطاعات.. وبوضع قوانين مناسبة يمكن تحويل هذه الأتمتة إلى خلق وظائف جديدة.
- أنظمة الأسلحة الذاتية: يُثير تطوير أنظمة الأسلحة الذاتية مخاوف أخلاقية وأمنية خطيرة.
- الأثر البيئي: يتطلب تدريب نماذج الذكاء الاصطناعي الكبيرة قدرة حاسوبية كبيرة، ما يؤدي إلى استهلاك طاقة مرتفع، وانبعاثات كربونية عالية، وهذا ضرر جانبي تشغيلي لا يقاس بالأضرار المتعمدة كالتي حلت بقطاع غزة.
ولقد بالغ بعض علماء الذكاء الاصطناعي في تهويل مستقبله وتحكمه في حياة الناس. ومن هؤلاء جيفري هينتون، الذي استقال من وظيفته كبير خبراء الذكاء الاصطناعي في غوغل، لينذر بأن أنظمة الذكاء الاصطناعي باتت أذكى من البشر الذين أنتجوها، وأنها ستقود العالم نحو الهاوية إذا لم يتوقف هذا السباق التكنولوجي قبل فوات الأوان.
إن العلوم البحتة والتكنولوجيا ليست علومًا أخلاقية بذاتها، فإذا تُركت وشأنها قادت الإنسان إلى وجهة مجهولة؛ لذلك يتعين على بلداننا أن تقدم نموذجًا متوازنًا يجمع بين الابتكار التكنولوجي والقيم الإنسانية، مع التأكيد على أن الذكاء الاصطناعي يجب أن يكون أداة لتعزيز رفاهية المجتمع والبيئة، وليس تهديدًا لهما.
إن مثل هذه الرؤية من شأنها أن تضع بلداننا في طليعة الدول التي تتبنى سياسات ذكاء اصطناعي شاملة وأخلاقية.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.