الصغير الغربي-تونس

منذ أواسط التسعينيات عندما تم استنساخ أول كائن ثديي، وهو النعجة دوللي، لم يحدث جدل واسع بشأن الخطر الذي يمكن أن يمثله التطور العلمي والتقني في مجال ما على مستقبل البشرية كما يحدث هذه الأيام من جدل بشأن المخاطر المحتملة لتطور الذكاء الاصطناعي على الإنسان.

ويتفق الجميع على أن التقنيات المعتمدة على الذكاء الاصطناعي هي في تطور متسارع. فهذه التقنيات أصبحت قوية للغاية، كما يؤكد أستاذ هندسة الميكانيك وعلوم الفضاء بجامعة كورنيل، وأحد مطوري الروبوتات الذكية، هود ليبسون، الذي يتوقع أن تتجاوز قدرات الذكاء الاصطناعي مثيلتها لدى الإنسان بالقرن القادم.

غير أن الكثير من المتابعين للموضوع بدأ ينتابهم شعور بالخوف على مستقبل البشرية في ظل هذا التطور السريع. من بينهم العالم الفيزيائي البريطاني الشهير ستيفن هوكينغ الذي حذر من أن تطوير ذكاء اصطناعي كامل قد يمهد لنهاية الجنس البشري.

وأوضح هوكينغ أن بمقدور تقنيات الذكاء الاصطناعي أن تعيد تصميم نفسها ذاتيا، وتتطور بشكل متسارع، وهو أمر يتجاوز قدرات الجنس البشري، مما قد يؤدي إلى استبدال الإنسان بالتقنيات الاصطناعية كونها أكثر تطوراً، على حد تعبيره.

ووردت هذه التحذيرات في معرض رد على إعلان بعض الشركات عن مشاريع لتطوير برامج للذكاء الاصطناعي على غرار إنتل التي أعلنت عن تصميم تطبيق يعمل كمساعد شخصي ذكي أو سكرتير افتراضي لنظام التشغيل الخاص بها "آي. أو. أس" أطلقت عليه اسم "سري" وهو قادر على تدوين الملاحظات وقراءة الرسائل وتنظيم المواعيد.

كما كشفت مايكروسوفت عن تطبيق مشابه مخصص للهواتف الذكية أطلقت عليه اسم "كورتانا". ويتمتع كل من "سري" و"كورتانا" بشخصية مشابهة للبشر من حيث القدرة على "التعلم" واستيعاب المعلومات الجديدة وتحليلها ورد الفعل المناسب فيما يخص الوظائف التي يقوم بها.

روبوتات معروضة بالتظاهرة في العاصمة اليابانية تتواصل حتى 14 أغسطس/ آب الحالي (الفرنسية-غيتي)

الروبوتات القاتلة
غير أن الأمر الذي جعل الكثيرين أكثر فزعا هو استعمال الذكاء الاصطناعي في الحروب والنزاعات. وهو ما دفع العشرات من العلماء، من بينهم ستيفن هوكينغ والمفكر نعوم تشومسكي وإلون موسك مؤسس مشروع  SpaceX، إلى نشر رسالة مفتوحة يحذرون فيها من مخاطر الأسلحة الذاتية المستقلة وتطويرها، والتي قد تتيسر بفعل التقدم في مجال صنع الروبوتات والذكاء الاصطناعي.

وأكد هؤلاء العلماء أن بدء سباق تسلح باستخدام الذكاء الاصطناعي يٌعد فكرة سيئة، ويجب منعه بفرض حظر على إنتاج الأسلحة الهجومية ذاتية التشغيل.

ويتم تعريف الأسلحة ذاتية التشغيل بأنها تلك القادرة على اختيار الأهداف المعادية ومهاجمتها بشكل مستقل، وهي لا تشمل الطائرات العسكرية بدون طيار التي يتم التحكم فيها عن بعد.

والأسلحة ذاتية التشغيل موجودة فعلا ويتم استعمالها في أكثر من منطقة متوترة بالعالم. ففي الجانب الجنوبي من الحدود الفاصلة بين الكوريتين، يراقب المنطقة المنزوعة السلاح روبوتات عسكرية ذاتية قامت بتطويرها شركة سامسونغ، وهي مدججة بأجهزة استكشاف واستشعار وأجهزة كاميرا في جمع الاتجاهات، إضافة إلى رشاشات وأسلحة أخرى.

وتستطيع هذه الروبوتات تحديد المخاطر واتخاذ قرار إطلاق النار، ولا يتدخل البشر إلا للموافقة النهائية فقط. وتعد هذه المنظومة الأكثر تقدما في المجال العسكري.

ويقول المطلعون إن الأبحاث العسكرية بالبلدان المتقدمة تسعى لتطوير أنظمة قتالية تعتمد على الذكاء الاصطناعي، وقادرة على العمل ذاتيا.

وتشرف الوكالة الأميركية "داربا" للبحوث العسكرية -التي طورت سابقا شبكة الإنترنت-على برامج من هذا النوع.

كما يؤكد العلماء أن صنع أسلحة ذاتية تعتمد على الذكاء الاصطناعي هو في المتناول، وليس أكثر تعقيدا من منظومات الكبح الآلي للسيارات -عند وجود عقبات بالطريق- التي طورتها بعض الشركات المصنعة.

وهو ما يؤيد ما جاء في الرسالة المفتوحة من أن هذا التقنيات وصلت إلى مرحلة بات فيها انتشارها ممكنا ليس في العقود المقبلة وإنما في السنوات القليلة القادمة.

ويتعدى موضوع المشكلات -التي يمكن أن يحدثها الذكاء الاصطناعي- الجانب العسكري ليشمل جوانب كثيرة من الحياة.

الروبوت "بيبر" يتحدث بمؤتمر صحفي في طوكيو قبل أيام (الفرنسية-غيتي)

قوانين الروبوتية
وقد طرح العالم الفرنسي جان كلود هودان في كتابه "القوانين الثلاثة للروبوتية.. هل يجب الخوف من الروبوتات؟" سؤالا يراه جوهريا حول مكانة الذكاء الاصطناعي في المجتمع، مؤكدا ضرورة تحديد طبيعة الأنشطة التي يمكن إنجازها بواسطة الآلات الذكية التي أسندت إليها وظيفة المساعد للبشر وليس المعوض له.

والقوانين الثلاثة المشار إليها في كتاب هودان هي مجموعة ضوابط لكيفية برمجة وصنع الروبوتات، وضعها كاتب الخيال العلمي الشهير الأميركي الروسي الأصل إسحاق عظيموف في الخمسينيات من القرن الماضي، وهو كذلك أول من وضع مصطلح الروبوتية باعتباره مجموعة العلوم والتقنيات التي تهتم بدراسة الروبوتات وتصميمها وتصنيعها وتطبيقاتها.

وينص القانون الأول على أنه "لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب أذًى له". والثاني على أنه "يجب على الآلي طاعة أوامر البشر إلا إن تعارضت مع القانون الأول". والثالث على أنه "يجب على الآلي المحافظة على بقائه طالما لا يتعارض ذلك مع القانونين الأول والثاني".

ويعتبر الكثير من العاملين في مجال الذكاء الاصطناعي هذه القوانين بمثابة اتجاه فكري لهم، حيث يؤكدون أنه يجب برمجة وصناعة الروبوتات بهذه الطريقة لتجنب احتمال سيطرة الآلات على البشر.

غير أن تطوير الروبوتات في المخابر العسكرية قد لا يخضع إلى هذه القوانين، وهو ما يجعل هذه الآلات ذاتية التشغيل المزودة بذكاء اصطناعي خطر على حياة البشر في الحروب، وعلى البشرية، إذا ما اكتسبت ملكة التعلم الذاتي والوعي بالذات.

وإجابة عن احتمال قيام ثورة آلية ضد البشر، كما يحدث في أفلام الخيال العلمي، يؤكد هودان أن التطور التكنولوجي ما زال بعيدا جدا عن تطوير آلات ذكية يمكنها أن تثور على الإنسان، فما نصنعه اليوم هو آلات قادرة على إنجاز مهام معينة محددة بدقة عالية، وليس لها القدرة على الإحساس بالذات أو بالآخر.

وبين أن مطلقي صيحات الفزع من خطورة صنع آلات ذكية قد تنقلب في يوم ما على البشر وتهدد حياتهم، ومعارضين لها، يبررون موقفهم بأن الأسلحة ذاتية التشغيل موجودة فعلا لكن الإنسان لم يترك لها يوما مسؤولية اتخاذ القرار لوحدها بل ترك لنفسه دائما هذه المهمة.

كما يرون أن المسافة الزمنية التي تفصلنا عن صنع مثل هذه الآلات مازالت بعيدة. وبين هذا وذاك يسير قطار الذكاء الاصطناعي بشكل متسارع على أمل أن تكون المكابح بيد عاقل قادر على إيقاف القطار أو توجيهه في الوقت المناسب.  

المصدر : الجزيرة