صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟

في نوفمبر/تشرين الثاني الماضي أطلقت أولغا لويك -وهي طالبة من أوكرانيا تدرس في جامعة بنسلفانيا- قناتها الشخصية على منصة يوتيوب.

لم تحصل أولغا على الجمهور الذي كانت تنتظره، لكنها بعد فترة وجيزة من إطلاق القناة وجدت أن معظم جمهورها يأتي من منصات التواصل الاجتماعي في الصين، والأهم أنها لم تكن هي من تظهر في مقاطع الفيديو، بل كانت نسخة من صورتها نسجها الذكاء الاصطناعي، كما أشار تقرير لرويترز.

كانت شبيهاتها الرقميات مثل "ناتاشا" يدعين أنهن نساء روسيات يتقن اللغة الصينية بطلاقة ويشكرن الصين على دعمها لروسيا ضد الغرب، ويحاولن كسب بعض الأموال عبر بيع منتجات مثل الحلوى الروسية.

والمثير للدهشة أكثر أن تلك الحسابات الوهمية امتلكت مئات الآلاف من المتابعين في الصين، أكثر بكثير من متابعي أولغا نفسها على منصة يوتيوب.

وتمثل تلك الواقعة نموذجا لعدد كبير مما يبدو للوهلة الأولى أنهن فتيات روسيات على وسائل التواصل الاجتماعي في الصين يعبرن عن حبهن لها باللغة الصينية بطلاقة ويذكرن أنهن يسعين إلى دعم روسيا في الحرب من خلال بيع الواردات من وطنهن الأم، ولكن لا وجود لأي منهن.

ويذكر الخبراء أن صور تلك الفتيات مولدة بالذكاء الاصطناعي عبر انتحال وسرقة مقاطع لنساء حقيقيات على الإنترنت، وغالبا دون علمهن، وتُستخدم مقاطع الفيديو المزيفة للترويج لمنتجات للرجال في الصين، وفقا لتقرير رويترز.

ويذكر جيم تشاي الرئيس التنفيذي لشركة "إكسموف" -وهي شركة تعمل على تطوير تقنيات الذكاء الاصطناعي- أن تقنية إنتاج مثل تلك الصور أصبحت "شائعة للغاية لأن كثيرين يستخدمونها في الصين".

وعلى نطاق أوسع، لفتت تلك الواقعة الانتباه إلى مخاطر تقنيات الذكاء الاصطناعي التي تتطور بوتيرة متسارعة للغاية، فقد ازدادت المخاوف بشأن مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة والأخبار المزيفة والاستخدام في نشر السرديات الموجهة أو في الدعاية الإعلامية خلال الأشهر الماضية، وسط تزايد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي".

ChatGPT
زاد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي" (شترستوك)

مكسب الكاذب

تستعين الحكومات والأطراف والجهات السياسية المؤثرة في مختلف دول العالم -سواء في الأنظمة الديمقراطية أو السلطوية- بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو بهدف توجيه الرأي العام لصالحها ولفرض رقابة آلية على المحتوى المنتقد لها على الإنترنت.

وفي التقرير السنوي -الذي صدر في أكتوبر/تشرين الأول العام الماضي- وثق الباحثون في منظمة فريدوم هاوس -وهي إحدى منظمات الدفاع عن حقوق الإنسان- استخدام الذكاء الاصطناعي التوليدي في 16 دولة "لزرع الشك أو تشويه سمعة المعارضين أو التأثير على الحوار العام".

وقد توصل التقرير إلى أن حرية الإنترنت العالمية انخفضت للعام الـ13 على التوالي مدفوعة جزئيا بانتشار تقنيات الذكاء الاصطناعي.

ويذكر الباحثون أن واحدة من أهم النتائج التي توصلوا إليها تتعلق بتغير أسلوب استخدام الحكومات الذكاء الاصطناعي، ومع تطور تلك التقنيات بصورة متزايدة تواصل جهات سياسية استغلالها لتضخيم المعلومات المضللة لتخدم مصالحها.

ورغم أن تلك التطورات ليست مفاجئة بالضرورة فإن إحدى أكثر النتائج إثارة للاهتمام هي أن سهولة الوصول إلى الذكاء الاصطناعي التوليدي على نحو واسع النطاق قد تضعف الثقة في الحقائق التي يمكن إثباتها، وفقا للتقرير.

ومع انتشار المحتوى الذي يولده الذكاء الاصطناعي على الإنترنت بصورة طبيعية قد يسمح هذا للجهات السياسية بالتشكيك في المعلومات الموثوقة والحقيقية، وهي ظاهرة تعرف بـ"مكسب الكاذب"، إذ يؤدي الحذر من التزييف إلى زيادة تشكك الجمهور في المعلومات الصحيحة، خاصة في أوقات الأزمات أو الصراعات السياسية عندما تتفشى المعلومات الكاذبة.

الذكاء الاصطناعي يسهل المهمة

تعمل تقنيات الذكاء الاصطناعي على أتمتة صناعة الأخبار المضللة، مما أدى إلى انفجار في محتوى المواقع على شبكة الإنترنت الذي يحاكي مقالات حقيقية لكنها تنشر في المقابل معلومات كاذبة عن الانتخابات والحروب والكوارث الطبيعية.

وخلال العام الماضي ازدادت المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي بأكثر من 1000%، إذ ارتفع عددها من 49 موقعا إلى أكثر من 600 موقع، وفقا لتقرير من منظمة "نيوز غارد" التي تتعقب المعلومات المضللة.

ومن الناحية التاريخية، اعتمدت عمليات الدعاية على جيوش من العاملين بأجور منخفضة أو منظمات استخباراتية شديدة التنسيق لإنشاء مواقع على الإنترنت تبدو كأنها حقيقية.

لكن تقنيات الذكاء الاصطناعي تسهّل على أي شخص تقريبا -سواء كان جزءا من وكالة تجسس أو مجرد مراهق في قبو منزله- إنشاء تلك المواقع وإنتاج محتوى يصعب أحيانا التفرقة بينه وبين الأخبار الحقيقية.

كما أظهرت تجارب في ورقة بحثية جديدة صدرت في فبراير/شباط الماضي أن النماذج اللغوية بإمكانها توليد نصوص مقنعة للجمهور الأميركي بنفس درجة إقناع المحتوى الناتج من حملات الدعاية الخارجية السرية الحقيقية.

كما أن إستراتيجيات العمل المشترك بين الإنسان ونماذج الذكاء الاصطناعي مثل تعديل التوجيهات لروبوت المحادثة وتنسيق النتائج أسفرت عن مقالات مقنعة بقدر الدعاية الأصلية أو أكثر إقناعا منها.

وتشير شركة "أوبن إيه آي" المطورة لروبوت المحادثة "شات جي بي تي" إلى أنها تملك الآن أكثر من 100 مليون مستخدم نشط أسبوعيا، وتعمل أدواتها على تسهيل وسرعة إنتاج كم ضخم من المحتوى، كما يمكن استخدامها لإخفاء الأخطاء اللغوية وتوليد تفاعل وهمي.

الحكومات والجهات السياسية المؤثرة في مختلف دول العالم تستعين بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو (شترستوك)

حملات سرية للتأثير

في نهاية مايو/أيار الماضي كشفت شركة "أوبن إيه آي" عن 5 عمليات سرية من روسيا والصين وإيران وإسرائيل استخدمت فيها تلك الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بغرض التأثير على الرأي العام العالمي، وذكرت الشركة أنها تمكنت من إيقافها، وفقا لما ذكرته صحيفة تايم.

وأوضحت الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات -التي يرتبط بعضها بحملات دعائية معروفة- تقنيات الشركة في العديد من "الأنشطة المضللة"، وشملت تلك الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي بلغات عدة، بالإضافة إلى ابتكار أسماء ونبذات تعريفية لحسابات وهمية، وتعديل الأكواد البرمجية، إلى جانب ترجمة النصوص وتدقيقها لغويا.

وركزت هذه العمليات على مجموعة من القضايا، منها الدفاع عن الحرب الدائرة على قطاع غزة والغزو الروسي لأوكرانيا، وتوجيه الانتقادات لمعارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات بشأن السياسات في الهند وأوروبا والولايات المتحدة في إطار محاولاتها للتأثير على الرأي العام هناك.

وكشفت الأمثلة التي أوردها محللو "أوبن إيه آي" كيف تستخدم تلك الجهات تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير على الإنترنت التي تنفذها منذ عقد من الزمان، وتركز هذه الجهات على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير على الرأي العام والتلاعب بالنتائج السياسية.

وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في "أوبن إيه آي" في التقرير "تكشف هذه التوجهات عن ساحة تهديدات تتسم بالتطور وليس الثورية، تستخدم تلك الجهات منصتنا لتحسين جودة محتواها والعمل بكفاءة أكبر".

وعلى سبيل المثال، أوضح تقرير الشركة بالتفصيل كيف استخدمت الشركة الإسرائيلية "ستويك" -وهي شركة للتسويق السياسي في تل أبيب- أدوات "أوبن إيه آي" لتوليد محتوى مؤيد لإسرائيل بشأن حرب الإبادة الدائرة على قطاع غزة.

واستهدفت تلك الحملة -التي كانت باسم "زيرو زينو"- الجمهور في الولايات المتحدة وكندا وإسرائيل، كما ذكرت شركة ميتا أنها حذفت 510 حسابات على فيسبوك و32 حسابا على إنستغرام ارتبطت بنفس الشركة الإسرائيلية.

وكانت مجموعة الحسابات المزيفة -التي تضمنت حسابات لأشخاص يتظاهرون بأنهم أميركيون من أصل أفريقي وطلاب في الولايات المتحدة وكندا- غالبا ترد على شخصيات بارزة أو مؤسسات إعلامية في منشورات تشيد بإسرائيل وتنتقد معاداة السامية في الجامعات الأميركية وتندد بتيارات "الإسلام الراديكالية".

وبحسب تقرير "أوبن إيه آي"، يبدو أن تلك الحملة قد فشلت في الوصول إلى أي تفاعل يذكر معها.

كما استخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة وأطلقت عليها اسم "قواعد سيئة" نماذج الذكاء الاصطناعي الخاصة بها لتصحيح الأكواد البرمجية لتشغيل روبوت على تطبيق تليغرام يتولى عملية نشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية، وتقول الشركة إن العملية استهدفت أوكرانيا ومولدوفا والولايات المتحدة ودول البلطيق.

واستخدمت عملية روسية أخرى تعرف باسم "دوبلغنغر" وربطتها وزارة الخزانة الأميركية بالكرملين نماذج "أوبن إيه آي" لتوليد عناوين الأخبار وتحويل المقالات الصحفية إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.

كما استغلت شبكة صينية معروفة -وهي شبكة "سباموفلاغ" أدوات "أوبن إيه آي" للبحث في أنشطة وسائل التواصل الاجتماعي، وتوليد نصوص باللغات الصينية والإنجليزية واليابانية والكورية نشرت عبر منصات مختلفة، منها "إكس"، و"ميديم"، و"بلوغسبوت".

المصدر : الجزيرة + رويترز + مواقع إلكترونية