اتخاذ الخيارات في الفوضى الرقْمية

كانت المهمة الأولى لوسائل الإعلام الاجتماعية، هي منحنا القدرة على المشاركة بأنفسنا، وجعل العالم أكثر انفتاحًا وتواصلًا، لكن ما تفعله منصات مثل فيسبوك من حظر وإخفاء وقمع للأصوات والمنشورات يتعارض بشدة مع تلك الحرية المُفترضة!
أصبح لوسائل التواصل الاجتماعي دور محوري في التأثير على التوجهات السياسية للمستخدمين (شترستوك)

وكأن العالم قد أعلن عام 2024 عامًا انتخابيًّا؛ فالولايات المتحدة الأميركية، والهند، وتايوان، وإندونيسيا، وتركيا، وبنغلاديش، والمكسيك، وباكستان، وروسيا، ليست سوى بعض الدول التي ستُجرى فيها الانتخابات هذا العام.

وهناك نقاش حول ما يجب إجراؤه في هذه الانتخابات: فهل ستتأثر اختيارات الناخبين في ظل بيئة الفوضى الرقْمية؟

الفوضى الرقمية تؤثر على حياتنا وانتخاباتنا

لقد رأينا لأول مرة مثالًا على التلاعب الرقمي الذي يؤثر على الانتخابات، حيث إنه في الانتخابات الأميركية عام 2016؛ تم تسجيل هذا الحدث باسم: "فضيحة بيانات فيسبوك كامبريدج أناليتكا"، وتم الكشف عن أن الشركة حصلت بشكل غير قانوني على معلومات 50 مليون مستخدم من "فيسبوك"، وأثرت بطريقة ما على الناخبين.

وكانت المشكلة هنا هي أن "فيسبوك" باع معلومات المستخدمين للشركة دون موافقتهم، وأصبحت الفضيحة موضوع دعوى قضائية أدَّت إلى اعتذار "فيسبوك".

والآن؛ هناك المليارات من مستخدمي وسائل التواصل الاجتماعي والناخبين في البلدان التي ستجري الانتخابات، يتابعون حرفيًا جميع الأخبار والمعلومات من خلال هذه المنصات.

هل يمكن أن تحدث حالة مماثلة؟

يتناقص التواصل السياسي التقليدي وجهًا لوجه يومًا بعد يوم، ويتم الآن إنشاء العلاقات مع الناخبين من خلال وسائل التواصل الاجتماعي والإنترنت، وهذا يجعل من السهل التلاعب والتوجيه والتأثير؛ حيث يمكن لشركات التواصل الاجتماعي تحليل الأخبار التي تتأثر بها، وما هي ردود الفعل العاطفية التي تعطيها، وما هو الفعال في تغيير قرارات المستخدمين.

المنصات الرقْمية التي تعرف – حاليًا- بأنّها تؤثر عليك لبيع المنتجات، لا يعني هذا أنها لن تؤثر عليك سياسيًّا. والآن هناك خطر يجعلنا أكثر قلقًا بشأن هذه القضية: الذكاء الاصطناعي.

هل يمكن استخدام الذكاء الاصطناعي للتأثير على الانتخابات؟

إن استخدام الذكاء الاصطناعي، الذي تم تشبيهه بالقنبلة النووية، للتأثير على الناس في الانتخابات، تتم مناقشته بقلق؛ لأنه باستخدام الذكاء الاصطناعي، أصبح من الأسهل الآن اكتشاف سلوك الناخبين التصويتي وإحداث تأثير من شأنه أن يغير توجهاتهم الانتخابية.

ولهذا السبب، هناك مجالات غير محدودة للعمل في العالم الرقمي، من إنتاج مقاطع فيديو مزيفة تقلّد القادة بأساليب "التزييف العميق Deepfake" إلى إنتاج أخبار مزيفة. كما أنَّ مؤسسي ومديري شركة "أوبن إيه آي" التي أنشأت "شات جي بي"، أحد أقوى برامج الذكاء الاصطناعي في العالم، لا يعرفون بالضبط أيَّ حدود يمكن أن يصل إليها تطور هذا النظام في المستقبل.

لكن هناك تطورات تبرر مخاوفهم؛ فالذكاء الاصطناعي، الذي يتعلم التحدث مثل أي شخص من خلال مشاهدة مقاطع الفيديو والمحادثات والحركات الخاصة به، يمكنه أن يجعل هذا الشخص يتحدث بأي نصّ تريده.

وفي واقع الأمر؛ تم تداول مقاطع فيديو تقلد الرئيسَين الأميركيَّين السابقَين: أوباما، وترامب، والرئيس الأوكراني زيلينسكي، وبُذلت جهود لعدّة أيام لإثبات أنها كانت أكاذيب؛ فماذا سيحدث عندما يتم تداول الأخبار المزيفة التي ينتجها الذكاء الاصطناعي والتي يستحيل تمييزها عن الحقيقة؟

فجوة قانونية

تم رسم خريطة للتشريح الرقمي لـ 4.5 مليارات مستخدم لوسائل التواصل الاجتماعي: تبدأ من أي لون يحب، إلى أي وجهة نظر سياسية يقترب منها. كل هذه المعلومات في أيدي منصات التواصل الاجتماعي. والآن؛ ستقوم شركات الحملات بشراء هذه البيانات وإجراء تحليل لتوجهات الناخبين في البلدان التي تُجري انتخابات.

ومن خلال هذه التحليلات؛ سيتمكنون بسهولة من التعرف على ملفات الناخبين، وتحديد طرق الاتصال السياسي التي سيستخدمونها للتأثير عليهم، وهنا تبدأ المناقشات القانونية والأخلاقية؛ فهل يسمح مستخدمو وسائل التواصل الاجتماعي باستخدام بياناتهم الشخصية، ومعلومات الاتصال الخاصة بهم في الحملات السياسية؟

بمعنى ما؛ هل تحصل "غوغل" أو "فيسبوك" أو "إكس" على هذا الإذن من كل مستخدم عن طريق النقر على زر "أوافق على جميع الشروط"، لكنني لا أعتقد أن ذلك يسمح باكتشاف الميول السياسية للمستخدم، ولكن باستخدام بيانات وسائل التواصل الاجتماعي؛ يستطيع الذكاء الاصطناعي اكتشاف ذلك وتحويله إلى مشروع سياسي دون إذن أحد، وهذا يظهر أيضًا كمشكلة أخلاقية.

جنون التلاعب

لقد تزايدت عمليات التلاعب والأخبار الكاذبة والصور الخيالية في العالم الرقمي بشكل كبير، حيث يتم الآن إنشاء وحدات خاصة لمكافحتها؛ فعلى سبيل المثال؛ أنشأت مديرية الاتصالات التابعة للرئاسة التركية وحدة خاصة تسمى: "مركز مكافحة التلاعب".

تقوم هذه الوحدة بتفكيك الأخبار والصور الكاذبة والمزيفة والتي لا أساس لها من الصحة والتي تم إنشاؤها باستخدام الذكاء الاصطناعي كل يوم وتحذير المواطنين من التعاطي معها، والقضية الأكثر اهتمامًا بهم هذه الأيام هي الأخبار الكاذبة التي تنتجها مصادر إسرائيلية فيما يتعلق بالحرب الإسرائيلية- الفلسطينية.

ويبدو لي أن هذا المركز سيكون لديه المزيد من العمل للقيام به في تركيا، التي ستجري الانتخابات البلدية في شهر مارس/آذار.، فخلال الحملات الانتخابية؛ تبذل الأحزاب السياسية جهودًا أكبر لتصحيح الأخبار الكاذبة الموجهة ضدها، بدلًا من توضيح موقفها؛ لأن سرعة انتشار الأخبار المزيفة أسرع بعدة مرات من الأخبار الحقيقية.

على وسائل التواصل الاجتماعي، يصدق الناس بشكل غريب كل الأخبار التي يصادفونها ويشاركونها، وهنا الخطر. ويمكن للذكاء الاصطناعي؛ الذي يعرف كافة الخصائص الشخصية للناخبين، أن يقدم لهم الأخبار/ المعلومات الخيالية بسهولة، الناس أيضًا يحبون هذا ويؤمنون بسهولة.

وهذه مشكلة معقدة للغاية وخطر يمكن أن يصيب العالم، وسنشهد هذا النقاش في الانتخابات المقرر إجراؤها في العديد من دول العالم عام 2024.

الآراء الواردة في هذا المقال هي آراء الكاتب ولا تعكس بالضرورة الموقف التحريري لقناة الجزيرة.