هل تهدد تقنية "التزييف العميق" الانتخابات الأميركية المقبلة؟

تمت صناعة بعض الفيديوهات المزيفة للرئيس الأميركي ترامب وكانت كافية لإظهار المخاطر المحتملة للتزييف العميق (بيكسابي)
تمت صناعة بعض الفيديوهات المزيفة للرئيس الأميركي ترامب وكانت كافية لإظهار المخاطر المحتملة للتزييف العميق (بيكسابي)

يحذر العديد من المحللين من إمكانية استغلال تقنية "التزييف العميق" (deepfake) في المنافسة السياسية خلال الانتخابات الأميركية المقبلة، ويرى العديد منهم إمكانية تزييف الفيديوهات والمقاطع الصوتية للمرشحين باستخدام الذكاء الاصطناعي لإظهارهم وهم يقولون أو يفعلون شيئا غير حقيقي يهدد مستقبلهم السياسي ويقلل فرص فوزهم بالانتخابات.

وبالفعل استُعملت هذه التقنية الحديثة في إنشاء مقاطع فيديو إباحية مزيفة لعدد من المشاهير، كما استخدمت في أحيان أخرى لخلق أخبار كاذبة، مما أثار حفيظة المشرعين الأميركيين.

وعقدت جلسة استماع في لجنة الاستخبارات بمجلس النواب الأميركي حول هذه التقنية التي تم إدراجها ضمن أعلى 8 تهديدات مضللة لحملة انتخابات 2020 في تقرير نشرته جامعة نيويورك (New York University).

تقنية التزييف العميق

هي تقنية تقوم على صنع فيديوهات مزيفة عن طريق استخدام برامج الحاسوب والذكاء الاصطناعي، وتعمل هذه التقنية على دمج الصور ومقاطع الفيديو لشخصية ما من أجل إنتاج مقطع فيديو جديد قد يبدو للوهلة الأولى أنه حقيقي، لكنه في واقع الأمر مزيف.

ظهر أول معالم هذه التقنية في عام 1997، حيث كان برنامج "فيديو ريرايت" (Video Rewrite)‏ يقوم بتحويل فيديو لشخص يتحدث في موضوع معين إلى فيديو لنفس الشخص لكنه يتحدث في موضوع آخر، وينطق بكلمات جديدة لم يقلها في الفيديو الأصلي.

وعادة ما يتم استغلال هذه التقنية في المجال الأكاديمي في مجال الرؤية الحاسوبية، والذي يستند إلى الذكاء الاصطناعي، لكن لم يتوقف استخدام هذه التقنية على المجال الأكاديمي فقط.

استُخدمت تقنية التزييف العميق لتشويه صورة بعض السياسيين المعروفين (بيكسابي)

يرجع استخدام مصطلح التزييف العميق إلى اسم أحد مستخدمي موقع "ريديت" الذي قام هو وآخرون في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، وحققت تلك الفيديوهات نسب مشاهدات عالية.

وبحلول فبراير/شباط 2018 قام موقع "ريديت" بحظر المستخدم، كما حظرت باقي المواقع كل من يروج لهذه التقنية، ومع ذلك لا تزال هناك منصات أخرى على الإنترنت تعمل على مشاركة الفيديوهات المصنوعة بهذه التقنية بعلم أو بدون علم.

وفي ديسمبر/كانون الأول من نفس العام تحدثت الممثلة سكارليت جوهانسون علنا عن موضوع التزييف العميق خلال مقابلة لها مع واشنطن بوست، حيث أعربت عن قلقها إزاء هذه "الظاهرة"، ووصفت عالم الإنترنت بأنه "ثقب كبير من الظلام يأكل نفسه".

الاستغلال السياسي

استخدمت تقنية التزييف العميق لتشويه صورة بعض السياسيين المعروفين، فعلى سبيل المثال لا الحصر استبدل وجه الرئيس الأرجنتيني السابق ماوريسيو ماكري بوجه أدولف هتلر، كما استعيض عن وجه أنجيلا ميركل بدونالد ترامب.

وفي أبريل/نيسان 2018 نشر فيديو للرئيس الأميركي السابق باراك أوباما وهو يتكلم بصوت عال حول هذه التقنية وشرح مخاطرها، وهو ما لم يفعله الرئيس الأميركي أصلا.

وفي نفس العام أيضا، أصدر الحزب الاشتراكي البلجيكي فيديو مزيفا للرئيس ترامب وهو يهين بلجيكا، وكما هو متوقع حصل الفيديو على رد فعل كاف لإظهار المخاطر المحتملة للتزييف العميق عالي الجودة.

وفي يناير/كانون الثاني 2019 بثت شبكة فوكس التلفزيونية فيديو مصنوعا بتقنية التزييف العميق للرئيس ترامب خلال خطابه في المكتب البيضاوي.

قد تشكل تقنية التزييف العميق خطرا حقيقيا يهدد مستقبل المرشحين في الانتخابات الأميركية من كلا الحزبين (بيكسابي)

معركة الذكاء الاصطناعي

يرسم الباحثون سيناريو لصحفي استقصائي يتلقى مقطع فيديو من مجهول، يظهر فيه مرشح الرئاسة الأميركية وهو يعترف بنشاط غير قانوني، ويتساءل الجميع: هل هذا الفيديو حقيقي؟ إذا كان الأمر كذلك فسيكون خبرا مدويا يمكن أن يقلب نتيجة الانتخابات المقبلة تماما.

ويرى هاني فريد من جامعة كاليفورنيا (University of California) في بيركلي أن الأمر ربما يكون أكثر رعبا، حيث يمكن استخدام تلك التقنية لإثارة الشك حول محتوى مقاطع الفيديو الحقيقية، وأنه من المفيد للغاية أن تكون قادرا على اكتشاف التزييف العميق وتصنفه بوضوح.

بدأ اكتشاف التزييف العميق كمجال بحثي منذ ما يزيد قليلا على 3 سنوات، وركزت الأعمال المبكرة على اكتشاف المشكلات المرئية في مقاطع الفيديو، ومع مرور الوقت أصبحت المنتجات المقلدة أفضل في محاكاة مقاطع الفيديو الحقيقية وأصبح من الصعب اكتشافها.

ولهذا، يحاول الباحثون تطوير أداة متخصصة لاختبار التزييف العميق للفيديوهات باستخدام الذكاء الاصطناعي والتعلم العميق، وقد يستخدم الصحفيون في جميع أنحاء العالم أداة كهذه في غضون سنوات قليلة.

ومع ذلك، لن تحل هذه الأداة جميع المشاكل المتعلقة بهذه التقنية، ولكنها ستكون مجرد سلاح واحد فقط من الترسانة الحربية في معركة الذكاء الاصطناعي ضد المعلومات المضللة.

ويرى باحثون آخرون أن تقنية التزييف العميق جاءت لتبقى، وأن حماية الجمهور من المعلومات المضللة ستكون أكثر صعوبة من أي وقت مضى حيث تزداد قوة الذكاء الاصطناعي.

وذهب بعض من يدرسون آثار هذه التطبيقات  إلى أن السياسيين الأميركيين الكبار لا يخشون بشكل كبير من التهديدات التي تشكلها هذه التطبيقات، ولكن من المرجح أن تصبح هذه التقنية سلاحا يستخدم لتوسيع نطاق المضايقات والتسلط والابتزاز عبر الإنترنت.

المصدر : الصحافة البريطانية

حول هذه القصة

المزيد من تكنولوجيا
الأكثر قراءة