هل يمكنك الوثوق فيما تراه أو تسمعه؟ قبل أن تجيب، تابع معي أولًا تلك القصة: موظف مالي في شركة بهونغ كونغ يجلس في اجتماع روتيني -عن بُعد- مع المدير المالي وزملاء من الشركة ذاتها.. يبدأ الاجتماع عبر الفيديو مع الوجوه المألوفة نفسها والأصوات المعتادة لدى الموظف، فيما يطلب منه المدير المالي إجراء 15 تحويلًا ماليًا بمبلغ إجمالي قدره 25.5 مليون دولار إلى حسابات متعددة، مبررًا ذلك بضرورة تسوية معاملات عاجلة مع مورّدين في المجر.
وينفذ الموظف الأمر بلا تردد، ولمَ لا؟ فهو يرى ويسمع مديره وزملاءه الذين يعرفهم حقًا، وعلى ذلك يشرع فورًا في التحويلات المالية.
وبعد التحويل لاحظ الموظف أن هناك بعض التفاصيل لا تتوافق مع الإجراءات المعتادة للشركة، مثل: التأخير في وصول المبالغ المعاد تحويلها، وهنا بدأت الشكوك تساوره، ليتواصل مع المكتب الرئيسي للشركة، ويكتشف أن الاجتماع كان مزيّفًا بالكامل، وأن جميع من رآهم وتحدث معهم مباشرة صوتًا وصورة هم في الحقيقة محتالون استطاعوا خداعه، وتحويل الأموال إلى حسابات في خمس دول مختلفة، ما صعّب عملية استردادها عن طريق تقنية الـ"Deep fake".
مع تقدم الذكاء الاصطناعي و"التعلم العميق" سرعان ما تحولت هذه "المزحة" إلى أداة خطيرة تُستخدم ليس فقط في النصب والاحتيال، بل وصلت إلى التضليل السياسي والعسكري
تقنية الـ"Deep fake" -أو "التزييف العميق"- تطورت بشكل مرعب، حتى أصبح متقنوها قادرين على بعث الموتى في فيديوهاتهم من جديد، ولعلك صادفت مقاطع لعبدالحليم حافظ وهو يغني أغنية "العنب" أو السيدة أم كلثوم وهي تشدو بصوتها بأغاني لتامر حسني!
هذه التقنية بدأت في الظهور على نطاق واسع في عام 2017، إلا أنها استمدت قوتها من التقدم في الذكاء الاصطناعي، وخاصة الشبكات العصبية التوليدية (GANs)، التي تم تطويرها في عام 2014. وهكذا بدأ الأمر، حيث كان أشبه بالمزحة ولا يتعدى صُنع مقاطع فيديو ترفيهية، أو تعديل وجوه المشاهير في مشاهد من أفلام شهيرة.
ومع تقدم الذكاء الاصطناعي و"التعلم العميق" سرعان ما تحولت هذه "المزحة" إلى أداة خطيرة تُستخدم ليس فقط في النصب والاحتيال، بل وصلت إلى التضليل السياسي والعسكري، ولعل أقربها كان خلال الحرب الروسية الأوكرانية في 2022، حيث تم نشر فيديو مزيف للرئيس الأوكراني "فولوديمير زيلينسكي" يدعو قواته للاستسلام، والفيديو كان مقنعًا إلى درجة أن البعض بدأ يتساءل عن مصداقية الأخبار التي يشاهدها يوميًا!
وخلال العقد الأخير تطورت هذه التقنية بشكلٍ سريع، حتى بات من الصعب على العين المجردة التمييز بين الفيديوهات الحقيقية والمزيفة. ووفقًا لدراسة حديثة، أجرتها جامعة ستانفورد في عام 2023، فإن ما يقرب من 70% من المستخدمين غير قادرين على اكتشاف الفرق بين فيديو حقيقي وآخر مزيف، إذا لم يتم إخطارهم مسبقًا بأنه تم تعديله.
كما أن للزيف جيشًا من التقنيات الهائلة، فهناك أيضًا جبهة دفاعية من الأدوات والتقنيات المضادة التي تسعى لكشف هذا الزيف
تطور هذه "الحقيقة المُزيفة" وتعدد استخداماتها بين الناس أديا إلى تزايد الطلب على التطبيقات التجارية والفنية لهذه التقنية. ووفقًا لتقرير صادر عن Gartner، فمن المتوقع أن تصل قيمة سوق تقنيات الـ"Deep fake" إلى 5.6 مليارات دولار بحلول عام 2027.
وكما أن للزيف جيشًا من التقنيات الهائلة، فهناك أيضًا جبهة دفاعية من الأدوات والتقنيات المضادة التي تسعى لكشف هذا الزيف. هناك على سبيل المثال "Microsoft"، وهي من الشركات الرائدة في مكافحة الـ"Deep fake" من خلال أداة "Video Authenticator"، التي تم تطويرها خصيصَى لتحليل الفيديوهات وكشف التزييف، من خلال تحليل البيكسلات والإطارات لتحديد التعديلات الدقيقة التي لا تلاحظها العين البشرية.
حتى منصات التواصل الاجتماعي أخذت ذلك بعين الاعتبار، وبدأت في تطوير سياسات صارمة لإزالة أو تحذير المستخدمين من الفيديوهات التي تم إثبات تزويرها باستخدام تقنيات الـ"Deep fake" ، حتى "YouTube" وضع قواعد جديدة تمنع نشر فيديوهات تستخدم هذه التقنية لأغراض خادعة، خصوصًا فيما يتعلق بالمحتوى السياسي.
احذر من المحتوى المثير للشك وغير المعتاد، حيث إنه غالبًا ما يكون هدفًا للاستخدام السيئ للـ"Deep fake"
حسنًا، كيف أحمي نفسي كشخص عادي من الوقوع في فخ هذا التزييف؟ الإجابة ليست صعبة، ولكنها تتطلب يقظة.
- أولًا: عليك التحقق من المصدر، حيث إن الفيديوهات المنشورة على مصادر غير معروفة قد تكون مزيفة، استقِ مصادرك من المواقع والوكالات الإخبارية الموثوقة، لأنها غالبًا ما تتحقق من الفيديوهات قبل نشرها.
- ثانيًا: دقق في التفاصيل من خلال النظر في تفاصيل الفيديو، مثل حركات الفم غير المتناسقة، أو تردد الصوت غير الطبيعي، فقد يمكّنك ذلك من اكتشاف ما إن كان الفيديو قد تم التلاعب به.
- ثالثًا: استخدام أدوات الكشف عن التزييف، فهناك بعض المنصات توفر أدوات لتحليل الفيديوهات ومعرفة ما إن كانت مزيفة، مثل "Deepware Scanner" و"Truepic".
- رابعًا: احذر من المحتوى المثير للشك وغير المعتاد، حيث إنه غالبًا ما يكون هدفًا للاستخدام السيئ للـ"Deep fake".
وبعد اتباع بعض هذه الخطوات الاحترازية، تذكر أيضًا أنه لا ضمانَ مؤكدًا من النجاة من فخ التزييف!
بدو أننا نعيش في عالم تتآكل فيه الحقيقة شيئًا فشيئًا، وتنامي تقنيات مثل الـ"Deep fake" ، أثبتت أن الزيف قد يصبح واقعًا يُصدَّق
وبالرغم من طُغيان الجانب الشرير في رواية الـ"Deep fake" السائدة فإن الخير له وجود، وهو هنا حتمًا ليس في الأشياء بل في كيفية استخدامها.
ولأن التقنيات ليست سوى أدوات، وما نفعله بها نحن هو ما يحدد صفتها، فإن الـ"Deep fake" له بعض الجوانب الإيجابية، يمكن أن تساهم بالفعل في خدمة البشرية في مجالات متعددة، إذا ما تم استخدامها بشكل أخلاقي مثل قطاع التعليم، حيث تُمكّن الطلاب من التفاعل مع شخصيات تاريخية عبر محتوى مرئي تفاعلي، وكذلك في الطب والتأهيل، حيث تقوم بعض المؤسسات الطبية باستخدام الـ"Deep fake" لمحاكاة حالات جراحية نادرة لتدريب الأطباء، وقد استخدمتها جامعة جونز هوبكنز بتطوير برنامج يستخدم الـ"Deep fake" لتعليم الأطباء المتدربين، من خلال إنشاء سيناريوهات جراحية تحاكي الواقع، ما يساعدهم على اكتساب خبرة عملية دون الحاجة إلى مرضى حقيقيين.
وختامًا: يبدو أننا نعيش في عالم تتآكل فيه الحقيقة شيئًا فشيئًا، وتنامي تقنيات مثل الـ"Deep fake" ، أثبتت أن الزيف قد يصبح واقعًا يُصدَّق. ويبدو أن العالم يسير في اتجاه يطمس فيه الزيف كل ملامح الصدق، لتصبح الحقيقة مجرد قصة نرويها عن زمنٍ مضى.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.