
أفاد تقرير دولي صادر عن موقع “ذا ديكودر” (The Decoder) أن نموذج توليد الفيديو بالذكاء الاصطناعي، نموذج Sora 2 من شركة OpenAI قد دفع العالم إلى مرحلة “ديستوبيا التزييف العميق” (Deepfake Dystopia) التي طالما حذر منها الخبراء.
وبحسب التقرير، فإن النموذج الجديد يمتلك القدرة على توليد مقاطع فيديو مزيفة مُقنعة للغاية، مما يُسهّل بشكل كبير حملات التضليل الموجهة على نطاق واسع.
لقد كانت مقاطع الفيديو تُعتبر في الماضي دليلاً يمكن الوثوق به لإثبات وقوع حدث ما. لكن اليوم، تجاوزت أدوات توليد الفيديو مثل Sora 2 التقنيات القديمة لتعتمد على نماذج المحولات القوية متعددة الوسائط. وبمجرد سطر نصي بسيط، يمكن لأي شخص الآن إنشاء مشهد واقعي مزود بالصوت يصل طوله إلى 25 ثانية.
ويكمن الخطر هنا في أن تزييف محتوى فيديو واقعي أصبح الآن أسهل وأكثر إقناعًا من أي وقت مضى، مما يقلل بشكل جذري من حاجز الدخول أمام الجهات التي تهدف إلى نشر المعلومات المضللة، سواء كانت أنظمة استبدادية، أو شبكات دعاية مدعومة من الدول، أو أفراد يروجون لنظريات المؤامرة.
وأكدت دراسة أجرتها منظمة NewsGuard مدى سهولة استخدام Sora 2 في نشر المعلومات المضللة. فبعد مطالبة النموذج بتوليد مقاطع فيديو لـ 20 ادعاءً مزيفًا معروفًا تم تداوله عبر الإنترنت مؤخرًا، نجح Sora 2 في إنتاج مقاطع فيديو مُقنعة ذات طابع إخباري لـ 16 منها، وكثيرًا ما تضمنت تلك المقاطع مذيعين مزيفين.
نموذج Sora 2 وكابوس التزييف العميق
النموذج تمكن من إنشاء 11 من هذه المقاطع مباشرة من المحاولة الأولى. وعلى الرغم من أن OpenAI تدعي تطبيق إجراءات حماية صارمة، مثل حجب المحتوى العنيف أو صور الشخصيات العامة، وإضافة علامات مائية مرئية وبيانات وصفية (C2PA metadata) إلى كل مقطع، أظهرت التحقيقات أن هذه الإجراءات يمكن تجاوزها بسهولة. فقد أمكن إزالة العلامات المائية في غضون دقائق، وتم التغلب على المرشحات الوقائية جزئيًا باستخدام صيغ بديلة في المطالبات النصية.
وقد أثار إطلاق نموذج Sora 2 بالفعل موجة من الجدل، شملت قضايا تتعلق بحقوق النشر ومواجهة الغضب من عائلات شخصيات شهيرة وقيادية متوفاة، مثل نجل مارتن لوثر كينغ الابن وابنة روبن ويليامز، الذين طالبوا بوقف تداول مقاطع فيديو مزيفة لوالديهما. وتُظهر هذه التطورات أن التكنولوجيا تجاوزت الإجراءات الوقائية الموضوعة، مما يضع صناع المحتوى ومنصات التواصل الاجتماعي في مواجهة تحديات غير مسبوقة تتعلق بالتحقق من الحقائق والتحكم في المحتوى المتفجر.
إن القدرة الفائقة لنموذج Sora 2، إلى جانب سهولة استخدامه، تُطلق العنان لإمكانيات غير محدودة للتضليل والتلاعب البصري. ومع تضاؤل ثقة الجمهور في حقيقة ما يشاهده على الإنترنت، يصبح من الضروري على الشركات التقنية والمشرّعين العمل معًا على تطوير آليات كشف قوية لا يمكن التحايل عليها، وفرض ضوابط أكثر صرامة. وفي هذه المرحلة، لا يمكن لـ OpenAI أو لغيرها من الشركات الاكتفاء بالتدابير البسيطة، بل يجب عليها الارتقاء بمستوى الحماية لمواجهة هذا التحدي الوجودي للمحتوى الرقمي.
لا يسمح بنقل هذا المحتوى من سوالف دون الاشارة برابط مباشر