(SeaPRwire) – عندما أطلقت OpenAI تطبيقها لإنشاء الفيديو بالذكاء الاصطناعي، Sora، في سبتمبر، قالت إن “لك السيطرة الكاملة على صورتك الشخصية”. يتيح التطبيق للمستخدمين تضمين أنفسهم وأصدقائهم في مقاطع الفيديو من خلال ميزة تسمى “cameos” – يقوم التطبيق بمسح وجه المستخدم وإجراء فحص حيوي، مما يوفر بيانات لإنشاء فيديو للمستخدم وتوثيق موافقته للأصدقاء لاستخدام صورته على التطبيق.
لكن Reality Defender، وهي شركة متخصصة في تحديد التزييف العميق (deepfakes)، تقول إنها تمكنت من اختراق ضمانات Sora لمكافحة انتحال الشخصية في غضون 24 ساعة. يقول بن كولمان، الرئيس التنفيذي لـ Reality Defender، إن المنصات مثل Sora تمنح “شعورًا معقولًا بالأمان”، على الرغم من حقيقة أن “أي شخص يمكنه استخدام أدوات جاهزة تمامًا” لاجتياز المصادقة كشخص آخر.
استخدم باحثو Reality Defender لقطات متاحة للجمهور لأفراد بارزين، بمن فيهم الرؤساء التنفيذيون والفنانون، من مكالمات الأرباح والمقابلات الإعلامية. نجحت الشركة في اختراق الضمانات بكل صورة حاولوا انتحالها. يجادل كولمان بأن “أي طالب ذكي في الصف العاشر” يمكنه اكتشاف الأدوات التي استخدمتها شركته.
صرح متحدث باسم OpenAI في بيان عبر البريد الإلكتروني لمجلة TIME أن “الباحثين قاموا ببناء نظام تزييف عميق متطور للرؤساء التنفيذيين والفنانين في محاولة لتجاوز هذه الحماية، ونحن نعمل باستمرار على تعزيز Sora لجعله أكثر مرونة ضد هذا النوع من سوء الاستخدام.”
يُعد إطلاق Sora، والتحايل السريع على آليات المصادقة الخاصة به، تذكيرًا بأن المجتمع غير مستعد للموجة التالية من التزييف العميق المتزايد الواقعية والشخصية. الفجوة بين التكنولوجيا المتقدمة والتشريعات المتأخرة تترك الأفراد بمفردهم للتنقل في مشهد معلوماتي غير مؤكد – ولحماية أنفسهم من الاحتيال والمضايقات المحتملة.
يقول كولمان: “المنصات تعلم تمامًا أن هذا يحدث، وتعلم تمامًا أنه يمكنها حل المشكلة إذا أرادت ذلك. ولكن حتى تلحق التشريعات بالركب – ونحن نرى نفس الشيء عبر جميع منصات التواصل الاجتماعي – فإنها لن تفعل شيئًا.”
وصل Sora إلى مليون عملية تنزيل في أقل من خمسة أيام – أسرع من ChatGPT، الذي كان في ذلك الوقت أسرع تطبيق استهلاكي نموًا – على الرغم من طلب دعوة للمستخدمين، وفقًا لبيل بيبليز، رئيس Sora في OpenAI. جاء إطلاق OpenAI بعد عرض مماثل من Meta يُسمى Vibes، وهو مدمج في تطبيق Meta AI.
لقد أثار تزايد إمكانية الوصول إلى التزييف العميق المقنع قلق بعض المراقبين. قالت جينيفر إيوبانك، المديرة المساعدة السابقة للابتكار الرقمي في CIA، في رسالة بريد إلكتروني إلى TIME: “الحقيقة هي أن اكتشاف [التزييف العميق] بالعين أصبح شبه مستحيل، نظرًا للتقدم السريع في قدرات تحويل النص إلى صور، والنص إلى فيديو، واستنساخ الصوت.”
يتصارع المشرعون مع كيفية معالجة التزييف العميق منذ عام 2019 على الأقل، عندما وقع الرئيس ترامب قانونًا يلزم مدير الاستخبارات الوطنية بالتحقيق في استخدام الحكومات الأجنبية للتزييف العميق. ومع ذلك، مع تزايد إمكانية الوصول إلى التزييف العميق، تحول تركيز التشريعات إلى الشأن المحلي. في مايو 2025، صدر قانون “Take It Down” كقانون فيدرالي، يحظر النشر عبر الإنترنت لـ “تصوير مرئي حميمي” للقُصّر والبالغين غير الموافقين، ويطلب من المنصات إزالة المحتوى المخالف في غضون 48 ساعة من الطلب – لكن التنفيذ لن يبدأ إلا في مايو 2026.
يمكن أن تكون التشريعات التي تحظر التزييف العميق محفوفة بالمخاطر. يقول جيمسون سبيفاك، نائب مدير السياسات الأمريكية في Future of Privacy Forum: “الأمر معقد حقًا، من الناحية الفنية والقانونية، لأن هناك مخاوف تتعلق بالتعديل الأول للدستور بشأن إزالة بعض أنواع الكلام”. في أغسطس، ألغى قاضٍ فيدرالي قانونًا للتزييف العميق في كاليفورنيا، والذي كان يهدف إلى تقييد محتوى التزييف العميق الذي تم إنشاؤه بواسطة الذكاء الاصطناعي خلال الانتخابات، بعد أن رفعت X التابعة لإيلون ماسك دعوى قضائية ضد الولاية على أساس أن القانون ينتهك حماية التعديل الأول. ونتيجة لذلك، أصبحت متطلبات تسمية المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أكثر شيوعًا من الحظر الصريح، كما يقول سبيفاك.
يقول فريد هايدينج، زميل أبحاث في برنامج الدفاع والتكنولوجيا الناشئة والاستراتيجية بجامعة هارفارد، إن هناك نهجًا واعدًا آخر وهو أن تعتمد المنصات خططًا أفضل لمعرفة العميل (know-your-customer). تتطلب خطط معرفة العميل من مستخدمي المنصات مثل Sora تسجيل الدخول باستخدام هوية موثقة، مما يزيد من المساءلة ويسمح للسلطات بتتبع السلوك غير القانوني. لكن هناك مقايضات هنا أيضًا. يقول هايدينج: “المشكلة هي أننا نقدر حقًا إخفاء الهوية في الغرب”. “هذا جيد، لكن إخفاء الهوية له تكلفة، والتكلفة هي أن هذه الأمور يصعب تطبيقها حقًا.”
بينما يتصارع المشرعون مع تزايد انتشار وواقعية التزييف العميق، يمكن للأفراد والمنظمات اتخاذ خطوات لحماية أنفسهم. يوصي سبيفاك باستخدام برامج المصادقة مثل C2PA، التي طورتها Coalition for Content Provenance and Authenticity، والتي تلحق بيانات وصفية حول الأصل بالصور ومقاطع الفيديو. تدعم كاميرات Leica وNikon العلامة المائية، وكذلك Adobe. يزيد استخدام هذه المصادقة من الثقة في الصور الأصلية، ويقوض التزييف.
مع تغير المشهد المعلوماتي عبر الإنترنت، مما يجعل من الصعب الوثوق بالأشياء التي نراها ونسمعها عبر الإنترنت، يجب على المشرعين والأفراد على حد سواء بناء مرونة المجتمع تجاه الوسائط المزيفة. تقول إيوبانك: “كلما عززنا هذه المرونة، كلما أصبح من الصعب على أي شخص احتكار اهتمامنا والتلاعب بثقتنا.”
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.