القدس – خلال الأسابيع الإثنتين الماضيتين، منذ قامت الجماعة الفلسطينية الإرهابية حماس بتنفيذ هجومها القاتل في جنوب إسرائيل مما أسفر عن مقتل حوالي 1400 شخص وإسرائيل، هناك خوف من أن يفتح جبهة جديدة في الحرب القديمة بين الإسرائيليين والفلسطينيين قد تفتح – في المجال الرقمي.
بينما كانت الصور المزيفة وأخبار الكذب جزءًا من ترسانة الحرب في الشرق الأوسط منذ فترة طويلة، فمع وصول أدوات الذكاء الاصطناعي (AI) السهلة الاستخدام قبل أقل من عام، يبدو من المرجح للغاية أن تبدأ الصور العميقة المزيفة قريبًا في الظهور على جبهة الحرب أيضًا.
“لقد قامت حماس وفصائل فلسطينية أخرى بالفعل بتمرير صور مروعة من صراعات أخرى على أنها ضحايا فلسطينيون للهجمات الإسرائيلية، لذا فهذا ليس شيئًا فريدًا لهذا المسرح من العمليات”، قال ديفيد ماي، مدير بحوث في مؤسسة الدفاع عن الديمقراطيات، لـ Digital.
ووصف كيف كانت حماس معروفة في الماضي بتخويف الصحفيين لمنعهم من الإبلاغ عن استخدامها للدروع البشرية في قطاع غزة، فضلاً عن ترتيب الصور للأطفال الرضع ودمى الدببة المدفونة في الأنقاض.
“تسيطر حماس على السرد في قطاع غزة”، قال ماي، الذي يتابع أنشطة حماس عن كثب، مضيفًا أن “الصور الاصطناعية ذات الذكاء الاصطناعي ستعقد الصراع الإسرائيلي الفلسطيني المشبع بالمعلومات المضللة بالفعل”.
لقد تم الإبلاغ عن بعض التقارير بشأن إعادة نشر الصور من صراعات مختلفة، والأسبوع الماضي، تبين أن صورة مأساوية لطفل رضيع يبكي وهو يتسلق الأنقاض في غزة كانت إنشاء AI.
“أنا أسميها أخبار كاذبة محسنة”، قال الدكتور طال بافيل، مؤسس ومدير معهد سايبيريو لدراسة سياسة السيبرانية، المقر في إسرائيل، لـ Digital.
“نحن بالفعل نعرف مصطلح الأخبار الكاذبة، التي في معظم الحالات هي محتوى بصري أو مكتوب يتم تلاعب به أو وضعه في سياق خاطئ. العميقة أو المزيفة هي عندما نأخذ تلك الصور ونجعلها تحيا في مقاطع الفيديو”.
دعا بافيل ظهور الصور الاصطناعية ذات الذكاء الاصطناعي “إلى أحد أكبر التهديدات للديمقراطية”.
“ليس فقط أثناء الحرب ولكن أيضًا في أوقات أخرى لأنه يصبح أصعب وأصعب إثبات ما هو حقيقي أم لا”، قال.
في الحياة اليومية، لاحظ بافيل، تم الإبلاغ عن حالات من المعلومات المضللة ذات الذكاء الاصطناعي بالفعل. ويشير إلى استخدامها من قبل العصابات الإجرامية في تنفيذ احتيالات باستخدام تقنية تغيير الصوت أو خلال حملات الانتخابات حيث يتم تلاعب بمقاطع الفيديو والصوت لتغيير الإدراك العام.
في الحرب، أضاف، يمكن أن يكون أكثر خطورة.
“هذه أرض غير مستكشفة ونحن في المراحل الأولى فقط من التنفيذ”، قال بافيل. “يمكن لأي شخص، بموارد منخفضة نسبيًا، استخدام الذكاء الاصطناعي لإنشاء بعض الصور والصور المذهلة.”
لقد تم استخدام التقنية بالفعل في الحرب الروسية المستمرة في أوكرانيا قالت إيفانا سترادنر، زميلة بحث أخرى في مؤسسة الدفاع عن الديمقراطيات التي تتخصص في منطقة أوكرانيا وروسيا.
في آذار/مارس الماضي، تم نشر فيديو مزيف وملاعب بشدة يظهر الرئيس فولوديمير زيلينسكي وكأنه يحث جنوده على وضع سلاحهم والاستسلام لروسيا على وسائل التواصل الاجتماعي وشاركه الإعلام الأوكراني. بمجرد اكتشاف أنه مزيف، تم إزالة الفيديو بسرعة.
“يمكن أن تكون مقاطع الفيديو العميقة واقعية للغاية وإذا تم صنعها بشكل جيد، فإنه من الصعب اكتشافها”، قالت سترادنر، مضيفة أن تطبيقات محاكاة الصوت متاحة بسهولة ويمكن سرقة الصور الحقيقية وتغييرها وإعادة استخدامها.
داخل غزة، قالت المنطقة أصعب بكثير للتنقل فيها. مع عدم وجود صحفيين معتمدين معروفين حقًا حاليًا في الشريط – دمرت حماس الممر البشري الرئيسي إلى قطاع غزة خلال هجومها في 7 أكتوبر ولم يتمكن الصحفيون الأجانب من دخوله – فإن فك التمييز بين الحقائق والأكاذيب بالفعل تحدي، مع منصات الذكاء الاصطناعي سهلة الاستخدام التي يمكن أن تصبح أكثر صعوبة بكثير.
ومع ذلك، قال الدكتور يديد هوشن، الذي كان يبحث في الصور العميقة المزيفة وطرق الكشف عنها في الجامعة العبرية في القدس، إن هذه التقنيات ليست مثالية تمامًا بعد.
“إنشاء الصور بحد ذاته ليس صعبًا، هناك العديد من التقنيات المتاحة هناك وأي شخص متمكن بمقدار معقول يمكنه إنتاج صور أو مقاطع فيديو ولكن عندما نتحدث عن الصور العميقة، نتحدث عن تبديل الوجوه الناطقة أو التبديل. هذه أنواع الصور المزيفة أكثر صعوبة في الإنشاء ولصراع مثل هذا، يجب أن تنشأ باللغة العبرية أو العربية عندما لا تزال معظم التقنية باللغة الإنجليزية فقط.”
علاوة على ذلك، قال هوشن، لا تزال هناك علامات مميزة تميز الصور الاصطناعية عن الحقيقية.
“لا يزال من الصعب للغاية جعل الصور متزامنة مع الصوت، والتي قد لا تكون ملحوظة بالعين البشرية ولكن يمكن اكتشافها باستخدام تقنيات متطورة”، قال، مضيفًا “التفاصيل الصغيرة مثل الأيدي أو الأصابع أو الشعر لا تبدو دائمًا واقعية”.
“إذا بدت الصورة غير واضحة، فقد تكون مزيفة”، قال هوشن. “لا يزال هناك الكثير الذي يخطئ فيه الذكاء الاصطناعي”.