
(SeaPRwire) – لست بحاجة إلى تكنولوجيا متقدمة لخداع الناس عبر الإنترنت. لقد عرضنا على أكثر من 3000 طالب ثانوي فيديو مشوشًا لعمال اقتراع يلقون بطاقات الاقتراع لتزوير الانتخابات. وكان تعليق ملصق، يصرخ بخط أحمر وحروف كبيرة، كافياً لخداع الطلاب للاعتقاد بحدوث تزوير في الأصوات بالولايات المتحدة – على الرغم من أن اللقطات كانت من روسيا. ثلاثة طلاب فقط اكتشفوا ذلك.
لقد دافعنا منذ فترة طويلة عن أن المزيفات الرخيصة كانت أخطر من التزييف العميق (deepfakes): فعالة تقريبًا ولكن أسهل بكثير في الصنع. في الانتخابات الماضية، حتى مع توفر أدوات الذكاء الاصطناعي للجميع، كان المحتوى المقطع بـ”شريط لاصق رقمي” هو الذي أشعل النقاشات حول مدى لياقة الرئيس جو بايدن للخدمة.
الآن، عصر المزيفات الرخيصة يقترب من نهايته. المحتوى المصنوع بأدوات فيديو جديدة يمثل أرضية معلوماتية أكثر خطورة. بفضل منتجات مثل Veo 3 من Google، و Sora 2 من OpenAI، و Vibes من Meta، أصبح إنتاج محتوى الذكاء الاصطناعي الرديء سهلاً للغاية لدرجة أنه يتفشى عبر شاشاتنا، بمساعدة تراجع المنصات بالجملة عن المسؤولية. للتنقل في إنترنت اليوم، نحتاج إلى توجيه من حكمة قديمة: التركيز القديم على مركزية السمعة في التقاليد الإسلامية واليهودية والبوذية وغيرها من الأديان.
يتتبع المسلمون المتدينون أقوال محمد عبر “سلسلة سرد” أو “إسناد”. يفسر اليهود المتدينون تعاليم التلمود في سياق الحاخام الذي نطق بها. ينقل البوذيون التبتيون المبادئ شفهياً ضمن سلسلة نسب من بوذا إلى الوقت الحاضر. كل هذه التقاليد تشجعنا على التفكير في المعلومات، ولكن فقط بعد أن نتتبعها إلى مصدرها ونقيّم سمعة الحكماء الذين يقفون وراءها.
السمعة مهمة في السياقات العلمانية أيضًا: إنها الآلية التي نستخدمها لاتخاذ القرارات عندما نفتقر إلى المعرفة والخبرة. نعتمد على السمعة عند اختيار معالج أو سباك، أو مطعم نرتاده أو فندق نحجزه. نسأل الأشخاص الذين نثق بهم ونستشير التقييمات لأننا ندرك أنه لا أحد من المرجح أن يكشف عن عيوبه أو دوافعه الخفية.
السمعة حاسمة في العديد من مجالات حياتنا. فلماذا، إذن، على الإنترنت، يتجاهلها معظم الناس؟
قام مختبرنا باختبار قدرة آلاف الشباب على تقييم المعلومات عبر الإنترنت. ومرارًا وتكرارًا، رأيناهم يحكمون على المحتوى بينما يتجاهلون مصدره. طالب من ريف أوهايو دافع عن فيديو تزوير الأصوات لأنه اعتقد أن عينه المجردة كانت قادرة على اكتشاف “التزوير في عدة ولايات مختلفة”. كتب طالب من بنسلفانيا أن الفيديو أظهر بوضوح “أشخاصًا يدخلون أصواتًا مزيفة في الصناديق”.
يتضاعف النمط نفسه عندما يتعلق الأمر بالذكاء الاصطناعي. روى مدرس شارك تجربته مع ChatGPT كيف سأل طالبًا كيف عرف أن المعلومات من ChatGPT دقيقة. دفع الطالب الهاتف في وجه المدرس: “انظر، إنه يقول ذلك هنا!” وتشير دراساتنا التجريبية في الفصول الدراسية بالمدارس الثانوية والجامعات إلى اتجاه مماثل: يضع العديد من الطلاب ثقتهم في روبوتات الدردشة المدعومة بالذكاء الاصطناعي، حتى عندما تحذف هذه الروبوتات السياق الذي تأتي منه المعلومات.
يفشل عدد كبير جدًا من مستخدمي الإنترنت في النظر في السمعة أو يخطئون بين الشعبية أو الانتشار الفيروسي وبين المصادر الموثوقة، بدلاً من اعتبارها بدائل معيبة. وعندما يحاول الناس تقييم السمعة، يتأثرون بإشارات يمكن التلاعب بها بسهولة يقدمها المصدر نفسه: نطاق آمن، لغة تبدو رسمية في صفحة “حول”، كمية البيانات بغض النظر عن جودتها، أو مشاعر غريزية حول كيف يبدو شيء ما.
هذه الميزات تتلألأ مثل الذهب الكاذب. يمكن لأي شخص الحصول على نطاق آمن، بما في ذلك مجموعات الكراهية. تدعي مواقع إنكار الهولوكوست في صفحاتها التعريفية أنها “تقدم معلومات واقعية”. يمكن أن تحتوي المشاركات التي تحتوي على رسوم بيانية فاخرة على معلومات مضللة ضارة. وتشير التقارير إلى أن الذكاء الاصطناعي واقعي للغاية لدرجة أنه يجبرنا على الشك في حواسنا: من مكالمات آلية واقعية تبدو وكأنها من والدينا إلى صور واقعية للغاية لحريق يلتهم برج سياتل سبيس نيدل.
يقدم هذا المشهد المعلوماتي خيارًا لا فوز فيه بين الخضوع والوحدانية الذاتية: عدم الاهتمام بما هو حقيقي، أو الإصرار على أنه لا شيء حقيقي. الأول يتركنا عرضة للجهات الفاعلة السيئة التي تسلح المقاطع الواقعية. الأخير يتركنا مفتقرين إلى المعلومات الجيدة. كلا الخيارين يقوضان المواطنة المستنيرة في وقت يندر فيه وجودها.
إليكم ما يمكننا فعله: بدلاً من التركيز على المحتوى نفسه، اسأل أولاً من يقف وراءه، تمامًا كما تنظر التقاليد الدينية إلى التعاليم في سياق من قالها.
وعند استخدامها بمهارة، فإن الأدوات نفسها التي تضللنا يمكن أن تساعدنا في الخروج من هذا المأزق. ليس عن طريق الاستعانة بالتكنولوجيا لتفكر بدلاً منا – ولكن باستخدام التكنولوجيا لتأسيس السمعة وشحذ تفكيرنا.
الطلاب الثلاثة الذين اكتشفوا أن فيديو تزوير الأصوات كان من روسيا لم يمارسوا أي نوع من البراعة التقنية. لقد فتحوا ببساطة علامة تبويب جديدة، وأدخلوا بضع كلمات مفتاحية مختارة بعناية، ووجدوا مقالات من مصادر موثوقة مثل BBC و Snopes تفندها. ومع بعض المؤشرات الذكية حول كيفية عمل نماذج اللغة الكبيرة (LLMs) وكيفية هيكلة الأوامر (prompts) بفعالية، يمكن للذكاء الاصطناعي في الواقع أن يساعد في التحقق من المنشورات على وسائل التواصل الاجتماعي وتقديم السياق المفقود.
تتضمن أدوات الذكاء الاصطناعي الكبرى إخلاء مسؤولية عابر يطلب من المستخدمين التحقق من المعلومات. يقول Google: “يمكن لـ Gemini أن يرتكب أخطاء، لذا تأكد من المعلومات”. وينصح OpenAI: “يمكن لـ ChatGPT أن يرتكب أخطاء. تحقق من المعلومات المهمة”. ولكن من الجيل ألفا إلى Baby Boomers، يكافح الجميع تقريبًا في التحقق من المعلومات التي يصادفونها.
الخبر السار هو أننا جميعًا يمكن أن نتحسن. حتى بضع ساعات من التعليم حول كيفية تقييم السمعة يمكن أن تحدث فرقاً – كما رأينا في الدراسات التي أجريناها في كل مكان من فصول المدارس الثانوية في كاليفورنيا وواشنطن إلى الدورات الجامعية في ميتشيغان ونبراسكا. قبل ذلك، كان الطلاب يثقون في أعينهم لمعرفة ما إذا كان شيء ما موثوقًا به. بعد ذلك، تعلموا تحديد سمعة المصدر. وقد وجدت دراسات في كندا والمملكة المتحدة وأستراليا وألمانيا وهولندا نتائج إيجابية مماثلة.
عندما لا نعود قادرين على التمييز بين المحتوى الحقيقي والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، قد يبدو الأمر عديم الجدوى محاولة اتخاذ قرار بشأن ما يجب الوثوق به. ولكن يمكننا التعامل بشكل أفضل مع النظام البيئي للمعرفة اليوم من خلال مضاعفة التركيز على درس قديم: أهمية السمعة.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.