
(SeaPRwire) – يتحسن الذكاء الاصطناعي بوتيرة أسرع مما توقعه العديد من الخبراء، وقد “تزايدت بشكل كبير” الأدلة على وجود عدة مخاطر. وفي الوقت نفسه، فإن تقنيات إدارة المخاطر الحالية “تتحسن ولكنها غير كافية”. هذه هي النتائج التي توصل إليها التقرير الدولي الثاني لسلامة الذكاء الاصطناعي، الذي نُشر يوم الثلاثاء، قبل قمة تأثير الذكاء الاصطناعي المقرر عقدها في دلهي في الفترة من 19 إلى 20 فبراير.
بتوجيه من 100 خبير وبدعم من 30 دولة ومنظمة دولية بما في ذلك المملكة المتحدة والصين والاتحاد الأوروبي، يهدف التقرير إلى أن يكون مثالاً على “العمل معًا لمواجهة التحديات المشتركة”. ولكن على عكس العام الماضي، رفضت الولايات المتحدة دعم التقرير، حسبما أكده رئيس التقرير، العالم الحائز على جائزة تورينج، Yoshua Bengio.
مع بدء تجسد مخاطر الذكاء الاصطناعي، ابتعد موطن كبار مطوري الذكاء الاصطناعي عن الجهود الدولية لفهمها والتخفيف منها. هذه الخطوة رمزية إلى حد كبير، والتقرير لا يعتمد على دعم الولايات المتحدة. ولكن عندما يتعلق الأمر بفهم الذكاء الاصطناعي، يقول Bengio: “كلما زاد الإجماع حول العالم، كان ذلك أفضل”.
ما إذا كانت الولايات المتحدة قد اعترضت على محتوى التقرير، أو أنها ببساطة تنسحب من الاتفاقيات الدولية — فقد انسحبت من الـ و الـ في يناير — لا يزال غير واضح. يقول Bengio إن الولايات المتحدة قدمت ملاحظات على الإصدارات السابقة من التقرير لكنها رفضت التوقيع على النسخة النهائية.
لم تستجب وزارة التجارة الأمريكية، التي ورد اسمها في التقرير الدولي لسلامة الذكاء الاصطناعي لعام 2025، للتعليق على القرار.
ماذا يقول التقرير
يقرأ التقرير: “على مدار العام الماضي، استمرت قدرات نماذج وأنظمة الذكاء الاصطناعي للأغراض العامة في التحسن”. لقد تطورت القدرات بسرعة كبيرة لدرجة أنه في العام الفاصل بين التقرير الأول والثاني، نشر المؤلفون تحديثين مؤقتين استجابة لتغيرات كبيرة. وهذا يتعارض مع الوتيرة الثابتة للعناوين الرئيسية التي تشير إلى أن الذكاء الاصطناعي قد وصل إلى مرحلة الاستقرار. يقول Bengio إن الأدلة العلمية لا تظهر “أي تباطؤ في التقدم خلال العام الماضي”.
لماذا يشعر الكثيرون وكأن التقدم قد تباطأ؟ أحد التلميحات هو ما يسميه الباحثون “التفاوت” في أداء الذكاء الاصطناعي. يمكن لهذه النماذج أن تصل إلى مستوى الميدالية الذهبية في أسئلة الأولمبياد الدولي للرياضيات بينما تفشل أحيانًا في عد عدد حرف الراء في كلمة “strawberry”. هذا التفاوت يجعل من الصعب تقييم قدرات الذكاء الاصطناعي، والمقارنات البشرية المباشرة — مثل تشبيه “المتدرب” الشائع — مضللة.
لا يوجد ضمان لاستمرار معدل التقدم الحالي، على الرغم من أن التقرير يشير إلى أن الاتجاهات تتوافق مع التحسن المستمر حتى عام 2030. إذا استمرت الوتيرة الحالية حتى ذلك الحين، يتوقع الخبراء أن الذكاء الاصطناعي سيكون قادرًا على إكمال مهام هندسة البرمجيات محددة النطاق والتي ستستغرق من المهندسين البشريين عدة أيام. لكن التقرير يثير أيضًا احتمالًا أكثر إثارة للدهشة وهو أن التقدم قد يتسارع إذا ساعد الذكاء الاصطناعي بشكل كبير في تطويره، مما ينتج أنظمة قادرة مثل البشر أو أكثر قدرة منهم عبر معظم الأبعاد.
من المرجح أن يثير ذلك حماس المستثمرين، ولكنه مقلق لأولئك الذين يخشون أن المجتمع يفشل في التكيف بشكل كافٍ مع المخاطر الناشئة بالوتيرة الحالية. حتى الرئيس التنفيذي لشركة Google DeepMind، Demis Hassabis، في دافوس في يناير، قال إنه يعتقد أنه سيكون “أفضل للعالم” إذا تباطأ التقدم.
يقول Bengio: “إن الاستراتيجية الحكيمة، سواء كنت في الحكومة أو في مجال الأعمال، هي الاستعداد لجميع السيناريوهات المحتملة”. وهذا يعني التخفيف من المخاطر، حتى في مواجهة عدم اليقين.
فهم ناضج للمخاطر
يواجه صانعو السياسات الذين يرغبون في الاستماع إلى العلماء عندما يتعلق الأمر بمخاطر الذكاء الاصطناعي مشكلة: العلماء لا يتفقون. حذر Bengio وزميله رائد الذكاء الاصطناعي Geoffrey Hinton منذ إطلاق ChatGPT من أن الذكاء الاصطناعي يمكن أن يشكل تهديدًا وجوديًا للبشرية. وفي الوقت نفسه، وصف Yann LeCun، الثالث من “الآباء الروحيين” المزعومين للذكاء الاصطناعي، هذه المخاوف بأنها “هراء تام”.
لكن التقرير يشير إلى أن الأرضية تزداد صلابة. فبينما تظل بعض الأسئلة مثيرة للانقسام، يلاحظ التقرير أن “هناك درجة عالية من التقارب” بشأن النتائج الأساسية. تتطابق أنظمة الذكاء الاصطناعي الآن أو تتجاوز أداء الخبراء في المعايير المتعلقة بتطوير الأسلحة البيولوجية، مثل استكشاف أخطاء بروتوكولات مختبرات الفيروسات وإصلاحها. وهناك أدلة قوية على أن الجماعات الإجرامية والمهاجمين المدعومين من الدول يستخدمون الذكاء الاصطناعي بنشاط في العمليات السيبرانية.
يقول التقرير إن الاستمرار في قياس هذه المخاطر سيواجه تحديات في المستقبل حيث تتعلم نماذج الذكاء الاصطناعي بشكل متزايد التلاعب باختبارات السلامة. يقول Bengio: “نحن نرى أنظمة ذكاء اصطناعي يكون سلوكها، عند اختبارها، […] مختلفًا عما هو عليه عند استخدامها”، مضيفًا أنه من خلال دراسة سلاسل تفكير النماذج — الخطوات الوسيطة التي اتخذتها قبل الوصول إلى إجابة — حدد الباحثون أن هذا الاختلاف “ليس صدفة”. تتصرف أنظمة الذكاء الاصطناعي بغباء أو بأفضل سلوك لها بطرق “تعيق بشكل كبير قدرتنا على تقدير المخاطر بشكل صحيح”، كما يقول Bengio.
بدلاً من اقتراح حل واحد، يوصي التقرير بتكديس تدابير أمان متعددة — الاختبار قبل الإصدار، والمراقبة بعده، — بحيث يتم التقاط ما يتسرب من طبقة بواسطة الطبقة التالية، مثل الماء الذي يمر عبر سلسلة من المصافي الدقيقة بشكل متزايد. تستهدف بعض التدابير النماذج نفسها؛ ويهدف البعض الآخر إلى تعزيز الدفاعات في العالم الحقيقي — على سبيل المثال، جعل الحصول على المواد اللازمة لبناء سلاح بيولوجي أكثر صعوبة حتى لو جعلها الذكاء الاصطناعي أسهل في التصميم. على الجانب المؤسسي، نشرت 12 شركة طواعية أو حدثت أطر عمل السلامة الحدودية (Frontier Safety Frameworks) في عام 2025، وهي وثائق تصف كيف تخطط لإدارة المخاطر أثناء بناء نماذج أكثر قدرة — على الرغم من أنها تختلف في المخاطر التي تغطيها، يلاحظ التقرير.
على الرغم من هذه النتائج، يقول Bengio إن التقرير تركه بشعور من التفاؤل. عندما تم تكليف التقرير الأول في أواخر عام 2023، كان النقاش حول مخاطر الذكاء الاصطناعي مدفوعًا بالرأي والنظرية. الآن، يقول، “بدأنا نجري نقاشًا أكثر نضجًا بكثير”.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.