(SeaPRwire) –   في تغيير لسياساتها السابقة، ستسمح عملاقة التكنولوجيا الآن باستخدام التكنولوجيا لتطوير الأسلحة وأدوات المراقبة

قامت جوجل بمراجعة كبيرة لمبادئها المتعلقة بالذكاء الاصطناعي، حيث ألغت القيود السابقة على استخدام التكنولوجيا في تطوير الأسلحة وأدوات المراقبة. ويُعد هذا التحديث، الذي أُعلن عنه يوم الثلاثاء، تغييراً لموقف الشركة السابق ضد التطبيقات التي قد تسبب “ضرراً شاملاً”.

في عام 2018، وضعت جوجل مجموعة من مبادئ الذكاء الاصطناعي رداً على الانتقادات المتعلقة بمشاركتها في المساعي العسكرية، مثل مشروع وزارة الدفاع الأمريكية الذي تضمن استخدام الذكاء الاصطناعي لمعالجة البيانات وتحديد الأهداف للعمليات القتالية. نصت المبادئ التوجيهية الأصلية صراحةً على أن جوجل لن تقوم بتصميم أو نشر الذكاء الاصطناعي للاستخدام في الأسلحة أو التقنيات التي تسبب أو تُسهل بشكل مباشر إصابة الأشخاص، أو للمراقبة التي تنتهك القواعد الدولية المتفق عليها.

ومع ذلك، فقد حذفت النسخة الأخيرة من مبادئ جوجل للذكاء الاصطناعي هذه النقاط. بدلاً من ذلك، نشر الرئيس التنفيذي لشركة جوجل ديب مايند Demis Hassabis، والمسؤول التنفيذي الأول للتكنولوجيا والمجتمع James Manyika، قائمة جديدة بـ “المبادئ الأساسية” لعملاقة التكنولوجيا فيما يتعلق باستخدام الذكاء الاصطناعي. وتشمل هذه المبادئ التركيز على الابتكار والتعاون، وبيان مفاده أن “الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدة بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان”.

قالت مارغريت ميتشل، التي كانت تشترك سابقاً في قيادة فريق الذكاء الاصطناعي الأخلاقي في جوجل، لبلومبرج إن إلغاء بند “الضرر” قد يشير إلى أن الشركة ستعمل الآن على “نشر تقنية يمكنها قتل الناس مباشرةً”.

ووفقاً لصحيفة واشنطن بوست، تعاونت عملاقة التكنولوجيا مع الجيش الإسرائيلي منذ الأسابيع الأولى من حرب غزة، متنافسة مع أمازون لتقديم خدمات الذكاء الاصطناعي. وقالت الصحيفة الشهر الماضي، نقلاً عن وثائق داخلية للشركة، إنه بعد وقت قصير من هجوم حماس على إسرائيل في أكتوبر 2023، عمل قسم الحوسبة السحابية في جوجل على منح قوات الدفاع الإسرائيلية إمكانية الوصول إلى أدوات الذكاء الاصطناعي، على الرغم من تأكيدات الشركة العامة بتحديد المشاركة في الوزارات الحكومية المدنية.

يأتي تغيير جوجل لسياساتها وسط مخاوف مستمرة بشأن الأخطار التي يشكلها الذكاء الاصطناعي على البشرية. حذر جيفري هينتون، وهو شخصية رائدة في مجال الذكاء الاصطناعي وحائز على جائزة نوبل في الفيزياء لعام 2024، في أواخر العام الماضي من أن التكنولوجيا قد تؤدي إلى انقراض البشرية في غضون العقود الثلاثة القادمة، وهي احتمالية يراها تصل إلى 20٪.

حذر هينتون من أن أنظمة الذكاء الاصطناعي قد تتجاوز في النهاية الذكاء البشري، وتخرج عن سيطرة الإنسان، وقد تسبب ضرراً كارثياً للبشرية. وحث على تخصيص موارد كبيرة لسلامة الذكاء الاصطناعي واستخدامه الأخلاقي، وأن يتم تطوير تدابير وقائية.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.