موقع الصالح :
Meta تدرس إيقاف تطوير أنظمة الذكاء الاصطناعي المحفوفة بالمخاطر
موقع الصالح :
Meta تدرس إيقاف تطوير أنظمة الذكاء الاصطناعي المحفوفة بالمخاطر
تعهد مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، بجعل الذكاء الاصطناعي العام (AGI) – والذي يُعرَّف تقريبًا على أنه الذكاء الاصطناعي الذي يمكنه إنجاز أي مهمة يستطيع الإنسان إنجازها – متاحًا بشكل مفتوح يومًا ما.
لكن في وثيقة سياسة جديدة، تشير ميتا إلى أن هناك سيناريوهات معينة قد لا تطلق فيها نظام ذكاء اصطناعي عالي القدرة طورته داخليًا.
و تحدد الوثيقة، التي تطلق عليها شركة Meta اسم Frontier AI Framework، نوعين من أنظمة الذكاء الاصطناعي التي تعتبرها الشركة محفوفة بالمخاطر للغاية بحيث لا يمكن إصدارها وهي الأنظمة “عالية المخاطر” و”المخاطر الحرجة”، كما تعرّفها ميتا، فإن كلاً من الأنظمة “عالية المخاطر” و”المخاطر الحرجة” قادرة على المساعدة في الأمن السيبراني والهجمات الكيميائية والبيولوجية، والفرق هو أن أنظمة “المخاطر الحرجة” يمكن أن تؤدي إلى “نتيجة كارثية.
وعلى النقيض من ذلك، فإن الأنظمة عالية المخاطر قد تجعل تنفيذ الهجوم أسهل ولكن ليس بشكل موثوق أو يمكن الاعتماد عليه مثل نظام المخاطر الحرجة.
وذكرت ميتا نوع الهجمات الخطيرة، مثل “التسوية الآلية الشاملة لبيئة مؤسسية محمية بأفضل الممارسات” و”انتشار الأسلحة البيولوجية شديدة التأثير”، وتعترف الشركة بأن قائمة الكوارث المحتملة في وثيقة ميتا ليست شاملة، ولكنها تتضمن تلك التي تعتقد ميتا أنها “الأكثر إلحاحًا” .
ووفقًا للوثيقة، تصنف ميتا مخاطر النظام ليس بناءً على أي اختبار تجريبي واحد، بل بناءً على مدخلات الباحثين الداخليين والخارجيين الذين يخضعون للمراجعة من قبل “صناع القرار على مستوى رفيع”.
وترى شركة Meta إنها لا تعتقد أن علم التقييم قوي بما يكفي لتوفير مقاييس كمية محددة، لتحديد مدى خطورة النظام، وإذا قررت Meta أن النظام عالي المخاطر، تقول الشركة إنها ستحد من الوصول إلى النظام داخليًا ولن تطلقه حتى تنفذ إجراءات التخفيف “لتقليل المخاطر إلى مستويات معتدلة”.
ومن ناحية أخرى، إذا تم اعتبار النظام خطيرًا للغاية، تقول Meta إنها ستنفذ إجراءات حماية أمنية غير محددة لمنع اختراق النظام وتخزينه.
وقد تبنت شركة Meta استراتيجية لجعل تقنية الذكاء الاصطناعي الخاصة بها متاحة بشكل مفتوح – وإن لم تكن مفتوحة المصدر حسب التعريف المفهوم بشكل عام – على عكس شركات مثل OpenAI التي تختار بوابة أنظمتها خلف واجهة برمجة التطبيقات (API).
موقع الصالح :
Meta تدرس إيقاف تطوير أنظمة الذكاء الاصطناعي المحفوفة بالمخاطر
موقع الصالح :
Meta تدرس إيقاف تطوير أنظمة الذكاء الاصطناعي المحفوفة بالمخاطر
#Meta #تدرس #إيقاف #تطوير #أنظمة #الذكاء #الاصطناعي #المحفوفة #بالمخاطر