وفقًا لكوينتيليغراف، أعلنت OpenAI، شركة أبحاث ونشر الذكاء الاصطناعي (AI) التي تقف وراء ChatGPT، عن إنشاء فريق جديد مخصص لتتبع وتقييم والتنبؤ والحماية من المخاطر الكارثية المحتملة الناجمة عن الذكاء الاصطناعي. سيركز القسم الجديد، المسمى "التأهب"، على تهديدات الذكاء الاصطناعي المتعلقة بالتهديدات الكيميائية والبيولوجية والإشعاعية والنووية، والإقناع الفردي، والأمن السيبراني، والتكرار والتكيف المستقل. وسيحاول فريق الاستعداد، بقيادة ألكسندر مادري، الإجابة على الأسئلة مثل مدى خطورة أنظمة الذكاء الاصطناعي الحدودية عند إساءة استخدامها وما إذا كان بإمكان الجهات الفاعلة الخبيثة نشر أوزان نماذج الذكاء الاصطناعي المسروقة. تعترف شركة OpenAI أنه على الرغم من أن نماذج الذكاء الاصطناعي الرائدة لديها القدرة على إفادة البشرية، إلا أنها تشكل أيضًا مخاطر شديدة بشكل متزايد. تلتزم الشركة بمعالجة مجموعة كاملة من مخاطر السلامة المتعلقة بالذكاء الاصطناعي، بدءًا من الأنظمة الحالية وحتى أبعد مستويات الذكاء الفائق. تبحث OpenAI حاليًا عن المواهب ذات الخلفيات التقنية المختلفة لفريق الاستعداد الجديد الخاص بها وتطلق تحدي الاستعداد للذكاء الاصطناعي لسوء الاستخدام الكارثي. الوقاية، حيث تقدم 25000 دولار أمريكي من أرصدة واجهة برمجة التطبيقات (API) لأفضل 10 طلبات مقدمة. لقد تم تسليط الضوء بشكل متكرر على المخاطر المرتبطة بالذكاء الاصطناعي، مع مخاوف من أن يصبح الذكاء الاصطناعي أكثر ذكاءً من أي إنسان. وعلى الرغم من هذه المخاطر، تواصل شركات مثل OpenAI تطوير تقنيات الذكاء الاصطناعي الجديدة، مما يثير المزيد من المخاوف. في مايو 2023، أصدرت منظمة Center for AI Safety غير الربحية رسالة مفتوحة حول مخاطر الذكاء الاصطناعي، وحثت المجتمع على التخفيف من مخاطر الانقراض من الذكاء الاصطناعي كأولوية عالمية إلى جانب المخاطر المجتمعية الأخرى، مثل الأوبئة والحرب النووية.