وفقًا للأخبار الرسمية، أصدرت OpenAI دليلًا أمنيًا يسمى "إطار الاستعداد" على موقعها الرسمي على الإنترنت، والذي ينص على "عملية تتبع وتقييم والتنبؤ ومنع المخاطر الكارثية التي تجلبها النماذج المتزايدة القوة".
يوضح OpenAI أن البحث في مخاطر الذكاء الاصطناعي المتطور أقل بكثير مما هو مطلوب. لمعالجة هذه الفجوة وتنظيم التفكير الأمني، تتبنى OpenAI نسخة تجريبية من إطار الاستعداد.
أعلنت OpenAI في بيان صحفي أن "فريق الاستعداد" سيعمل على ضمان أمن نماذج الذكاء الاصطناعي المتطورة. سيقوم فريق الاستعداد بتقييم أنظمة الذكاء الاصطناعي باستمرار لفهم كيفية أدائها عبر أربع فئات مختلفة من المخاطر، بما في ذلك مشكلات الأمن السيبراني المحتملة، والتهديدات الكيميائية، والتهديدات النووية، والتهديدات البيولوجية، والعمل على تخفيف أي ضرر قد تسببه التكنولوجيا.
على وجه التحديد، تقوم OpenAI بمراقبة ما يسمى بالمخاطر "الكارثية"، والتي تم تعريفها في التوجيهات على أنها "أي خطر يمكن أن يؤدي إلى خسائر اقتصادية بمئات المليارات من الدولارات أو يتسبب في إصابة خطيرة أو حتى الموت للعديد من الأشخاص".
والجدير بالذكر أن القيادة يمكن أن تقرر ما إذا كانت ستصدر نماذج جديدة للذكاء الاصطناعي بناءً على هذه التقارير، لكن مجلس الإدارة لديه القدرة على إلغاء قراره، وفقًا لإرشادات السلامة.