وفقًا لـ Decrypt، تقوم Meta بإعادة هيكلة فريق الذكاء الاصطناعي المسؤول، مما يعكس تحولًا استراتيجيًا في نهجها تجاه تطوير الذكاء الاصطناعي. تهدف هذه الخطوة، التي نشرتها The Information لأول مرة، إلى اتباع نهج موزع وسط مشهد يتم فيه التدقيق بشكل متزايد في دور الذكاء الاصطناعي في المجتمع. تعمل شركة Meta على دمج أعضاء فريق الذكاء الاصطناعي المسؤول في أقسام منفصلة عبر الشركة، مما يؤدي إلى دمج اعتبارات سلامة الذكاء الاصطناعي بشكل مباشر أكثر في تطوير المنتجات والتقنيات الأساسية.
لقد أثار تأثير الذكاء الاصطناعي التوليدي إنذارات في جميع أنحاء العالم، حيث تراوحت المخاوف بين قضايا الخصوصية واحتمال إساءة استخدام الذكاء الاصطناعي. وأكدت Meta أن قرارها بتفريق فريق الذكاء الاصطناعي المسؤول الخاص بها لا يعني أن الشركة تتخلى عن تطوير الذكاء الاصطناعي المسؤول. وقد أثار ديفيد إيفان هاريس، الباحث السابق في شركة ميتا، إنذارات بشأن سوء الاستخدام المحتمل لتقنيات الذكاء الاصطناعي، بما في ذلك التمييز في الإسكان، والجمعيات العنصرية، والاستثناءات في قوائم الوظائف على أساس الجنس.
تتزامن عملية إعادة الهيكلة هذه مع مبادرة Meta لتبسيط العمليات كجزء من "عام الكفاءة" كما وصفه الرئيس التنفيذي مارك زوكربيرج. ويُنظر إلى هذه الخطوة على أنها استجابة للأهمية المتزايدة لأدوات الذكاء الاصطناعي التوليدية في مجال التكنولوجيا، وهو القطاع الذي تستثمر فيه شركة ميتا بكثافة. طرحت Meta مؤخرًا أدوات ذكاء اصطناعي توليدية للمعلنين ولديها مجموعة تتضمن نموذج اللغة الكبير مفتوح المصدر Llama 2، ومولد تحويل النص إلى فيديو، وأداة inpaint، ومساعد AI جديد، مع شائعات عن Llama 3 القادمة. سنة.