OpenAI تشكل لجنة سلامة لتقييم العمليات العالمية خلال 90 يومًا

قام مجلس إدارة OpenAI بتشكيل لجنة للسلامة والأمن لتقييم عملياتها بينما تبدأ الشركة في تدريب نموذج الذكاء الاصطناعي التالي.
أعلنت الشركة ذلك في بيان لها يوم الثلاثاء، مشيرة إلى أن المهمة الأولى للجنة هي تقييم ومواصلة تطوير عملياتها وضماناتها خلال التسعين يومًا القادمة.
ويأتي هذا وسط مخاوف عالمية تتعلق بالسلامة حيث أصبحت نماذج الذكاء الاصطناعي قوية في إنشاء النصوص وتوليد الصور.
سيرأس اللجنة أعضاء مجلس إدارة OpenAI، بريت تايلور (الرئيس)، وآدم دانجيلو، ونيكول سيليجمان، وسام التمان (الرئيس التنفيذي). وفقًا لـ OpenAI، ستكون اللجنة مسؤولة عن تقديم توصيات إلى مجلس الإدارة بكامل هيئته بشأن قرارات السلامة والأمن الحاسمة لمشاريع الشركة وعملياتها.
التدريب على النموذج الجديد
حققت شركة OpenAI تقدمًا سريعًا في مجال الذكاء الاصطناعي مؤخرًا، مما يثير المخاوف بشأن كيفية إدارتها للمخاطر المحتملة للتكنولوجيا.
وقالت الشركة إنها بدأت تدريب نموذج جديد، والذي قد يكون أقوى من ChatGPT-4 وChatGPT-4o الحاليين، ومن هنا جاءت الحاجة إلى قيام اللجنة بمراجعة عملياتها وتقديم توصيات.
“لقد بدأت OpenAI مؤخرًا تدريب نموذجها الحدودي التالي ونتوقع أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا إلى AGI.
“بينما نحن فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة.” ذكرت الشركة.
وأضافت أنه بعد 90 يومًا، ستقوم لجنة السلامة والأمن بمشاركة توصياتها مع مجلس الإدارة بأكمله.
“بعد المراجعة الكاملة لمجلس الإدارة، ستشارك OpenAI علنًا تحديثًا للتوصيات المعتمدة بطريقة تتفق مع السلامة والأمن.” وقال انه.
وفقًا لـ OpenAI، فإن الأعضاء الآخرين في اللجنة يشملون الخبراء الفنيين والسياسيين، ألكسندر مادري (رئيس قسم الاستعداد)، وليليان ونج (رئيس أنظمة السلامة)، وجون شولمان (رئيس قسم علوم المحاذاة)، ومات نايت (رئيس قسم الأمن)، وجاكوب باتشوكي (كبير العلماء).
وقالت الشركة إنها ستستعين بخبراء آخرين في مجال السلامة والأمن والتقنية وتتشاور معهم لدعم هذا العمل، بما في ذلك مسؤولي الأمن السيبراني السابقين، روب جويس، الذي يقدم المشورة لـ OpenAI بشأن الأمن، وجون كارلين.
قصة درامية
جاء إنشاء لجنة جديدة للسلامة في أعقاب حل فريق يركز على ضمان سلامة أنظمة الذكاء الاصطناعي المستقبلية المحتملة ذات القدرة الفائقة. تم حل الفريق بعد رحيل قائدي المجموعة، بما في ذلك المؤسس المشارك لـ OpenAI وكبير العلماء، إيليا سوتسكيفر.
تم تشكيل الفريق منذ أقل من عام تحت قيادة Sutskever وJan Leike، وهو أحد المخضرمين الآخرين في OpenAI. أدار العلماء فريق OpenAI الفائق، والذي ركز على التهديدات طويلة المدى للذكاء الاصطناعي الخارق.
كتب لايكي، الذي استقال، بعد ذلك أن قسمه كان “يكافح” من أجل الحصول على موارد الحوسبة داخل OpenAI.