رئیس کیست؟ اعضای هیئت مدیره OpenAI اکنون می توانند سم آلتمن را در مورد ایمنی نسخه های جدید هوش مصنوعی رد کنند

رئیس کیست؟  اعضای هیئت مدیره OpenAI اکنون می توانند سم آلتمن را در مورد ایمنی نسخه های جدید هوش مصنوعی رد کنند

OpenAI دستورالعمل‌هایی را فاش کرده است که نشان می‌دهد هیئت مدیره آن اختیار دارد که از انتشار یک مدل هوش مصنوعی جلوگیری کند، حتی اگر رهبری شرکت آن را ایمن بداند. این حرکت نشان دهنده تعهد OpenAI به توانمندسازی مدیران خود برای افزایش حفاظت از فناوری پیشرفته هوش مصنوعی است.

این دستورالعمل که روز دوشنبه منتشر شد، به نحوه برنامه ریزی OpenAI برای مقابله با خطرات شدید مرتبط با قوی ترین سیستم های هوش مصنوعی خود می پردازد.

پس از آشفتگی های اخیر رهبری که منجر به برکناری مدیر عامل سام آلتمن برای مدت کوتاهی توسط هیئت مدیره شد، OpenAI بر تعادل قدرت بین مدیران و تیم اجرایی شرکت تاکید دارد.

این دستورالعمل‌ها وظایف تیم «آمادگی» OpenAI را مشخص می‌کند که سیستم‌های هوش مصنوعی را در چهار دسته ارزیابی می‌کند، از جمله مسائل احتمالی امنیت سایبری و تهدیدات مرتبط با عوامل شیمیایی، هسته‌ای و بیولوژیکی.

این شرکت به‌ویژه در مورد خطرات «فاجعه‌بار» هوشیار است، ریسک‌هایی که بالقوه صدها میلیارد دلار خسارت اقتصادی یا آسیب شدید یا مرگ برای بسیاری از افراد را دارند.

تیم آمادگی به رهبری الکساندر مدری از موسسه فناوری ماساچوست، گزارش های ماهانه را به یک گروه مشاوره ایمنی داخلی جدید ارسال می کند.

این گروه مشاوره یافته های تیم را تجزیه و تحلیل کرده و توصیه هایی را به آلتمن و هیئت مدیره ارائه خواهد کرد.

در حالی که آلتمن و تیم رهبری او می توانند تصمیم بگیرند که آیا یک سیستم هوش مصنوعی جدید را بر اساس این گزارش ها منتشر کنند یا خیر، هیئت مدیره این اختیار را دارد که بر اساس دستورالعمل ها این تصمیم را نادیده بگیرد.

OpenAI تیم “آمادگی” را در ماه اکتبر تأسیس کرد و یکی از سه گروه نظارت بر ایمنی هوش مصنوعی در شرکت را تشکیل داد. گروه‌های دیگر شامل «سیستم‌های ایمنی»، با تمرکز بر محصولات فعلی مانند GPT-4، و «Superalignment»، تمرکز بر سیستم‌های بالقوه هوش مصنوعی آینده با قدرت استثنایی هستند.

تیم Madry به طور مداوم پیشرفته‌ترین و منتشرنشده‌ترین مدل‌های هوش مصنوعی OpenAI را ارزیابی می‌کند و آنها را به‌عنوان «کم»، «متوسط»، «بالا» یا «بحرانی» برای انواع مختلف ریسک‌های درک شده دسته‌بندی می‌کند.

طبق دستورالعمل ها، مدل هایی که دارای رتبه “متوسط” یا “پایین” هستند، تنها مدل هایی هستند که OpenAI منتشر می کند.

مدری امیدوار است که سایر شرکت‌ها دستورالعمل‌های OpenAI را برای ارزیابی ریسک‌های بالقوه مرتبط با مدل‌های هوش مصنوعی خود اتخاذ کنند. این دستورالعمل‌ها فرآیندهایی را که OpenAI قبلاً هنگام ارزیابی فناوری هوش مصنوعی دنبال می‌کرد، با ورودی و بازخورد جمع‌آوری شده از درون سازمان در چند ماه گذشته رسمی می‌کند.

(با ورودی های نمایندگی ها)


منبع: https://www.firstpost.com/tech/whos-the-boss-openai-board-members-can-now-overrule-sam-altman-on-safety-of-new-ai-releases-13520172.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *