- OpenAI در حال ایجاد یک تیم جدید “آمادگی” برای افزایش ایمنی هوش مصنوعی است.
- این ChatGPTهدف جدیدترین تیم سازنده، رسیدگی به خطرات بالقوه مرتبط با هوش مصنوعی پیشرفته، از جمله تهدیدات هسته ای است.
- تیم آمادگی برای یک محقق تهدیدات امنیت ملی و یک مهندس محقق استخدام می کند.
OpenAI، شرکت سازنده ChatGPT، تلاش های خود را برای جلوگیری از یک فاجعه مبتنی بر هوش مصنوعی دوچندان می کند.
این هفته، OpenAI تیم جدید “آمادگی” را معرفی کرد که هدف آن بررسی و محافظت در برابر تهدیدات بالقوه ای است که می تواند از قابلیت های پیشرفته هوش مصنوعی ناشی شود – که OpenAI آن را “خطرات مرزی” می نامد.
ما معتقدیم که مدلهای هوش مصنوعی مرزی، که از قابلیتهای موجود در پیشرفتهترین مدلهای موجود فراتر میروند، این پتانسیل را دارند که به نفع تمام بشریت باشد.» OpenAI در اطلاعیه خود نوشت. اما آنها همچنین خطرات شدیدتری را به همراه دارند.”
تیم آمادگی به «ردیابی، ارزیابی، پیشبینی و محافظت در برابر خطرات فاجعهبار» از جمله تهدیدات شیمیایی، بیولوژیکی، هستهای و امنیت سایبری کمک خواهد کرد.
همچنین یک «سیاست توسعه مبتنی بر ریسک» ایجاد خواهد کرد که شامل اقدامات حفاظتی و ساختار حاکمیتی برای پاسخگویی سیستمهای هوش مصنوعی میشود.
الکساندر مادری که در حال حاضر از MIT در مرخصی است، به عنوان رئیس آمادگی OpenAI هدایت تیم را بر عهده خواهد داشت.
به عنوان بخشی از تیم، OpenAI در حال استخدام برای یک پژوهشگر تهدیدات امنیت ملی و الف مهندس محقق. بر اساس لیست های شغلی، هر کدام می توانند سالانه بین ۲۰۰۰۰۰ تا ۳۷۰۰۰۰ دلار حقوق دریافت کنند.
OpenAI و Aleksander Madry بلافاصله قبل از انتشار به درخواست Insider برای اظهار نظر پاسخ ندادند.
برای ماهها، رهبران فناوری در شرکتهای برتر هوش مصنوعی هشدارهایی را در مورد ایمنی هوش مصنوعی به صدا درآوردهاند.
ایلان ماسک، که قبل از ترک شرکت به تأسیس OpenAI کمک کرد، در ماه فوریه گفت که هوش مصنوعی است “یکی از بزرگترین خطرات برای آینده تمدن.”
در ماه مارس، سام آلتمن، مدیر عامل OpenAI، در قسمتی از پادکست لکس فریدمن گفت که او با افرادی که از هوش مصنوعی می ترسند همدردی می کند، با توجه به اینکه پیشرفت در فناوری با خطرات مرتبط با ““مشکلات اطلاعات نادرست” شوک های اقتصادی مانند جایگزینی شغل و تهدید بسیار فراتر از هر چیزی که برای آن آماده شده ایم.»
در اوایل این ماه، Anthropic، رقیب OpenAI پشت ربات چت هوش مصنوعی Claude، قانون اساسی خود را اصلاح کرد با ورودی کاربران برای بالا بردن نرده های محافظ آن و جلوگیری از واکنش های سمی و نژادپرستانه.
با این حال، دیگران ترس کمتری دارند.
اوایل این ماه، یان لیکان، دانشمند ارشد هوش مصنوعی متا، گفت که ادعاهایی در مورد هوش مصنوعی فوقهوشمندی که بشریت را از بین میبرد “احمقانه” است و بیشتر مبتنی بر داستان های علمی تخیلی هستند تا واقعیت.
او گفت: «هوش ربطی به میل به تسلط ندارد.
برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.
در ادامه بخوانید
تماشا کنید: ChatGPT چیست و آیا باید از چت ربات های هوش مصنوعی بترسیم؟
ChatGPT
هوش مصنوعی مولد
منبع: https://www.businessinsider.com/openai-chatgpt-forms-team-address-nuclear-biological-cybersecurity-threats-ai-2023-10