OpenAI تیم جدیدی تشکیل می دهد که ماموریت آن شامل تحقیق و آماده سازی برای سناریوهای فاجعه بار مانند تهدیدات بیولوژیکی و هسته ای است.

تصویری که نشان‌های ChatGPT و OpenAI را نشان می‌دهد.

OpenAI اعلام کرد که یک تیم ایمنی جدید هوش مصنوعی برای مقابله با خطرات پیش بینی نشده مرتبط با هوش مصنوعی ایجاد می کند.

گتی ایماژ



  • OpenAI در حال ایجاد یک تیم جدید “آمادگی” برای افزایش ایمنی هوش مصنوعی است.
  • این ChatGPTهدف جدیدترین تیم سازنده، رسیدگی به خطرات بالقوه مرتبط با هوش مصنوعی پیشرفته، از جمله تهدیدات هسته ای است.
  • تیم آمادگی برای یک محقق تهدیدات امنیت ملی و یک مهندس محقق استخدام می کند.
تبلیغات

تبلیغات

OpenAI، شرکت سازنده ChatGPT، تلاش های خود را برای جلوگیری از یک فاجعه مبتنی بر هوش مصنوعی دوچندان می کند.

این هفته، OpenAI تیم جدید “آمادگی” را معرفی کرد که هدف آن بررسی و محافظت در برابر تهدیدات بالقوه ای است که می تواند از قابلیت های پیشرفته هوش مصنوعی ناشی شود – که OpenAI آن را “خطرات مرزی” می نامد.

ما معتقدیم که مدل‌های هوش مصنوعی مرزی، که از قابلیت‌های موجود در پیشرفته‌ترین مدل‌های موجود فراتر می‌روند، این پتانسیل را دارند که به نفع تمام بشریت باشد.» OpenAI در اطلاعیه خود نوشت. اما آنها همچنین خطرات شدیدتری را به همراه دارند.”

تیم آمادگی به «ردیابی، ارزیابی، پیش‌بینی و محافظت در برابر خطرات فاجعه‌بار» از جمله تهدیدات شیمیایی، بیولوژیکی، هسته‌ای و امنیت سایبری کمک خواهد کرد.

تبلیغات

تبلیغات

همچنین یک «سیاست توسعه مبتنی بر ریسک» ایجاد خواهد کرد که شامل اقدامات حفاظتی و ساختار حاکمیتی برای پاسخگویی سیستم‌های هوش مصنوعی می‌شود.

الکساندر مادری که در حال حاضر از MIT در مرخصی است، به عنوان رئیس آمادگی OpenAI هدایت تیم را بر عهده خواهد داشت.

به عنوان بخشی از تیم، OpenAI در حال استخدام برای یک پژوهشگر تهدیدات امنیت ملی و الف مهندس محقق. بر اساس لیست های شغلی، هر کدام می توانند سالانه بین ۲۰۰۰۰۰ تا ۳۷۰۰۰۰ دلار حقوق دریافت کنند.

OpenAI و Aleksander Madry بلافاصله قبل از انتشار به درخواست Insider برای اظهار نظر پاسخ ندادند.

تبلیغات

تبلیغات

برای ماه‌ها، رهبران فناوری در شرکت‌های برتر هوش مصنوعی هشدارهایی را در مورد ایمنی هوش مصنوعی به صدا درآورده‌اند.

ایلان ماسک، که قبل از ترک شرکت به تأسیس OpenAI کمک کرد، در ماه فوریه گفت که هوش مصنوعی است “یکی از بزرگترین خطرات برای آینده تمدن.”

در ماه مارس، سام آلتمن، مدیر عامل OpenAI، در قسمتی از پادکست لکس فریدمن گفت که او با افرادی که از هوش مصنوعی می ترسند همدردی می کند، با توجه به اینکه پیشرفت در فناوری با خطرات مرتبط با ““مشکلات اطلاعات نادرست” شوک های اقتصادی مانند جایگزینی شغل و تهدید بسیار فراتر از هر چیزی که برای آن آماده شده ایم.»

در اوایل این ماه، Anthropic، رقیب OpenAI پشت ربات چت هوش مصنوعی Claude، قانون اساسی خود را اصلاح کرد با ورودی کاربران برای بالا بردن نرده های محافظ آن و جلوگیری از واکنش های سمی و نژادپرستانه.

تبلیغات

تبلیغات

با این حال، دیگران ترس کمتری دارند.

اوایل این ماه، یان لیکان، دانشمند ارشد هوش مصنوعی متا، گفت که ادعاهایی در مورد هوش مصنوعی فوق‌هوشمندی که بشریت را از بین می‌برد “احمقانه” است و بیشتر مبتنی بر داستان های علمی تخیلی هستند تا واقعیت.

او گفت: «هوش ربطی به میل به تسلط ندارد.

عکس سوئیچ و لامپ

برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.

در اعلان‌های فشار مشترک شوید

در ادامه بخوانید

OpenAI
ChatGPT
هوش مصنوعی مولد
تبلیغات


نماد بستن دو خط متقاطع که “X” را تشکیل می دهند. راهی برای بستن یک تعامل یا رد کردن یک اعلان را نشان می دهد.



منبع: https://www.businessinsider.com/openai-chatgpt-forms-team-address-nuclear-biological-cybersecurity-threats-ai-2023-10

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *