هوش مصنوعی نسل کشی: شبیه ساز جنگی مبتنی بر ChatGPT برای صلح جهانی، دو موشک هسته ای را روی روسیه و چین می اندازد.

اگر OpenAI و دیگر مدل‌های هوش مصنوعی، شرکت‌های هوش مصنوعی راه خود را داشته باشند، برای حفظ صلح جهانی، از انداختن یک یا دو بمب هسته‌ای به کشورهایی مانند روسیه، چین و احتمالاً ایالات متحده دریغ نمی‌کنند.

ادغام هوش مصنوعی در بخش‌های مختلف، از جمله ارتش ایالات متحده، هم با اشتیاق و هم با احتیاط مواجه شده است. با این حال، یک مطالعه اخیر خطرات بالقوه مرتبط با نقش هوش مصنوعی در تصمیم‌گیری سیاست خارجی را روشن می‌کند و تمایلات نگران‌کننده به طرفداری از تشدید تنش نظامی بر سر قطعنامه‌های صلح‌آمیز را آشکار می‌کند.

این مطالعه که توسط محققان موسسه فناوری جورجیا، دانشگاه استنفورد، دانشگاه نورث ایسترن و ابتکار عمل شبیه‌سازی بحران و بازی هوور انجام شد، به بررسی رفتار مدل‌های هوش مصنوعی در سناریوهای جنگ شبیه‌سازی شده به عنوان تصمیم‌گیرندگان اولیه می‌پردازد.

قابل‌توجه، مدل‌های هوش مصنوعی از OpenAI، Anthropic و Meta به همراه GPT-3.5 و GPT-4 OpenAI که در تشدید درگیری‌ها، از جمله نمونه‌هایی از جنگ هسته‌ای، نقش‌آفرینی می‌کنند، به طور مفصل مورد مطالعه قرار گرفتند.

این تحقیق روند نگران‌کننده‌ای را کشف کرد که در آن مدل‌های هوش مصنوعی تمایل بیشتری به تنش‌های ناگهانی و غیرقابل پیش‌بینی نشان می‌دادند که اغلب منجر به تشدید تنش‌های نظامی و در موارد شدید، استفاده از سلاح‌های هسته‌ای می‌شد.

به گفته محققان، این پویایی‌های مبتنی بر هوش مصنوعی سناریوی «مسابقه تسلیحاتی» را بازتاب می‌دهند و به افزایش سرمایه‌گذاری‌های نظامی و تشدید درگیری‌ها دامن می‌زنند.

توجیهات ارائه شده توسط OpenAI’s GPT-4 برای حمایت از جنگ هسته ای در سناریوهای شبیه سازی شده بسیار نگران کننده بود.

جملاتی مانند “من فقط می خواهم در جهان صلح داشته باشم” و “بعضی می گویند باید آنها را خلع سلاح کنند، برخی دیگر دوست دارند وضعیت بدنی داشته باشند.” ما داریمش! بیایید از آن استفاده کنیم!» نگرانی‌های جدی در میان محققان ایجاد کرد و استدلال هوش مصنوعی را به استدلال یک دیکتاتور نسل‌کشی تشبیه کرد.

در حالی که OpenAI تعهد خود را برای توسعه هوش مصنوعی برای بهبود بشریت حفظ می‌کند، افشاگری‌های این مطالعه در همسویی رفتار مدل‌هایش با این مأموریت تردید ایجاد می‌کند.

منتقدان نشان می‌دهند که شاید داده‌های آموزشی گنجانده شده در این سیستم‌های هوش مصنوعی به طور ناخواسته بر تمایل آنها به راه‌حل‌های نظامی تأثیر گذاشته است.

پیامدهای این مطالعه فراتر از دانشگاه است و با بحث‌های جاری در پنتاگون ایالات متحده طنین‌انداز می‌شود، جایی که طبق گزارش‌ها، آزمایش با هوش مصنوعی، با استفاده از «داده‌های مخفی» در حال انجام است. مقامات نظامی به استقرار بالقوه هوش مصنوعی در آینده نزدیک فکر می کنند و نگرانی ها را در مورد سرعت تشدید درگیری افزایش می دهد.

همزمان، ظهور پهپادهای غواصی مجهز به هوش مصنوعی بر ادغام فزاینده فناوری‌های هوش مصنوعی در جنگ‌های مدرن تأکید می‌کند و مدیران فنی را به سمتی می‌کشد که به نظر می‌رسد یک مسابقه تسلیحاتی در حال افزایش است.

از آنجایی که کشورهای سراسر جهان به طور فزاینده ای از هوش مصنوعی در عملیات نظامی استقبال می کنند، این مطالعه یادآور نیاز فوری به توسعه و مدیریت هوش مصنوعی مسئولانه برای کاهش خطر تشدید درگیری شدید است.


منبع: https://www.firstpost.com/tech/genocidal-ai-chatgpt-powered-war-simulator-drops-two-nukes-on-russia-china-for-world-peace-13704402.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *