- برخی از کارشناسان هوش مصنوعی می گویند که ما ابتدا به سمت نابودی بشریت پیش می رویم.
- برخی از این اظهارات مبهم هستند و کارشناسان در مورد اینکه دقیقاً خطرات اصلی چیست اختلاف نظر دارند.
- اینها برخی از تهدیدات بالقوه هوش مصنوعی پیشرفته و میزان احتمال آنها هستند.
رستگاران هوش مصنوعی فکر می کنند این فناوری به همان اندازه خطرناک است جنگ هسته ای و همه گیری های جهانی.
برخی از سازندگان اولیه این فناوری گفته اند که ما در حال حرکت به سمت این فناوری هستیم نابودی بشریت در حالی که دیگران ادعا می کنند مقررات به شدت مورد نیاز است.
با این حال، با نزدیکتر شدن قانونگذاران به تنظیم فناوری، برخی از این هشدارها در مورد وجودی هستند. خطرات هوش مصنوعی توسط صداهای برجسته صنعت به عنوان حواس پرتی و دروغ.
برخی از این اظهارات به طور قابل ملاحظه ای مبهم هستند و مردم را در تلاش برای درک ادعاهای هذل آمیز فزاینده قرار داده اند.
دیوید کروگر، کارشناس هوش مصنوعی و استادیار دانشگاه کمبریج، به اینسایدر گفت که اگرچه مردم ممکن است سناریوهای مشخصی را در مورد خطر وجودی هوش مصنوعی بخواهند، اما هنوز هم اشاره کردن به این سناریوها با هیچ درجه قطعیتی دشوار است.
او گفت: “من نگران نیستم، زیرا یک تهدید قریب الوقوع وجود دارد به این معنا که می توانم دقیقاً ببینم تهدید چیست. اما فکر می کنم ما زمان زیادی برای آماده شدن برای تهدیدات احتمالی آینده نداریم.”
با در نظر گرفتن این موضوع، در اینجا برخی از مسائل بالقوه ای که کارشناسان نگران آن هستند آورده شده است.
۱٫ تصاحب هوش مصنوعی
یکی از رایج ترین خطراتی که به آن اشاره می شود این است که هوش مصنوعی از کنترل سازنده خود خارج می شود.
هوش عمومی مصنوعی (AGI) به هوش مصنوعی اطلاق میشود که در طیف گستردهای از وظایف، هوشمندتر یا باهوشتر از انسانها است. سیستمهای هوش مصنوعی فعلی حساس نیستند، اما به گونهای ساخته شدهاند که شبیه انسان باشند. Janis Wong از موسسه آلن تورینگ گفت، برای مثال، ChatGPT ساخته شده است تا به کاربران این احساس را بدهد که دارند با شخص دیگری چت می کنند.
کارشناسان در مورد چگونگی تعریف دقیق AGI اختلاف نظر دارند، اما به طور کلی موافق هستند که فناوری بالقوه خطراتی را برای بشریت ایجاد می کند که نیاز به تحقیق و تنظیم دارد. هارون موک گزارش داد.
کروگر گفت بارزترین نمونه از این خطرات رقابت نظامی بین کشورهاست. او گفت: «رقابت نظامی با سلاحهای خودمختار – سیستمهایی که از نظر طراحی میتوانند بر دنیای فیزیکی تأثیر بگذارند و آسیبرسانی کنند – واضحتر به نظر میرسد که چگونه چنین سیستمهایی میتوانند منجر به کشته شدن افراد زیادی شوند.»
او میگوید: «یک سناریوی جنگی کامل با هوش مصنوعی در آیندهای که ما سیستمهای پیشرفتهتری داریم که هوشمندتر از مردم هستند، من فکر میکنم به احتمال زیاد سیستمها از کنترل خارج میشوند و ممکن است در نتیجه همه را بکشند.» اضافه.
۲٫ هوش مصنوعی باعث بیکاری گسترده می شود
اجماع فزاینده ای وجود دارد که هوش مصنوعی تهدیدی برای برخی مشاغل است.
آبیشک گوپتا، بنیانگذار موسسه اخلاق هوش مصنوعی مونترال، گفت که چشم انداز از دست دادن شغل ناشی از هوش مصنوعی “واقعی ترین، فوری ترین و شاید مبرم ترین” تهدید وجودی است.
او به اینسایدر گفت: «ما باید به فقدان هدفی که مردم در از دست دادن شغل به طور انبوه احساس میکنند، نگاه کنیم. بخش وجودی آن این است که مردم قرار است چه کاری انجام دهند و هدف خود را از کجا خواهند گرفت؟
او افزود: «این به این معنا نیست که کار همه چیز است، اما بخشی از زندگی ما است.
مدیران عامل شروع به پیشبرد برنامه های خود برای استفاده از هوش مصنوعی کرده اند. برای مثال، آرویند کریشنا، مدیرعامل آیبیام، اخیراً اعلام کرد که این شرکت استخدام برای نقشهایی را کند میکند. با هوش مصنوعی جایگزین شد.
گوپتا درباره آیبیام گفت: «چهار یا پنج سال پیش، هیچکس چنین اظهاراتی را نمیگفت و جدی گرفته میشد.
۳٫ تعصب هوش مصنوعی
به گفته کارشناسان، اگر سیستمهای هوش مصنوعی برای کمک به تصمیمگیریهای اجتماعی گستردهتر استفاده شوند، سوگیری سیستماتیک میتواند به یک خطر جدی تبدیل شود.
قبلاً چندین نمونه از سوگیری در سیستمهای هوش مصنوعی مولد، از جمله نسخههای اولیه ChatGPT وجود داشته است. می توانید برخی از آنها را بخوانید پاسخ های تکان دهنده از چت بات اینجا. OpenAI دارد نرده های محافظ بیشتری اضافه کرد برای کمک به ChatGPT از پاسخهای مشکلساز کاربرانی که از سیستم برای محتوای توهینآمیز میخواهند اجتناب کند.
مدل های مولد تصویر هوش مصنوعی می توانند تولید کنند کلیشه های مضرطبق آزمایشاتی که اینسایدر در اوایل سال جاری انجام داد.
گوپتا گفت، اگر مواردی از سوگیری شناسایی نشده در سیستمهای هوش مصنوعی وجود داشته باشد که برای تصمیمگیری در دنیای واقعی استفاده میشود، برای مثال تأیید مزایای رفاهی، میتواند عواقب جدی داشته باشد.
به گفته وونگ، دادههای آموزشی اغلب بر اساس دادههای عمدتاً زبان انگلیسی است و بودجه برای آموزش سایر مدلهای هوش مصنوعی با زبانهای مختلف محدود است.
او گفت: «بنابراین افراد زیادی هستند که کنار گذاشته شدهاند یا زبانهای خاصی نسبت به سایر زبانها نیز کمتر آموزش خواهند دید.
برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.
در ادامه بخوانید
تماشا کنید: الکسیس اوهانیان، یکی از بنیانگذاران Reddit، نگران دیدگاه ایلان ماسک از رباتهایی شبیه به «ترمیناتور» نیست که بشریت را تحت کنترل خود درآورند.
ChatGPT
هوش مصنوعی مولد
منبع: https://www.businessinsider.com/ai-biggest-fears-risk-threat-chatgpt-openai-google-2023-6