منتقدان می گویند اولین قرارداد ایمنی هوش مصنوعی در جهان، دستور کار تعیین شده در سیلیکون ولی را فاش می کند

منتقدان می گویند اولین قرارداد ایمنی هوش مصنوعی در جهان، دستور کار تعیین شده در سیلیکون ولی را فاش می کند

به گفته منتقدان، اولین اعلامیه جهانی در مورد هوش مصنوعی که روز چهارشنبه مورد توافق قرار گرفت، تأثیر واقعی نخواهد داشت و توسط فناوری های بزرگ دستکاری شده است.

این بیانیه توسط ۲۸ کشور – و اتحادیه اروپا – که مجموعاً شش قاره را پوشش می دهند، امضا کردند. آنها از پیمان خود در بریتانیا رونمایی کردند اجلاس ایمنی هوش مصنوعی در پارک بلچلی، جایی که رمز شکن ها ماشین انیگما آلمان نازی را در طول جنگ جهانی دوم شکستند.

قرارداد جدید نام خود را از سایت گرفته است. این بیانیه که به عنوان “اعلامیه بلچلی” شناخته می شود، درک مشترکی از خطرات و فرصت های هوش مصنوعی ایجاد می کند.

در این بیانیه آمده است: «بسیاری از خطرات ناشی از هوش مصنوعی ذاتاً بین‌المللی هستند و از این رو به بهترین وجه از طریق همکاری بین‌المللی برطرف می‌شوند».

این بیانیه همچنین خواستار اقدام بین المللی در مورد “هوش مصنوعی مرزی” شده است. هوش مصنوعی مرزی یک کلمه کلیدی محبوب در اجلاس سران است که شامل مدل های پیشرفته و همه منظوره مانند ChatGPT OpenAI است. به گفته دولت بریتانیا، اینها سیستم هایی هستند که خطرناک ترین و فوری ترین خطرات را به همراه دارند.

امضاکنندگان این بیانیه موافقت کردند که “خطرات اساسی” ممکن است از مرز ناشی شود هوش مصنوعی. آنها هشدار دادند که در برخی موارد، هوش مصنوعی مرزی ممکن است “آسیب جدی، حتی فاجعه بار، عمدی یا غیرعمدی” ایجاد کند. اما منتقدان استدلال می‌کنند که چنین ترس‌هایی عمداً بیش از حد از بین رفته‌اند.

لوئیس لیو، مدیر عامل یادگیری ماشین استارت آپ Eigen Technologies یکی از پر سر و صداترین منتقدان است. او گفت که هشدار آخرالزمانی “بیش از حد تحت تاثیر یک تحلیل عمیقاً ناقص و دستور کار تنظیم شده توسط آن شرکت های بزرگ فناوری است که به دنبال تسلط بر روند سیاست گذاری هستند.”

«این نوع عذاب‌آوری تکراری است OpenAI و همتایانش که از تأثیرگذارترین لابی‌گران شرکتی در آستانه اجلاس سران بوده‌اند.»

در جامعه استارت‌آپ‌ها ترس واقعی وجود دارد که این انجمنی باشد که در آن فناوری‌های بزرگ کنترل فرمان را در دست می‌گیرند، تا سعی کنند سیستم‌های هوش مصنوعی منبع باز را از بین ببرند، شرایط بحث را تعیین کنند، و در انجام این کار، سیستم‌های هوش مصنوعی را متوقف کنند. “رقابت.”

تمرکز بر هوش مصنوعی مرزی نیز باعث خشم محققان شده است. ساندرا واچر، استاد فناوری و مقررات در دانشگاه آکسفورد، استدلال می‌کند که اتوماسیون شغلی، تبعیض و اثرات زیست محیطی نگرانی‌های فوری‌تری هستند.

متأسفانه، این خارج از محدوده این اجلاس است و تمرکز اصلی بر روی “خطر از دست دادن کنترل” هوش مصنوعی است، به این معنا که هوش مصنوعی یک “اراده خود” را توسعه می دهد و خطری “وجودی” برای بشریت ایجاد می کند. او گفت.

با این حال، هیچ مدرک علمی وجود ندارد که نشان دهد ما در چنین مسیری هستیم، یا حتی چنین مسیری وجود دارد.

سبک بیش از ماده؟

در حالی که این اعلامیه هشدارهای جسورانه می دهد، اما در جزئیات بسیار سبک است. آنچه قابل توجه تر است ائتلاف کشورهایی است که از این پیمان حمایت کرده اند.

امضاکنندگان شامل ایالات متحده و چین هستند که توافقی نادر در صحنه جهانی امضا کردند.

در نمایش وحدت بیشتر، جینا ریموندو، وزیر بازرگانی ایالات متحده، و وو ژائوهوی، معاون وزیر علوم و فناوری چین، در یک جلسه کنار هم روی صحنه نشستند، جایی که هر یک از آنها در مورد هوش مصنوعی سخنرانی کردند.

با این حال، همکاری آنها در عمل بسیار محدود خواهد بود. این بیانیه خواستار «همکاری بین‌المللی» و «گفت‌وگوی فراگیر جهانی» است، اما هیچ قانون، نقشه راه یا اصول اخلاقی خاصی پیشنهاد نمی‌کند.

مارتا بنت، معاون تحلیلگر اصلی در شرکت مشاوره تجاری Forrester، گفت: «این اعلامیه هیچ تأثیر واقعی بر نحوه تنظیم هوش مصنوعی نخواهد داشت.

بنت خاطرنشان می کند که در حال حاضر سیاست های مختلفی وجود دارد که حاوی مواد بسیار بیشتری است. از جمله آنها می توان به قانون هوش مصنوعی اتحادیه اروپا، فرمان اجرایی کاخ سفید در مورد هوش مصنوعی، و “کدهای رفتار بین المللی” G7 برای هوش مصنوعی اشاره کرد.

بنت افزود: «به‌علاوه، کشورها و نهادهای نمایندگی‌شده در اجلاس هوش مصنوعی با متن بیانیه بلچلی اگر حاوی جزئیات معناداری در مورد نحوه تنظیم هوش مصنوعی باشد، موافقت نمی‌کنند».

بنت علیرغم تردیدهایش در مورد تأثیرات دنیای واقعی، معتقد است که این توافق می تواند هدف مفیدی داشته باشد.

«اجلاس سران و بیانیه بلچلی بیشتر در مورد آن هستند [sending] سیگنال‌ها و نشان دادن تمایل به همکاری، و این مهم است.» او گفت: «ما باید منتظر بمانیم و ببینیم که آیا نیت خوب با اقدام معنادار دنبال می‌شود یا خیر.

شاید مجبور نباشیم زیاد صبر کنیم. در جریان رویداد بلچلی پارک، اعلام شد که کره جنوبی میزبان دومین اجلاس سران در شش ماه دیگر خواهد بود. سپس یکی دیگر در فرانسه برگزار خواهد شد. با این حال، همانطور که اوضاع پیش می‌آید، به نظر می‌رسد قوانین داخلی مانع هر گونه معامله مهم بین‌المللی می‌شود.


منبع: https://thenextweb.com/news/ai-safety-summit-bletchley-declaration-concerns

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *