پاسخ OpenAI به دستور اجرایی هوش مصنوعی؟ سکوت

به دنبال رئیس جمهور بایدن فرمان اجرایی روز دوشنبه، شرکت‌های هوش مصنوعی و رهبران صنعت بر روی این نقطه عطف در مقررات هوش مصنوعی سنجیده‌اند. اما بزرگترین بازیکن در فضای هوش مصنوعی، OpenAI، به طرز آشکاری ساکت بوده است.

دستور اجرایی گسترده دولت بایدن هریس برای رسیدگی به خطرات هوش مصنوعی مبتنی بر تعهدات داوطلبانه توسط ۱۵ شرکت پیشرو هوش مصنوعی تضمین شده است. OpenAI از جمله بود اولین دسته از شرکت ها به کاخ سفید قول توسعه ایمن، مطمئن و قابل اعتماد ابزارهای هوش مصنوعی خود را بدهد. با این حال این شرکت هیچ بیانیه ای در وب سایت یا X (که قبلاً توییتر نامیده می شد) منتشر نکرده است. مدیر عامل شرکت سم آلتمن، که به طور مرتب اخبار OpenAI را در X به اشتراک می گذارد، نیز چیزی پست نکرده است.

OpenAI به درخواست Mashable برای اظهار نظر پاسخ نداده است.

از ۱۵ شرکتی که به طور داوطلبانه به دولت بایدن تعهد داده اند، موارد زیر بیانیه های عمومی داده اند و همه آنها از فرمان اجرایی حمایت کرده اند: Adobe، Amazon، Anthropic، گوگلآی بی ام، مایکروسافت، Salesforce و Scale AI. انویدیا از اظهار نظر خودداری کرد.

علاوه بر کریکت‌های OpenAI، Mashable هنوز از Cohere، Inflection، Meta، Palantir و Stability AI چیزی نشنیده است. اما تور تبلیغاتی OpenAI و Altman که خطرات فوری هوش مصنوعی و نیاز به مقررات را اعلام می کند، سکوت شرکت را بیش از پیش محسوس می کند.

آلتمن بوده است آوازی در مورد تهدیدی که هوش مصنوعی تولید شده توسط شرکت خودش ایجاد می کند. در ماه می، آلتمن به همراه پیشگامان فناوری جفری هینتون و بیل گیتس قراردادی را امضا کردند نامه ی سرگشاده وی تصریح کرد: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.

در یک جلسه استماع سنا در ماه می، آلتمن بیان کرد نیاز به مقررات هوش مصنوعیآلتمن در پاسخ به سؤالی از سناتور بلومنتال، D-CT در مورد تهدید هوش ماشینی فوق بشری، گفت: «من فکر می‌کنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه پیش برود، و ما می‌خواهیم در این مورد صحبت کنیم.

تاکنون همکاری با قانونگذاران و رهبران جهان به نفع OpenAI بوده است. آلتمن در نشست سران هوش مصنوعی دوحزبی دو حزبی در سنا شرکت کرد و به OpenAI برای تدوین قوانین هوش مصنوعی یک صندلی در میز داد. مدت کوتاهی پس از شهادت آلتمن، اسناد لو رفته از OpenAI این شرکت را نشان داد لابی برای مقررات ضعیف تر در اتحادیه اروپا

مشخص نیست که OpenAI در دستور اجرایی کجا قرار دارد، اما طرفداران منبع باز می گویند که این شرکت در حال حاضر نفوذ بیش از حد لابی دارد. روز چهارشنبه، همان روز با اجلاس ایمنی هوش مصنوعی در بریتانیا، بیش از ۷۰ رهبر هوش مصنوعی یک نامه صادر کردند. بیانیه مشترک خواستار رویکردی شفاف تر برای مقررات هوش مصنوعی است. در بیانیه آمده است: «این ایده که کنترل دقیق و اختصاصی مدل‌های پایه هوش مصنوعی تنها راه محافظت از ما در برابر آسیب‌های اجتماعی است، در بهترین حالت ساده‌لوحانه و در بدترین حالت خطرناک است».

یان لکون، دانشمند ارشد هوش مصنوعی متا، یکی از امضاکنندگان، این احساس را در X (که قبلاً توییتر نامیده می شد) توسط صدا زدن OpenAI، DeepMind (یکی از زیرمجموعه های گوگل) و Anthropic برای استفاده از ایجاد ترس برای اطمینان از نتایج مطلوب. “[Sam] آلتمن، [Demis] حسابیس و [Dario] Amodei کسانی هستند که در حال حاضر لابی های شرکتی گسترده ای را انجام می دهند. آنها کسانی هستند که تلاش می کنند صنعت هوش مصنوعی را تحت کنترل درآورند.”

آنتروپیک و گوگل رهبری هر دو بیانیه‌هایی در حمایت از فرمان اجرایی ارائه کرده‌اند، و OpenAI تنها شرکتی است که متهم به دستگیری نظارتی است، هنوز هیچ نظری صادر نکرده است.

فرمان اجرایی برای OpenAI چه معنایی می تواند داشته باشد؟

بسیاری از مفاد تست در EO مربوط به مدل‌های بنیادی عظیمی است که هنوز در بازار وجود ندارد و سیستم‌های هوش مصنوعی در آینده توسعه نمی‌یابند، که نشان می‌دهد ابزارهای مصرف‌کننده مانند ChatGPT OpenAI تأثیر زیادی نخواهد داشت.

جیک ویلیامز، هکر سابق آژانس امنیت ملی آمریکا (NSA) و عضو هیأت علمی در این باره گفت: «فکر نمی‌کنم ما شاهد تغییرات فوری در هیچ یک از ابزارهای هوش مصنوعی در دسترس مصرف‌کنندگان باشیم. تحقیقات IANS. OpenAI، Google و دیگران قطعاً در حال آموزش مدل‌های پایه هستند و اگر ممکن است بر امنیت ملی تأثیر بگذارند، به طور خاص در EO نامیده می‌شوند.

بنابراین، هر چیزی که OpenAI روی آن کار می کند ممکن است تحت آزمایش دولتی قرار گیرد.

بث سیمون نوک، مدیر بخش، در مورد اینکه چگونه دستور اجرایی ممکن است مستقیماً بر OpenAI تأثیر بگذارد مرکز تغییرات اجتماعی برنز، گفت که می‌تواند سرعت انتشار محصولات و به‌روزرسانی‌های جدید را کاهش دهد و شرکت‌ها باید بیشتر در تحقیق و توسعه و مطابقت سرمایه‌گذاری کنند.

Noveck گفت: «شرکت‌هایی که مدل‌های زبانی در مقیاس بزرگ را توسعه می‌دهند (مانند ChatGPT، Bard و شرکت‌هایی که بر روی میلیاردها پارامتر داده آموزش دیده‌اند) ملزم به ارائه اطلاعات مداوم به دولت فدرال، از جمله جزئیات نحوه آزمایش پلت‌فرم‌های خود هستند. که قبلاً به عنوان اولین معاون مدیر فناوری ایالات متحده در زمان پرزیدنت اوباما خدمت می کرد.

بیش از هر چیز، فرمان اجرایی نشان دهنده همسویی با انتظارات رو به رشد مصرف کنندگان برای کنترل بیشتر و حفاظت از داده های شخصی آنهاست. آوانی دساییمدیرعامل Schellman، یک شرکت برتر CPA که در ممیزی فناوری اطلاعات و امنیت سایبری تخصص دارد.

دسای گفت: «این یک پیروزی بزرگ برای حامیان حریم خصوصی است زیرا اقدامات شفافیت و حفظ حریم خصوصی داده‌ها می‌تواند اعتماد کاربران را به محصولات و خدمات مبتنی بر هوش مصنوعی افزایش دهد.»

بنابراین اگرچه عواقب فرمان اجرایی ممکن است فوری نباشد، اما کاملاً در مورد ابزارها و شیوه‌های OpenAI اعمال می‌شود. ممکن است فکر کنید OpenAI ممکن است در این مورد چیزی برای گفتن داشته باشد.

موضوعات
هوش مصنوعی
OpenAI


منبع: https://mashable.com/article/openai-response-ai-executive-order-silence

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *