به دنبال رئیس جمهور بایدن فرمان اجرایی روز دوشنبه، شرکتهای هوش مصنوعی و رهبران صنعت بر روی این نقطه عطف در مقررات هوش مصنوعی سنجیدهاند. اما بزرگترین بازیکن در فضای هوش مصنوعی، OpenAI، به طرز آشکاری ساکت بوده است.
دستور اجرایی گسترده دولت بایدن هریس برای رسیدگی به خطرات هوش مصنوعی مبتنی بر تعهدات داوطلبانه توسط ۱۵ شرکت پیشرو هوش مصنوعی تضمین شده است. OpenAI از جمله بود اولین دسته از شرکت ها به کاخ سفید قول توسعه ایمن، مطمئن و قابل اعتماد ابزارهای هوش مصنوعی خود را بدهد. با این حال این شرکت هیچ بیانیه ای در وب سایت یا X (که قبلاً توییتر نامیده می شد) منتشر نکرده است. مدیر عامل شرکت سم آلتمن، که به طور مرتب اخبار OpenAI را در X به اشتراک می گذارد، نیز چیزی پست نکرده است.
OpenAI به درخواست Mashable برای اظهار نظر پاسخ نداده است.
از ۱۵ شرکتی که به طور داوطلبانه به دولت بایدن تعهد داده اند، موارد زیر بیانیه های عمومی داده اند و همه آنها از فرمان اجرایی حمایت کرده اند: Adobe، Amazon، Anthropic، گوگلآی بی ام، مایکروسافت، Salesforce و Scale AI. انویدیا از اظهار نظر خودداری کرد.
علاوه بر کریکتهای OpenAI، Mashable هنوز از Cohere، Inflection، Meta، Palantir و Stability AI چیزی نشنیده است. اما تور تبلیغاتی OpenAI و Altman که خطرات فوری هوش مصنوعی و نیاز به مقررات را اعلام می کند، سکوت شرکت را بیش از پیش محسوس می کند.
ممکن است توییت حذف شده باشد
ممکن است توییت حذف شده باشد
آلتمن بوده است آوازی در مورد تهدیدی که هوش مصنوعی تولید شده توسط شرکت خودش ایجاد می کند. در ماه می، آلتمن به همراه پیشگامان فناوری جفری هینتون و بیل گیتس قراردادی را امضا کردند نامه ی سرگشاده وی تصریح کرد: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
در یک جلسه استماع سنا در ماه می، آلتمن بیان کرد نیاز به مقررات هوش مصنوعیآلتمن در پاسخ به سؤالی از سناتور بلومنتال، D-CT در مورد تهدید هوش ماشینی فوق بشری، گفت: «من فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه پیش برود، و ما میخواهیم در این مورد صحبت کنیم.
ممکن است توییت حذف شده باشد
تاکنون همکاری با قانونگذاران و رهبران جهان به نفع OpenAI بوده است. آلتمن در نشست سران هوش مصنوعی دوحزبی دو حزبی در سنا شرکت کرد و به OpenAI برای تدوین قوانین هوش مصنوعی یک صندلی در میز داد. مدت کوتاهی پس از شهادت آلتمن، اسناد لو رفته از OpenAI این شرکت را نشان داد لابی برای مقررات ضعیف تر در اتحادیه اروپا
مشخص نیست که OpenAI در دستور اجرایی کجا قرار دارد، اما طرفداران منبع باز می گویند که این شرکت در حال حاضر نفوذ بیش از حد لابی دارد. روز چهارشنبه، همان روز با اجلاس ایمنی هوش مصنوعی در بریتانیا، بیش از ۷۰ رهبر هوش مصنوعی یک نامه صادر کردند. بیانیه مشترک خواستار رویکردی شفاف تر برای مقررات هوش مصنوعی است. در بیانیه آمده است: «این ایده که کنترل دقیق و اختصاصی مدلهای پایه هوش مصنوعی تنها راه محافظت از ما در برابر آسیبهای اجتماعی است، در بهترین حالت سادهلوحانه و در بدترین حالت خطرناک است».
یان لکون، دانشمند ارشد هوش مصنوعی متا، یکی از امضاکنندگان، این احساس را در X (که قبلاً توییتر نامیده می شد) توسط صدا زدن OpenAI، DeepMind (یکی از زیرمجموعه های گوگل) و Anthropic برای استفاده از ایجاد ترس برای اطمینان از نتایج مطلوب. “[Sam] آلتمن، [Demis] حسابیس و [Dario] Amodei کسانی هستند که در حال حاضر لابی های شرکتی گسترده ای را انجام می دهند. آنها کسانی هستند که تلاش می کنند صنعت هوش مصنوعی را تحت کنترل درآورند.”
ممکن است توییت حذف شده باشد
آنتروپیک و گوگل رهبری هر دو بیانیههایی در حمایت از فرمان اجرایی ارائه کردهاند، و OpenAI تنها شرکتی است که متهم به دستگیری نظارتی است، هنوز هیچ نظری صادر نکرده است.
فرمان اجرایی برای OpenAI چه معنایی می تواند داشته باشد؟
بسیاری از مفاد تست در EO مربوط به مدلهای بنیادی عظیمی است که هنوز در بازار وجود ندارد و سیستمهای هوش مصنوعی در آینده توسعه نمییابند، که نشان میدهد ابزارهای مصرفکننده مانند ChatGPT OpenAI تأثیر زیادی نخواهد داشت.
جیک ویلیامز، هکر سابق آژانس امنیت ملی آمریکا (NSA) و عضو هیأت علمی در این باره گفت: «فکر نمیکنم ما شاهد تغییرات فوری در هیچ یک از ابزارهای هوش مصنوعی در دسترس مصرفکنندگان باشیم. تحقیقات IANS. OpenAI، Google و دیگران قطعاً در حال آموزش مدلهای پایه هستند و اگر ممکن است بر امنیت ملی تأثیر بگذارند، به طور خاص در EO نامیده میشوند.
بنابراین، هر چیزی که OpenAI روی آن کار می کند ممکن است تحت آزمایش دولتی قرار گیرد.
بث سیمون نوک، مدیر بخش، در مورد اینکه چگونه دستور اجرایی ممکن است مستقیماً بر OpenAI تأثیر بگذارد مرکز تغییرات اجتماعی برنز، گفت که میتواند سرعت انتشار محصولات و بهروزرسانیهای جدید را کاهش دهد و شرکتها باید بیشتر در تحقیق و توسعه و مطابقت سرمایهگذاری کنند.
Noveck گفت: «شرکتهایی که مدلهای زبانی در مقیاس بزرگ را توسعه میدهند (مانند ChatGPT، Bard و شرکتهایی که بر روی میلیاردها پارامتر داده آموزش دیدهاند) ملزم به ارائه اطلاعات مداوم به دولت فدرال، از جمله جزئیات نحوه آزمایش پلتفرمهای خود هستند. که قبلاً به عنوان اولین معاون مدیر فناوری ایالات متحده در زمان پرزیدنت اوباما خدمت می کرد.
بیش از هر چیز، فرمان اجرایی نشان دهنده همسویی با انتظارات رو به رشد مصرف کنندگان برای کنترل بیشتر و حفاظت از داده های شخصی آنهاست. آوانی دساییمدیرعامل Schellman، یک شرکت برتر CPA که در ممیزی فناوری اطلاعات و امنیت سایبری تخصص دارد.
دسای گفت: «این یک پیروزی بزرگ برای حامیان حریم خصوصی است زیرا اقدامات شفافیت و حفظ حریم خصوصی دادهها میتواند اعتماد کاربران را به محصولات و خدمات مبتنی بر هوش مصنوعی افزایش دهد.»
بنابراین اگرچه عواقب فرمان اجرایی ممکن است فوری نباشد، اما کاملاً در مورد ابزارها و شیوههای OpenAI اعمال میشود. ممکن است فکر کنید OpenAI ممکن است در این مورد چیزی برای گفتن داشته باشد.
موضوعات
هوش مصنوعی
OpenAI
منبع: https://mashable.com/article/openai-response-ai-executive-order-silence