پرسش و پاسخ: مشاور هوش مصنوعی کاخ سفید می‌گوید ایالات متحده در حال «تقویت» به فناوری است، زیرا فرمان اجرایی جدید بایدن شفاف‌سازی را برای بزرگترین مدل‌های هوش مصنوعی در جهان می‌طلبد.

بایدن

رئیس جمهور جو بایدن

AP Photo/Alex Brandon



  • رئیس جمهور بایدن به تازگی یک فرمان اجرایی در مورد توسعه و استفاده از فناوری هوش مصنوعی امضا کرد.
  • این نیاز به سطح جدیدی از شفافیت از شرکت‌های توسعه‌دهنده هوش مصنوعی دارد، اما محدودیت‌هایی دارد.
  • بن بوکانان، مشاور کاخ سفید به اینسایدر گفت: «تکنولوژی شروع خوبی داشت.
تبلیغات

تبلیغات

این پرسش و پاسخ بر اساس گفتگو با بن بوکانان، مشاور دفتر سیاست علم و فناوری کاخ سفید و دولت بایدن است.

رئیس جمهور بایدن روز دوشنبه یک فرمان اجرایی جدید امضا کرد که خواستار شفافیت بیشتر شرکت‌های فناوری بزرگ در زمینه توسعه مدل‌ها و ابزارهای هوش مصنوعی و قوانین جدید برای نحوه استفاده از این فناوری است. ممکن است خیلی کم باشد، خیلی دیر.

گسترده فرمان اجرایی بیش از ده ها کاربرد احتمالی از هوش مصنوعی و هوش مصنوعی مولد را که در حال حاضر یا می توانند در آینده مستقیماً بر زندگی مردم تأثیر بگذارند، لمس می کند. مانند زمانی که فناوری هوش مصنوعی در تصمیم گیری های شرکتی مربوط به مسکن، استخدام یا حتی زمان زندان استفاده می شود. همچنین سطح جدیدی از شفافیت را از شرکت هایی که در آن مشارکت دارند می طلبد ایجاد و توسعه ابزارهای هوش مصنوعی.

همه ی مدل های زبان بزرگ و ابزارهای هوش مصنوعی مرتبط که در سال گذشته توسط متا، گوگل، مایکروسافت، OpenAI و دیگران منتشر شدند، مشمول آزمایش ایمنی مندرج در فرمان اجرایی نیستند. آستانه اندازه آنقدر بالا است که اکثر مدل های موجود در حال حاضر معیارهای شفافیت بیشتر را که در فرمان اجرایی بایدن خواسته شده است، برآورده نمی کنند. اگرچه همه شرکت های بزرگ فناوری در اوایل امسال موافقت کرد که استانداردها را رعایت کند مسئولیت و آموزش در کار هوش مصنوعی آنها.

تبلیغات

تبلیغات

برای شرکت هایی که این آستانه را برآورده می کنند، باید دولت فدرال را از کار خود مطلع کنند و نتایج تست ایمنی را قبل از انتشار برای عموم به اشتراک بگذارند. به مؤسسه ملی استاندارد و فناوری دستور داده شده است تا «استانداردهای دقیق» را برای چنین آزمایش‌هایی تعیین کند، از جمله آزمایش امکان ابزارهای هوش مصنوعی مولد برای هدایت کاربران در ساخت سلاح‌های بیولوژیکی. به عنوان مثال، مدل Llama 2 متا است در حال حاضر قادر است همانطور که Insider گزارش داده است، به کاربر می گوید که چگونه سیاه زخم را مسلح کند.

بن بوکانن، که از سال ۲۰۲۱ در کاخ سفید بایدن کار می‌کرد و اخیراً به‌عنوان مشاور ویژه در زمینه هوش مصنوعی کار می‌کرد، به اینسایدر در گفت: «تکنولوژی کمی پیشرفت داشته است، اما من فکر می‌کنم ما خیلی سریع حرکت کردیم تا به عقب برسیم. یک مصاحبه ۸ دقیقه ای

برای مصاحبه کامل Insider با بوکان، ویرایش شده برای طولانی و وضوح، به زیر مراجعه کنید:

چند بار در آستانه این فرمان اجرایی با رهبران شرکت های بزرگ فناوری صحبت کردید؟ به عنوان مثال، شنیده‌ام که کاخ سفید با اندرو باسورث از متا اغلب، چند بار در ماه صحبت می‌کند.

تبلیغات

تبلیغات

ما با همه شرکت‌ها گفتگوهایی در سطح ارشد داشتیم، اما نه در مورد EO. ما گفتگوهای شرکتی زیادی در مورد تعهدات داوطلبانه ای داشتیم که در ماه جولای ارائه کردیم. فکر نمی‌کنم از ژوئیه، زمانی که تعهدات داوطلبانه را اجرا کردیم، کسی با اندرو باسورث به‌خصوص صحبت نکرده باشد. اما ما در آن سطح و در سطح مدیر عامل شرکت کردیم. ما از آن زمان با برخی از شرکت ها صحبت کرده ایم، اما بیشتر در مورد تعهدات داوطلبانه تا در مورد EO صحبت کرده ایم.

آیا چیزی در مورد تعهدات داوطلبانه وجود داشت، همانطور که شما روی آنها کار می کردید، که برای شرکت ها یک نقطه گیر بود، که با فشارهای زیادی مواجه شدید؟

ما رابطه مشترک خوبی داشتیم و استانداردهای بسیار بالایی برای آن داشتیم. شرکت‌ها آن را تصدیق کردند و می‌دانند که باید محصولات ایمن، مطمئن و قابل اعتماد تولید کنند. فکر می کنم به نقطه خوبی رسیدیم.

در این دستور آمده است که شرکت‌هایی که هر مدل پایه‌ای را که خطری جدی برای امنیت ملی ایجاد می‌کند توسعه می‌دهند، باید شفاف‌تر باشند و آزمایش‌های ایمنی خود را افشا کنند و غیره. آیا این بیشتر کسانی را که در حال توسعه یک LLM هستند، پوشش می دهد، یا آیا اندازه یا آستانه خاصی وجود دارد که برای ملزم شدن به انجام آن افشای نیاز است؟

تبلیغات

تبلیغات

یک آستانه وجود دارد و ما سعی کردیم برگه اطلاعات را کمی انگلیسی ساده‌تر کنیم، اما وقتی متن منتشر شد، در خود دستور اجرایی خواهید دید که این آستانه برای مدل‌هایی اعمال می‌شود که از بیش از ۱۰ تا فلاپ ۲۶ استفاده می‌کنند. آموزش.

این آستانه توسط وزارت بازرگانی قابل تنظیم است. فناوری در این فضا بسیار سریع در حال حرکت است، اما این آستانه پایه است. و اگر مدلی باشد که عمدتاً بر روی داده های توالی بیولوژیکی آموزش دیده است، آستانه پایین تری وجود دارد، زیرا خطر افزایش یافته در آن فضا وجود دارد. برای بیو ۱۰ تا ۲۳ است، اما به طور کلی، ۱۰ تا ۲۶ است.

این بزرگ است، واقعاً بزرگ است. چه اتفاقی می‌افتد وقتی شخصی، به طور فرضی، داده‌های آموزشی را به شما می‌دهد که توسط یک آژانس فدرال پرچم‌گذاری شده است؟ اونوقت پروسه چیه؟ آیا همه چیز متوقف می شود و شرکت دچار مشکل می شود؟

بسیاری از آنها هنوز در حال توسعه هستند. به بخش ها، ما در EO جهت سفر را در اینجا درج می کنیم.

تبلیغات

تبلیغات

شما می توانید تصور کنید که یک نوع اختیار قانونی وجود دارد که بسته به اینکه پرچم چیست، وارد عمل می شود. فقط به صورت فرضی، اگر یک خطر هسته ای در بازی وجود داشت، شما قانون انرژی اتمی و موارد مشابه را درگیر می کردید. بنابراین این در مورد دریافت اطلاعات صحیح و سپس ارائه مقامات مربوطه است.

شما همچنین می توانید جهانی را تصور کنید که در آن کنگره قوانینی را تصویب می کند که بر اساس آنچه ما در اینجا انجام می دهیم و یک رژیم مجوز ایجاد می کند. و بسیاری از اعضای کنگره در مورد آن صحبت کرده اند. ما در این مورد موضع نمی گیریم. اما کاری که ما در اینجا انجام می دهیم، تعیین جهت سفر برای دولت ایالات متحده است، که باید بداند که این سیستم ها قبل از راه اندازی، ایمن، ایمن و قابل اعتماد هستند.

بسیاری از دستورات دستوری است برای این نهادهای مختلف که اقدام کنند. تا کی باید این استانداردها را تعیین کنند؟

طبق مقررات قانون تولید دفاعی که افشا را مجبور می کند، ۹۰ روز است. شرکت ها در حال حاضر آزمایش های تیم قرمز زیادی را انجام می دهند. توسعه استانداردها می‌تواند کمی طولانی‌تر از آن باشد، اما برخی راهنمایی‌های موقت در مورد استانداردها در خود EO وجود دارد که تا حد زیادی منعکس‌کننده آنچه در تعهدات داوطلبانه با آن موافقت کردیم، می‌گوید اینها چیزهایی هستند که باید برای تیم قرمز انجام دهید. برای .

تبلیغات

تبلیغات

شفافیتی که درخواست می شود، آیا این فقط مدل های آینده است یا مدل های فعلی است که قبلاً عرضه شده اند؟ آیا به هیچ وجه عطف به ماسبق می شود؟

تعهدات داوطلبانه برای مدل های آینده اعمال می شود. انجام آن‌طور که می‌توانید تصور کنید سخت است، انجام آزمایش‌های تیم قرمز قبل از انتشار برای مدلی که در بازار وجود دارد، سخت است.

آیا فکر می کنید هوش مصنوعی در یک چرخه تبلیغاتی است و همه نسبت به معنای آن واکنش بیش از حد نشان می دهند؟ با توجه به تعداد مدل‌های موجود، چقدر قدرتمند هستند، و غیره، آیا تنظیم‌کننده‌های دولتی در همه جا کمی از فناوری عقب هستند؟

من در مورد تبلیغات از نظر اینکه در چه چیزی باید سرمایه‌گذاری کنید، اظهار نظر نمی‌کنم، اما فکر می‌کنم از دیدگاه دولت، ما فکر می‌کنیم فرصت‌های واقعی در اینجا وجود دارد و فکر می‌کنیم خطرات واقعی وجود دارد. اگر فکر می‌کردیم این همه در یک هفته از بین می‌رود، این اقدام جامع شتاب‌زده را انجام نمی‌دادیم. این یک اولویت برای رئیس جمهور و تیمش است.

تبلیغات

تبلیغات

از نظر پشت سر گذاشتن تکنولوژی. فن آوری کمی پیشرفت داشته است، اما من فکر می کنم که ما خیلی سریع حرکت کردیم تا به عقب برسیم.

نکته ای که من به آن اشاره می کنم این است که ما توافقی را از G7 در مورد اولین آیین نامه رفتار بین المللی در زمینه هوش مصنوعی، که بر اساس تعهدات داوطلبانه ای است که توسط هر هفت دولت در G7 امضا شده است، تضمین کردیم. ایالات متحده در همکاری با متحدان و شرکای خود کار می کند و بسیار سریع پیش می رود.

آیا از هوش مصنوعی مولد استفاده می کنی، بن؟ آیا کسی در دفتر شما از آن استفاده می کند؟

BB: طبق اطلاعات من، ما ChatGPT در سیستم‌های اینجا نداریم، اما همه ما هر روز در حین انجام زندگی روزمره از هوش مصنوعی استفاده می‌کنیم.

تبلیغات

تبلیغات

نکته یا بینشی برای به اشتراک گذاشتن دارید؟ با Kali Hays در khays@insider.com، در برنامه پیام‌رسانی ایمن Signal به شماره ۹۴۹-۲۸۰-۰۲۶۷ یا از طریق DM در X در @hayskali تماس بگیرید. با استفاده از دستگاهی که کار نمی کند تماس بگیرید.

عکس سوئیچ و لامپ

برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.

در اعلان‌های فشار مشترک شوید

در ادامه بخوانید

هوش مصنوعی
دولت بایدن
فناوری بزرگ

تبلیغات


نماد بستن دو خط متقاطع که “X” را تشکیل می دهند. راهی برای بستن یک تعامل یا رد کردن یک اعلان را نشان می دهد.



منبع: https://www.businessinsider.com/white-house-advisor-catching-up-on-ai-biden-executive-order-2023-10

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *