- رئیس جمهور بایدن به تازگی یک فرمان اجرایی در مورد توسعه و استفاده از فناوری هوش مصنوعی امضا کرد.
- این نیاز به سطح جدیدی از شفافیت از شرکتهای توسعهدهنده هوش مصنوعی دارد، اما محدودیتهایی دارد.
- بن بوکانان، مشاور کاخ سفید به اینسایدر گفت: «تکنولوژی شروع خوبی داشت.
این پرسش و پاسخ بر اساس گفتگو با بن بوکانان، مشاور دفتر سیاست علم و فناوری کاخ سفید و دولت بایدن است.
رئیس جمهور بایدن روز دوشنبه یک فرمان اجرایی جدید امضا کرد که خواستار شفافیت بیشتر شرکتهای فناوری بزرگ در زمینه توسعه مدلها و ابزارهای هوش مصنوعی و قوانین جدید برای نحوه استفاده از این فناوری است. ممکن است خیلی کم باشد، خیلی دیر.
گسترده فرمان اجرایی بیش از ده ها کاربرد احتمالی از هوش مصنوعی و هوش مصنوعی مولد را که در حال حاضر یا می توانند در آینده مستقیماً بر زندگی مردم تأثیر بگذارند، لمس می کند. مانند زمانی که فناوری هوش مصنوعی در تصمیم گیری های شرکتی مربوط به مسکن، استخدام یا حتی زمان زندان استفاده می شود. همچنین سطح جدیدی از شفافیت را از شرکت هایی که در آن مشارکت دارند می طلبد ایجاد و توسعه ابزارهای هوش مصنوعی.
همه ی مدل های زبان بزرگ و ابزارهای هوش مصنوعی مرتبط که در سال گذشته توسط متا، گوگل، مایکروسافت، OpenAI و دیگران منتشر شدند، مشمول آزمایش ایمنی مندرج در فرمان اجرایی نیستند. آستانه اندازه آنقدر بالا است که اکثر مدل های موجود در حال حاضر معیارهای شفافیت بیشتر را که در فرمان اجرایی بایدن خواسته شده است، برآورده نمی کنند. اگرچه همه شرکت های بزرگ فناوری در اوایل امسال موافقت کرد که استانداردها را رعایت کند مسئولیت و آموزش در کار هوش مصنوعی آنها.
برای شرکت هایی که این آستانه را برآورده می کنند، باید دولت فدرال را از کار خود مطلع کنند و نتایج تست ایمنی را قبل از انتشار برای عموم به اشتراک بگذارند. به مؤسسه ملی استاندارد و فناوری دستور داده شده است تا «استانداردهای دقیق» را برای چنین آزمایشهایی تعیین کند، از جمله آزمایش امکان ابزارهای هوش مصنوعی مولد برای هدایت کاربران در ساخت سلاحهای بیولوژیکی. به عنوان مثال، مدل Llama 2 متا است در حال حاضر قادر است همانطور که Insider گزارش داده است، به کاربر می گوید که چگونه سیاه زخم را مسلح کند.
بن بوکانن، که از سال ۲۰۲۱ در کاخ سفید بایدن کار میکرد و اخیراً بهعنوان مشاور ویژه در زمینه هوش مصنوعی کار میکرد، به اینسایدر در گفت: «تکنولوژی کمی پیشرفت داشته است، اما من فکر میکنم ما خیلی سریع حرکت کردیم تا به عقب برسیم. یک مصاحبه ۸ دقیقه ای
برای مصاحبه کامل Insider با بوکان، ویرایش شده برای طولانی و وضوح، به زیر مراجعه کنید:
چند بار در آستانه این فرمان اجرایی با رهبران شرکت های بزرگ فناوری صحبت کردید؟ به عنوان مثال، شنیدهام که کاخ سفید با اندرو باسورث از متا اغلب، چند بار در ماه صحبت میکند.
ما با همه شرکتها گفتگوهایی در سطح ارشد داشتیم، اما نه در مورد EO. ما گفتگوهای شرکتی زیادی در مورد تعهدات داوطلبانه ای داشتیم که در ماه جولای ارائه کردیم. فکر نمیکنم از ژوئیه، زمانی که تعهدات داوطلبانه را اجرا کردیم، کسی با اندرو باسورث بهخصوص صحبت نکرده باشد. اما ما در آن سطح و در سطح مدیر عامل شرکت کردیم. ما از آن زمان با برخی از شرکت ها صحبت کرده ایم، اما بیشتر در مورد تعهدات داوطلبانه تا در مورد EO صحبت کرده ایم.
آیا چیزی در مورد تعهدات داوطلبانه وجود داشت، همانطور که شما روی آنها کار می کردید، که برای شرکت ها یک نقطه گیر بود، که با فشارهای زیادی مواجه شدید؟
ما رابطه مشترک خوبی داشتیم و استانداردهای بسیار بالایی برای آن داشتیم. شرکتها آن را تصدیق کردند و میدانند که باید محصولات ایمن، مطمئن و قابل اعتماد تولید کنند. فکر می کنم به نقطه خوبی رسیدیم.
در این دستور آمده است که شرکتهایی که هر مدل پایهای را که خطری جدی برای امنیت ملی ایجاد میکند توسعه میدهند، باید شفافتر باشند و آزمایشهای ایمنی خود را افشا کنند و غیره. آیا این بیشتر کسانی را که در حال توسعه یک LLM هستند، پوشش می دهد، یا آیا اندازه یا آستانه خاصی وجود دارد که برای ملزم شدن به انجام آن افشای نیاز است؟
یک آستانه وجود دارد و ما سعی کردیم برگه اطلاعات را کمی انگلیسی سادهتر کنیم، اما وقتی متن منتشر شد، در خود دستور اجرایی خواهید دید که این آستانه برای مدلهایی اعمال میشود که از بیش از ۱۰ تا فلاپ ۲۶ استفاده میکنند. آموزش.
این آستانه توسط وزارت بازرگانی قابل تنظیم است. فناوری در این فضا بسیار سریع در حال حرکت است، اما این آستانه پایه است. و اگر مدلی باشد که عمدتاً بر روی داده های توالی بیولوژیکی آموزش دیده است، آستانه پایین تری وجود دارد، زیرا خطر افزایش یافته در آن فضا وجود دارد. برای بیو ۱۰ تا ۲۳ است، اما به طور کلی، ۱۰ تا ۲۶ است.
این بزرگ است، واقعاً بزرگ است. چه اتفاقی میافتد وقتی شخصی، به طور فرضی، دادههای آموزشی را به شما میدهد که توسط یک آژانس فدرال پرچمگذاری شده است؟ اونوقت پروسه چیه؟ آیا همه چیز متوقف می شود و شرکت دچار مشکل می شود؟
بسیاری از آنها هنوز در حال توسعه هستند. به بخش ها، ما در EO جهت سفر را در اینجا درج می کنیم.
شما می توانید تصور کنید که یک نوع اختیار قانونی وجود دارد که بسته به اینکه پرچم چیست، وارد عمل می شود. فقط به صورت فرضی، اگر یک خطر هسته ای در بازی وجود داشت، شما قانون انرژی اتمی و موارد مشابه را درگیر می کردید. بنابراین این در مورد دریافت اطلاعات صحیح و سپس ارائه مقامات مربوطه است.
شما همچنین می توانید جهانی را تصور کنید که در آن کنگره قوانینی را تصویب می کند که بر اساس آنچه ما در اینجا انجام می دهیم و یک رژیم مجوز ایجاد می کند. و بسیاری از اعضای کنگره در مورد آن صحبت کرده اند. ما در این مورد موضع نمی گیریم. اما کاری که ما در اینجا انجام می دهیم، تعیین جهت سفر برای دولت ایالات متحده است، که باید بداند که این سیستم ها قبل از راه اندازی، ایمن، ایمن و قابل اعتماد هستند.
بسیاری از دستورات دستوری است برای این نهادهای مختلف که اقدام کنند. تا کی باید این استانداردها را تعیین کنند؟
طبق مقررات قانون تولید دفاعی که افشا را مجبور می کند، ۹۰ روز است. شرکت ها در حال حاضر آزمایش های تیم قرمز زیادی را انجام می دهند. توسعه استانداردها میتواند کمی طولانیتر از آن باشد، اما برخی راهنماییهای موقت در مورد استانداردها در خود EO وجود دارد که تا حد زیادی منعکسکننده آنچه در تعهدات داوطلبانه با آن موافقت کردیم، میگوید اینها چیزهایی هستند که باید برای تیم قرمز انجام دهید. برای .
شفافیتی که درخواست می شود، آیا این فقط مدل های آینده است یا مدل های فعلی است که قبلاً عرضه شده اند؟ آیا به هیچ وجه عطف به ماسبق می شود؟
تعهدات داوطلبانه برای مدل های آینده اعمال می شود. انجام آنطور که میتوانید تصور کنید سخت است، انجام آزمایشهای تیم قرمز قبل از انتشار برای مدلی که در بازار وجود دارد، سخت است.
آیا فکر می کنید هوش مصنوعی در یک چرخه تبلیغاتی است و همه نسبت به معنای آن واکنش بیش از حد نشان می دهند؟ با توجه به تعداد مدلهای موجود، چقدر قدرتمند هستند، و غیره، آیا تنظیمکنندههای دولتی در همه جا کمی از فناوری عقب هستند؟
من در مورد تبلیغات از نظر اینکه در چه چیزی باید سرمایهگذاری کنید، اظهار نظر نمیکنم، اما فکر میکنم از دیدگاه دولت، ما فکر میکنیم فرصتهای واقعی در اینجا وجود دارد و فکر میکنیم خطرات واقعی وجود دارد. اگر فکر میکردیم این همه در یک هفته از بین میرود، این اقدام جامع شتابزده را انجام نمیدادیم. این یک اولویت برای رئیس جمهور و تیمش است.
از نظر پشت سر گذاشتن تکنولوژی. فن آوری کمی پیشرفت داشته است، اما من فکر می کنم که ما خیلی سریع حرکت کردیم تا به عقب برسیم.
نکته ای که من به آن اشاره می کنم این است که ما توافقی را از G7 در مورد اولین آیین نامه رفتار بین المللی در زمینه هوش مصنوعی، که بر اساس تعهدات داوطلبانه ای است که توسط هر هفت دولت در G7 امضا شده است، تضمین کردیم. ایالات متحده در همکاری با متحدان و شرکای خود کار می کند و بسیار سریع پیش می رود.
آیا از هوش مصنوعی مولد استفاده می کنی، بن؟ آیا کسی در دفتر شما از آن استفاده می کند؟
BB: طبق اطلاعات من، ما ChatGPT در سیستمهای اینجا نداریم، اما همه ما هر روز در حین انجام زندگی روزمره از هوش مصنوعی استفاده میکنیم.
نکته یا بینشی برای به اشتراک گذاشتن دارید؟ با Kali Hays در khays@insider.com، در برنامه پیامرسانی ایمن Signal به شماره ۹۴۹-۲۸۰-۰۲۶۷ یا از طریق DM در X در @hayskali تماس بگیرید. با استفاده از دستگاهی که کار نمی کند تماس بگیرید.
برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.
در ادامه بخوانید
تماشا کنید: جف بزوس در مورد نظارت بر شرکت های غول پیکر فناوری: “انتظار دارم ما را مورد بررسی قرار دهند”
دولت بایدن
فناوری بزرگ
منبع: https://www.businessinsider.com/white-house-advisor-catching-up-on-ai-biden-executive-order-2023-10