Anthropic با تحقیقات جدید متهم به تعصب و تبعیض هوش مصنوعی است

Anthropic با تحقیقات جدید متهم به تعصب و تبعیض هوش مصنوعی است

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


به عنوان هوش مصنوعی تقریباً در همه جنبه ها نفوذ می کند از زندگی مدرن، محققان در استارت آپ ها مانند آنتروپیک در حال کار برای جلوگیری از آسیب هایی مانند تعصب و تبعیض قبل از استقرار سیستم های جدید هوش مصنوعی هستند.

اکنون، در یک مطالعه مهم دیگر که توسط Anthropic منتشر شده است، محققان این شرکت آخرین یافته‌های خود را در مورد تعصب هوش مصنوعی در مقاله‌ای با عنوان: ارزیابی و کاهش تبعیض در تصمیم گیری های مدل زبانی” مقاله تازه منتشر شده پیش داوری های ظریفی را که در تصمیم گیری های سیستم های هوش مصنوعی ریشه دوانده است، آشکار می کند.

این مقاله نه تنها این سوگیری ها را آشکار می کند، بلکه یک استراتژی جامع برای ایجاد برنامه های کاربردی هوش مصنوعی که منصفانه تر و منصفانه تر هستند، پیشنهاد می کند. انتشار این مطالعه در پی تحقیقات قبلی انجام شده توسط این شرکت در مورد پتانسیل انجام شده استخطرات فاجعه بار«هوش مصنوعی و ایجاد الف چارچوب قانون اساسی برای اخلاق هوش مصنوعی اوایل امسال

تحقیقات جدید این شرکت درست در زمان مناسب انجام می شود، زیرا صنعت هوش مصنوعی همچنان به بررسی دقیق این موضوع ادامه می دهد. پیامدهای اخلاقی رشد سریع فناوریبه ویژه در پی تحولات داخلی OpenAI پس از برکناری و انتصاب مجدد مدیر عامل سام آلتمن.

رویداد VB

تور تاثیر هوش مصنوعی

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

هدف روش تحقیق ارزیابی پیشگیرانه تبعیض در هوش مصنوعی است

کاغذ موجود در arXivیک رویکرد پیشگیرانه در ارزیابی تأثیر تبعیض آمیز مدل های زبانی بزرگ ارائه می دهد (LLMs) در سناریوهای پرمخاطره مانند امور مالی و مسکن – یک نگرانی قابل توجه زیرا هوش مصنوعی همچنان به مناطق حساس اجتماعی نفوذ می کند.

الکس تامکین، نویسنده اصلی این مقاله گفت: «در حالی که ما استفاده از مدل‌های زبانی را برای تصمیم‌گیری خودکار پرمخاطره تأیید یا مجاز نمی‌دانیم، معتقدیم که پیش‌بینی خطرات در اسرع وقت بسیار مهم است.» کار ما به توسعه‌دهندگان و سیاست‌گذاران این امکان را می‌دهد تا از این مسائل پیشی بگیرند.»

مطالعه الگوهای تبعیض را در مدل زبانی پیدا می کند

Anthropic از مدل زبان Claude 2.0 خود استفاده کرد و مجموعه متنوعی از ۷۰ سناریو تصمیم گیری فرضی را تولید کرد که می‌توانستند در یک مدل زبان وارد شوند.

به عنوان مثال می توان به تصمیمات اجتماعی پرمخاطره مانند اعطای وام، تایید درمان پزشکی و اعطای دسترسی به مسکن اشاره کرد. عوامل جمعیت شناختی مانند سن، جنسیت و نژاد را به طور سیستماتیک متفاوت می کند تا تشخیص تبعیض را امکان پذیر کند.

در این مقاله آمده است: «به‌کارگیری این روش، الگوهای تبعیض مثبت و منفی را در مدل کلود ۲٫۰ در تنظیمات انتخاب‌شده زمانی که هیچ مداخله‌ای اعمال نمی‌شود، نشان می‌دهد». به طور خاص، نویسندگان دریافتند که مدل آنها تبعیض مثبتی را به نفع زنان و افراد غیرسفید پوست نشان می‌دهد، در حالی که تبعیض علیه افراد بالای ۶۰ سال دارد.

مداخلات تبعیض اندازه گیری شده را کاهش می دهد

محققان در این مقاله توضیح می‌دهند که هدف از این تحقیق، توانمندسازی توسعه‌دهندگان و سیاست‌گذاران برای مقابله فعالانه با خطرات است: «از آنجایی که قابلیت‌ها و برنامه‌های کاربردی مدل زبان همچنان در حال گسترش است، کار ما توسعه‌دهندگان و سیاست‌گذاران را قادر می‌سازد تا تبعیض را پیش‌بینی، اندازه‌گیری و رفع کنند.»

محققان راهبردهای کاهشی مانند اضافه کردن جملاتی مبنی بر غیرقانونی بودن تبعیض و درخواست از مدل ها برای بیان کلامی استدلال خود در حالی که از تعصبات اجتناب می کنند، پیشنهاد می کنند. این مداخلات به طور قابل توجهی تبعیض اندازه گیری شده را کاهش داد.

هدایت درس اخلاق هوش مصنوعی

این مقاله با آنتروپیک بسیار مورد بحث قرار گرفته است مقاله هوش مصنوعی قانون اساسی از اوایل امسال این مقاله مجموعه‌ای از ارزش‌ها و اصولی را که کلود هنگام تعامل با کاربران باید رعایت کند، از جمله مفید، بی‌ضرر و صادق بودن، بیان می‌کند. همچنین مشخص کرد که کلود چگونه باید موضوعات حساس را مدیریت کند، به حریم خصوصی کاربر احترام بگذارد و از رفتار غیرقانونی خودداری کند.

جرد کاپلان، یکی از بنیانگذاران آنتروپیک، در ماه می، زمانی که قانون اساسی هوش مصنوعی منتشر شد، به VentureBeat گفت: “ما قانون اساسی فعلی کلود را با روح شفافیت به اشتراک می گذاریم.” “ما امیدواریم این تحقیق به جامعه هوش مصنوعی کمک کند تا مدل‌های سودمندتری بسازد و ارزش‌های آنها را واضح‌تر نشان دهد. ما همچنین این را به عنوان نقطه شروع به اشتراک می‌گذاریم – انتظار داریم به طور مداوم قانون اساسی کلود را بازبینی کنیم و بخشی از امید ما در به اشتراک گذاشتن این است. پست این است که تحقیقات و بحث های بیشتری در مورد طراحی قانون اساسی ایجاد خواهد کرد.”

همچنین از نزدیک با کار آنتروپیک در پیشاهنگ همخوانی دارد کاهش خطرات فاجعه آمیز در سیستم های هوش مصنوعی سام مک‌کندلیش، یکی از بنیان‌گذاران Anthropic، بینش‌هایی را درباره توسعه خط‌مشی این شرکت و چالش‌های بالقوه آن در سپتامبر به اشتراک گذاشت – که می‌تواند بینش‌هایی را در مورد روند انتشار تحقیقات سوگیری هوش مصنوعی نیز ارائه دهد.

“همانطور که اشاره کردید [in your question]مک کلندلیش در پاسخ به سوالی درباره هیئت مدیره آنتروپیک به VentureBeat گفت، برخی از این تست‌ها و رویه‌ها نیاز به قضاوت دارند. ما واقعاً نگران هستیم که هم مدل‌ها را عرضه می‌کنیم و هم آنها را برای ایمنی آزمایش می‌کنیم، این وسوسه وجود دارد که آزمایش‌ها را خیلی آسان کنیم، که نتیجه‌ای که ما می‌خواهیم نیست. هیئت مدیره (و LTBT) مقداری نظارت مستقل را فراهم می کند. در نهایت، برای نظارت مستقل واقعی، بهتر است این نوع قوانین توسط دولت ها و نهادهای نظارتی اجرا شود، اما تا زمانی که این اتفاق نیفتد، این اولین گام است.”

شفافیت و مشارکت جامعه

با آزاد کردن کاغذ، مجموعه داده ها و درخواست هاآنتروپیک از شفافیت و گفتمان عمومی دفاع می کند – حداقل در این نمونه بسیار خاص – جامعه گسترده تر هوش مصنوعی را برای مشارکت در اصلاح سیستم های اخلاقی جدید دعوت می کند. این گشودگی تلاش‌های جمعی را برای ایجاد سیستم‌های هوش مصنوعی بی‌طرفانه تقویت می‌کند.

برای کسانی که مسئولیت تصمیم گیری فنی در شرکت ها را بر عهده دارند، تحقیقات Anthropic یک چارچوب ضروری برای بررسی دقیق استقرار هوش مصنوعی ارائه می دهد و اطمینان حاصل می کند که آنها با استانداردهای اخلاقی مطابقت دارند. همانطور که رقابت برای مهار هوش مصنوعی سازمانی تشدید می شود، صنعت برای ساخت فناوری هایی که کارایی را با برابری تطبیق می دهد به چالش کشیده می شود.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/anthropic-leads-charge-against-ai-bias-and-discrimination-with-new-research/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *