از آنجایی که تنظیم‌کننده‌ها سخت صحبت می‌کنند، مقابله با تعصب هوش مصنوعی هرگز به این فوریت نبوده است

میز قاضی در دادگاه

برای مشاهده جلسات VB Transform 2023 به کتابخانه درخواستی ما مراجعه کنید. اینجا ثبت نام کنید


ظهور ابزارهای قدرتمند هوش مصنوعی مولد مانند ChatGPT به عنوان ابزارهای این نسل توصیف شده است.لحظه آیفون” در ماه مارس، وب‌سایت OpenAI، که به بازدیدکنندگان اجازه می‌دهد ChatGPT را امتحان کنند، ظاهر شد ۸۴۷ میلیون بازدید کننده ماهانه منحصر به فرد. در میان این انفجار محبوبیت، سطح نظارت بر ژنرال هوش مصنوعی افزایش یافته است و چندین کشور به سرعت برای محافظت از مصرف کنندگان اقدام می کنند.

در ماه آوریل، ایتالیا به اولین کشور غربی تبدیل شد مسدود کردن ChatGPT به دلایل حفظ حریم خصوصی، تنها برای لغو ممنوعیت چهار هفته بعد. سایر کشورهای G7 هستند در نظر گرفتن یک رویکرد هماهنگ به مقررات.

انگلستان میزبان خواهد بود اولین نشست جهانی مقررات هوش مصنوعی در پاییز، نخست‌وزیر ریشی سوناک امیدوار است که کشور بتواند «نرده‌های محافظ» در هوش مصنوعی ایجاد کند. آن هدف اعلام شده این است که اطمینان حاصل شود که هوش مصنوعی “ایمن و مسئولانه توسعه یافته و پذیرفته شده است.”

مقررات بدون شک حسن نیت است. واضح است که بسیاری از کشورها از خطرات ناشی از هوش مصنوعی آگاه هستند. با این حال، همه این صحبت ها در مورد ایمنی احتمالاً یک مسئله عمیق تر را پنهان می کند: تعصب هوش مصنوعی.

رویداد

VB Transform 2023 بر حسب تقاضا

آیا جلسه ای از VB Transform 2023 را از دست داده اید؟ برای دسترسی به کتابخانه درخواستی برای همه جلسات ویژه ما ثبت نام کنید.

اکنون ثبت نام کنید

شکستن تعصب

اگرچه اصطلاح تعصب هوش مصنوعی می تواند مبهم به نظر برسد، اما تعریف آن آسان است. سوگیری هوش مصنوعی که به عنوان «سوگیری الگوریتم» نیز شناخته می‌شود، زمانی رخ می‌دهد که سوگیری‌های انسانی به مجموعه داده‌هایی که مدل‌های هوش مصنوعی روی آن‌ها آموزش داده شده‌اند نفوذ کنند. این داده‌ها و مدل‌های هوش مصنوعی بعدی، هرگونه سوگیری نمونه‌گیری، سوگیری تأیید و سوگیری انسانی (برای مثال بر خلاف جنسیت، سن، ملیت، نژاد) را منعکس می‌کند و استقلال و دقت هر خروجی از فناوری هوش مصنوعی را مخدوش می‌کند.

از آنجایی که نسل هوش مصنوعی پیچیده‌تر می‌شود و جامعه را به شیوه‌هایی که قبلاً نداشته است، تحت تأثیر قرار می‌دهد، مقابله با سوگیری هوش مصنوعی بیش از هر زمان دیگری ضروری است. این فناوری است به طور فزاینده ای استفاده می شود برای اطلاع رسانی وظایفی مانند تشخیص چهره، امتیازدهی اعتباری و ارزیابی ریسک جرم. واضح است که دقت در چنین نتایج حساسی در بازی بسیار مهم است.

نمونه هایی از سوگیری هوش مصنوعی قبلاً در موارد متعددی مشاهده شده است. زمانی که OpenAI’s Dall-E 2، یک مدل یادگیری عمیق که برای خلق آثار هنری استفاده می شد، بود درخواست ایجاد یک تصویر از یکی از بنیانگذاران فناوری Fortune 500، تصاویری که او ارائه کرد عمدتا سفید و مرد بودند. هنگامی که از او پرسیده شد که آیا خواننده معروف بلوز، بسی اسمیت، خواننده گاسپل، ماهالیا جکسون را تحت تأثیر قرار داده است، ChatGPT نتوانست به این سوال پاسخ دهد. بدون درخواست بیشترشک و تردیدهایی در مورد شناخت او از رنگین پوستان در فرهنگ عامه ایجاد کرد.

آ مطالعه در سال ۲۰۲۱ در مورد وام های رهنی انجام شد، نشان داد که مدل های هوش مصنوعی طراحی شده برای تعیین تایید یا رد پیشنهادات قابل اعتمادی برای وام به متقاضیان اقلیت ارائه نمی دهند. این موارد ثابت می‌کنند که تعصب هوش مصنوعی می‌تواند نژاد و جنسیت را نادرست معرفی کند – با عواقب بالقوه جدی برای کاربران.

برخورد مجدانه با داده ها

هوش مصنوعی که نتایج توهین آمیزی ایجاد می کند را می توان به نحوه یادگیری هوش مصنوعی و مجموعه داده ای که بر اساس آن ساخته شده است نسبت داد. اگر داده ها بیش از حد یک جمعیت خاص را نشان دهند یا کمتر نشان دهند، هوش مصنوعی این سوگیری را تکرار می کند و حتی داده های جانبدارانه بیشتری تولید می کند.

به همین دلیل، مهم است که هر مقرراتی که توسط دولت ها اجرا می شود، هوش مصنوعی را ذاتاً خطرناک تلقی نکند. در عوض، هر خطری که دارد تا حد زیادی تابعی از داده هایی است که روی آن آموزش دیده است. اگر کسب‌وکارها می‌خواهند روی آن سرمایه‌گذاری کنند پتانسیل هوش مصنوعیآنها باید اطمینان حاصل کنند که داده هایی که بر روی آنها آموزش دیده است قابل اعتماد و جامع هستند.

برای انجام این کار، دسترسی بیشتر به داده های یک سازمان برای همه ذینفعان داخلی و خارجی باید در اولویت قرار گیرد. پایگاه داده های مدرن در اینجا نقش بزرگی ایفا می کنند زیرا توانایی مدیریت حجم وسیعی از داده های کاربر، ساختار یافته و نیمه ساختار یافته را دارند و قابلیت کشف سریع، واکنش، ویرایش و بازسازی داده ها را پس از کشف هرگونه سوگیری دارند. این قابل مشاهده بودن و مدیریت پذیری بیشتر در مجموعه داده های بزرگ به این معنی است که داده های مغرضانه در معرض خطر کمتری از خزش به صورت ناشناخته هستند.

مدیریت داده بهتر

علاوه بر این، سازمان‌ها باید دانشمندان داده را برای مدیریت بهتر داده‌ها در حین اجرای بهترین شیوه‌ها برای جمع‌آوری و پاک‌سازی داده‌ها آموزش دهند. با برداشتن یک قدم جلوتر، الگوریتم‌های آموزش داده باید «باز» و در دسترس هر چه بیشتر دانشمندان داده قرار گیرند تا اطمینان حاصل شود که گروه‌های متنوع‌تری از مردم آن را نمونه‌برداری می‌کنند و می‌توانند به سوگیری‌های ذاتی اشاره کنند. به همین ترتیب نرم افزار مدرن اغلب «متن باز» است، بنابراین داده های مناسب نیز باید باشد.

سازمان‌ها باید دائماً هوشیار باشند و قدردان باشند که این یک اقدام یکباره نیست که قبل از شروع به تولید با یک محصول یا خدمات انجام شود. چالش مداوم از تعصب هوش مصنوعی از شرکت‌ها می‌خواهد که به دنبال ترکیب تکنیک‌هایی باشند که در صنایع دیگر استفاده می‌شوند تا از بهترین شیوه‌های عمومی اطمینان حاصل کنند.

آزمایش‌های «چشیدن کور» که از صنعت غذا و نوشیدنی وام گرفته شده است، تاکتیک‌های تیم قرمز/آبی از دنیای امنیت سایبری یا مفهوم ردیابی مورد استفاده در انرژی هسته‌ای، همگی می‌توانند چارچوب‌های ارزشمندی را برای سازمان‌ها در مقابله با تعصب هوش مصنوعی فراهم کنند. این کار به شرکت ها کمک می کند تا درک کنند مدل های هوش مصنوعیدامنه نتایج احتمالی آینده را ارزیابی کنید و با این سیستم های پیچیده و در حال تحول اعتماد کافی به دست آورید.

زمان مناسب برای تنظیم هوش مصنوعی؟

در دهه‌های گذشته، صحبت از «تنظیم هوش مصنوعی» احتمالاً قرار دادن گاری قبل از اسب بود. چگونه می توانید چیزی را تنظیم کنید که تأثیر آن بر جامعه نامشخص است؟ یک قرن پیش، هیچ کس رویای تنظیم کردن سیگار را در سر نمی پروراند زیرا خطرناک بودن آن شناخته شده نبود. به همین ترتیب، هوش مصنوعی چیزی در معرض تهدید جدی مقررات نبود – هر گونه احساس خطر آن به فیلم های علمی تخیلی بدون هیچ مبنایی در واقعیت

اما پیشرفت در نسل AI و ChatGPT، و همچنین پیشرفت به سمت هوش مصنوعی عمومی (AGI)، همه اینها را تغییر داده است. به نظر می رسد برخی از دولت های ملی به طور هماهنگ برای تنظیم مقررات هوش مصنوعی کار می کنند، در حالی که به طور متناقض، برخی دیگر به عنوان رئیس تنظیم کننده هوش مصنوعی تلاش می کنند.

در میان این آشفتگی، بسیار مهم است که تعصب هوش مصنوعی بیش از حد سیاسی نشود و در عوض به عنوان یک موضوع اجتماعی که فراتر از خطوط سیاسی است در نظر گرفته شود. در سراسر جهان، دولت‌ها – در کنار دانشمندان داده، کسب‌وکارها و دانشگاهیان – باید برای مقابله با آن متحد شوند.

Ravi Mayuram مدیر ارشد فناوری است کاناپه.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!

از DataDecisionMakers بیشتر بخوانید


منبع: https://venturebeat.com/ai/as-regulators-talk-tough-tackling-ai-bias-has-never-been-more-urgent/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *