برای مشاهده جلسات VB Transform 2023 به کتابخانه درخواستی ما مراجعه کنید. اینجا ثبت نام کنید
ظهور ابزارهای قدرتمند هوش مصنوعی مولد مانند ChatGPT به عنوان ابزارهای این نسل توصیف شده است.لحظه آیفون” در ماه مارس، وبسایت OpenAI، که به بازدیدکنندگان اجازه میدهد ChatGPT را امتحان کنند، ظاهر شد ۸۴۷ میلیون بازدید کننده ماهانه منحصر به فرد. در میان این انفجار محبوبیت، سطح نظارت بر ژنرال هوش مصنوعی افزایش یافته است و چندین کشور به سرعت برای محافظت از مصرف کنندگان اقدام می کنند.
در ماه آوریل، ایتالیا به اولین کشور غربی تبدیل شد مسدود کردن ChatGPT به دلایل حفظ حریم خصوصی، تنها برای لغو ممنوعیت چهار هفته بعد. سایر کشورهای G7 هستند در نظر گرفتن یک رویکرد هماهنگ به مقررات.
انگلستان میزبان خواهد بود اولین نشست جهانی مقررات هوش مصنوعی در پاییز، نخستوزیر ریشی سوناک امیدوار است که کشور بتواند «نردههای محافظ» در هوش مصنوعی ایجاد کند. آن هدف اعلام شده این است که اطمینان حاصل شود که هوش مصنوعی “ایمن و مسئولانه توسعه یافته و پذیرفته شده است.”
مقررات بدون شک حسن نیت است. واضح است که بسیاری از کشورها از خطرات ناشی از هوش مصنوعی آگاه هستند. با این حال، همه این صحبت ها در مورد ایمنی احتمالاً یک مسئله عمیق تر را پنهان می کند: تعصب هوش مصنوعی.
شکستن تعصب
اگرچه اصطلاح تعصب هوش مصنوعی می تواند مبهم به نظر برسد، اما تعریف آن آسان است. سوگیری هوش مصنوعی که به عنوان «سوگیری الگوریتم» نیز شناخته میشود، زمانی رخ میدهد که سوگیریهای انسانی به مجموعه دادههایی که مدلهای هوش مصنوعی روی آنها آموزش داده شدهاند نفوذ کنند. این دادهها و مدلهای هوش مصنوعی بعدی، هرگونه سوگیری نمونهگیری، سوگیری تأیید و سوگیری انسانی (برای مثال بر خلاف جنسیت، سن، ملیت، نژاد) را منعکس میکند و استقلال و دقت هر خروجی از فناوری هوش مصنوعی را مخدوش میکند.
از آنجایی که نسل هوش مصنوعی پیچیدهتر میشود و جامعه را به شیوههایی که قبلاً نداشته است، تحت تأثیر قرار میدهد، مقابله با سوگیری هوش مصنوعی بیش از هر زمان دیگری ضروری است. این فناوری است به طور فزاینده ای استفاده می شود برای اطلاع رسانی وظایفی مانند تشخیص چهره، امتیازدهی اعتباری و ارزیابی ریسک جرم. واضح است که دقت در چنین نتایج حساسی در بازی بسیار مهم است.
نمونه هایی از سوگیری هوش مصنوعی قبلاً در موارد متعددی مشاهده شده است. زمانی که OpenAI’s Dall-E 2، یک مدل یادگیری عمیق که برای خلق آثار هنری استفاده می شد، بود درخواست ایجاد یک تصویر از یکی از بنیانگذاران فناوری Fortune 500، تصاویری که او ارائه کرد عمدتا سفید و مرد بودند. هنگامی که از او پرسیده شد که آیا خواننده معروف بلوز، بسی اسمیت، خواننده گاسپل، ماهالیا جکسون را تحت تأثیر قرار داده است، ChatGPT نتوانست به این سوال پاسخ دهد. بدون درخواست بیشترشک و تردیدهایی در مورد شناخت او از رنگین پوستان در فرهنگ عامه ایجاد کرد.
آ مطالعه در سال ۲۰۲۱ در مورد وام های رهنی انجام شد، نشان داد که مدل های هوش مصنوعی طراحی شده برای تعیین تایید یا رد پیشنهادات قابل اعتمادی برای وام به متقاضیان اقلیت ارائه نمی دهند. این موارد ثابت میکنند که تعصب هوش مصنوعی میتواند نژاد و جنسیت را نادرست معرفی کند – با عواقب بالقوه جدی برای کاربران.
برخورد مجدانه با داده ها
هوش مصنوعی که نتایج توهین آمیزی ایجاد می کند را می توان به نحوه یادگیری هوش مصنوعی و مجموعه داده ای که بر اساس آن ساخته شده است نسبت داد. اگر داده ها بیش از حد یک جمعیت خاص را نشان دهند یا کمتر نشان دهند، هوش مصنوعی این سوگیری را تکرار می کند و حتی داده های جانبدارانه بیشتری تولید می کند.
به همین دلیل، مهم است که هر مقرراتی که توسط دولت ها اجرا می شود، هوش مصنوعی را ذاتاً خطرناک تلقی نکند. در عوض، هر خطری که دارد تا حد زیادی تابعی از داده هایی است که روی آن آموزش دیده است. اگر کسبوکارها میخواهند روی آن سرمایهگذاری کنند پتانسیل هوش مصنوعیآنها باید اطمینان حاصل کنند که داده هایی که بر روی آنها آموزش دیده است قابل اعتماد و جامع هستند.
برای انجام این کار، دسترسی بیشتر به داده های یک سازمان برای همه ذینفعان داخلی و خارجی باید در اولویت قرار گیرد. پایگاه داده های مدرن در اینجا نقش بزرگی ایفا می کنند زیرا توانایی مدیریت حجم وسیعی از داده های کاربر، ساختار یافته و نیمه ساختار یافته را دارند و قابلیت کشف سریع، واکنش، ویرایش و بازسازی داده ها را پس از کشف هرگونه سوگیری دارند. این قابل مشاهده بودن و مدیریت پذیری بیشتر در مجموعه داده های بزرگ به این معنی است که داده های مغرضانه در معرض خطر کمتری از خزش به صورت ناشناخته هستند.
مدیریت داده بهتر
علاوه بر این، سازمانها باید دانشمندان داده را برای مدیریت بهتر دادهها در حین اجرای بهترین شیوهها برای جمعآوری و پاکسازی دادهها آموزش دهند. با برداشتن یک قدم جلوتر، الگوریتمهای آموزش داده باید «باز» و در دسترس هر چه بیشتر دانشمندان داده قرار گیرند تا اطمینان حاصل شود که گروههای متنوعتری از مردم آن را نمونهبرداری میکنند و میتوانند به سوگیریهای ذاتی اشاره کنند. به همین ترتیب نرم افزار مدرن اغلب «متن باز» است، بنابراین داده های مناسب نیز باید باشد.
سازمانها باید دائماً هوشیار باشند و قدردان باشند که این یک اقدام یکباره نیست که قبل از شروع به تولید با یک محصول یا خدمات انجام شود. چالش مداوم از تعصب هوش مصنوعی از شرکتها میخواهد که به دنبال ترکیب تکنیکهایی باشند که در صنایع دیگر استفاده میشوند تا از بهترین شیوههای عمومی اطمینان حاصل کنند.
آزمایشهای «چشیدن کور» که از صنعت غذا و نوشیدنی وام گرفته شده است، تاکتیکهای تیم قرمز/آبی از دنیای امنیت سایبری یا مفهوم ردیابی مورد استفاده در انرژی هستهای، همگی میتوانند چارچوبهای ارزشمندی را برای سازمانها در مقابله با تعصب هوش مصنوعی فراهم کنند. این کار به شرکت ها کمک می کند تا درک کنند مدل های هوش مصنوعیدامنه نتایج احتمالی آینده را ارزیابی کنید و با این سیستم های پیچیده و در حال تحول اعتماد کافی به دست آورید.
زمان مناسب برای تنظیم هوش مصنوعی؟
در دهههای گذشته، صحبت از «تنظیم هوش مصنوعی» احتمالاً قرار دادن گاری قبل از اسب بود. چگونه می توانید چیزی را تنظیم کنید که تأثیر آن بر جامعه نامشخص است؟ یک قرن پیش، هیچ کس رویای تنظیم کردن سیگار را در سر نمی پروراند زیرا خطرناک بودن آن شناخته شده نبود. به همین ترتیب، هوش مصنوعی چیزی در معرض تهدید جدی مقررات نبود – هر گونه احساس خطر آن به فیلم های علمی تخیلی بدون هیچ مبنایی در واقعیت
اما پیشرفت در نسل AI و ChatGPT، و همچنین پیشرفت به سمت هوش مصنوعی عمومی (AGI)، همه اینها را تغییر داده است. به نظر می رسد برخی از دولت های ملی به طور هماهنگ برای تنظیم مقررات هوش مصنوعی کار می کنند، در حالی که به طور متناقض، برخی دیگر به عنوان رئیس تنظیم کننده هوش مصنوعی تلاش می کنند.
در میان این آشفتگی، بسیار مهم است که تعصب هوش مصنوعی بیش از حد سیاسی نشود و در عوض به عنوان یک موضوع اجتماعی که فراتر از خطوط سیاسی است در نظر گرفته شود. در سراسر جهان، دولتها – در کنار دانشمندان داده، کسبوکارها و دانشگاهیان – باید برای مقابله با آن متحد شوند.
Ravi Mayuram مدیر ارشد فناوری است کاناپه.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/as-regulators-talk-tough-tackling-ai-bias-has-never-been-more-urgent/