آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
با توجه به الف گزارش جدید از انجمن جهانی حریم خصوصی، بررسی ۱۸ ابزار حاکمیت هوش مصنوعی مورد استفاده توسط دولت ها و سازمان های چند جانبه نشان داد که بیش از یک سوم (۳۸٪) شامل “رفع های معیوب” است. به این معنا که ابزارها و تکنیکهایی که برای ارزیابی و اندازهگیری سیستمهای هوش مصنوعی، بهویژه برای انصاف و توضیحپذیری در نظر گرفته شدهاند، مشکلساز یا ناکارآمد هستند. آنها ممکن است فاقد مکانیسمهای تضمین کیفیتی باشند که معمولاً در نرمافزار یافت میشود، و/یا روشهای اندازهگیری را در نظر گرفتهاند که «نشان داده میشود که نامناسب هستند» در صورت استفاده در خارج از مورد استفاده اصلی.
علاوه بر این، برخی از این ابزارها و تکنیکها توسط شرکتهایی مانند مایکروسافت، آیبیام و گوگل توسعه یافته یا منتشر شدهاند که به نوبه خود، بسیاری از سیستمهای هوش مصنوعی در حال اندازهگیری را توسعه دادهاند.
به عنوان مثال، گزارش نشان داد که IBM AI Fairness 360 این ابزار توسط دفتر پاسخگویی دولت ایالات متحده به عنوان نمونه ای از “راهنمایی در مورد ترکیب اصول اخلاقی مانند انصاف، پاسخگویی، شفافیت و ایمنی در استفاده از هوش مصنوعی” معرفی شده است. اما این گزارش همچنین نشان داد که تحقیقاتی که پایه و اساس «الگوریتم حذف ضربههای متفاوت» AI Fairness 360 را تشکیل داد، «نقد شدیدی را در ادبیات علمی به همراه داشته است».
هیچ الزامی برای تضمین کیفیت یا ارزیابی وجود ندارد
پام دیکسون، بنیانگذار و مدیر اجرایی مجمع جهانی حریم خصوصی، گفت: «بیشتر ابزارهای مدیریت هوش مصنوعی که امروزه مورد استفاده قرار میگیرند، به نوعی در حال لنگیدن هستند. “یک مشکل بزرگ این است که هیچ الزامات ثابت شده ای برای تضمین کیفیت یا ارزیابی وجود ندارد.” به عنوان مثال، یک ابزار حاکمیت هوش مصنوعی که برای تعصب یک سیستم بزرگ استفاده میشود، ممکن است هیچ سندی نداشته باشد: «هیچ دستورالعملی در مورد زمینهای که قرار است برای آن استفاده شود یا حتی تضاد منافع وجود ندارد» به VentureBeat گفت. . او توضیح داد که ابزارهایی که برای یک زمینه ساخته میشوند ممکن است در «زمینههای ظالمانه متفاوت و «روشهای بدون برچسب» استفاده شوند.
این گزارش ابزارهای حاکمیت هوش مصنوعی را به عنوان ابزارها و تکنیکهایی برای ارزیابی و اندازهگیری سیستمهای هوش مصنوعی برای فراگیر بودن، انصاف، توضیحپذیری، حریم خصوصی، ایمنی و سایر موارد قابل اعتماد تعریف میکند. اینها شامل ابزارهایی برای راهنمایی عملی، پرسشنامه های خودارزیابی، چارچوب های فرآیند، چارچوب های فنی، کد فنی و نرم افزار می باشد. در حالی که ممکن است تنظیمکنندهها و عموم مردم با استفاده از این ابزارهای نظارتی هوش مصنوعی اطمینان حاصل کنند، آنها همچنین میتوانند “احساس اعتماد کاذب ایجاد کنند، مشکلات ناخواسته ایجاد کنند و وعده سیستمهای هوش مصنوعی را تضعیف کنند.”
فرصتی برای بهبود اکوسیستم حاکمیت هوش مصنوعی
در پی گذشت از من قانون دارم و آزادی رئیس جمهور بایدن دستور اجرایی هوش مصنوعی کیت کی، معاون مدیر انجمن جهانی حریم خصوصی، گفت که پاییز امسال، این لحظه مناسبی است تا ببینیم چگونه دولت ها و سایر سازمان ها شروع به ارائه مجموعه ابزارهای حکومتی کرده اند.
او به VentureBeat گفت: «این در مراحل اولیه است، بنابراین با وجود اینکه ما مشکلاتی پیدا کردیم، فرصتهای زیادی برای بهبود کل این اکوسیستم حاکمیت هوش مصنوعی وجود دارد. این ابزارها متفاوت از قوانین یا مقررات، نحوه اجرای سیاست های هوش مصنوعی توسط دولت ها هستند – و اجزای مهمی از نحوه اجرای قوانین و مقررات هوش مصنوعی (مانند قانون هوش مصنوعی اتحادیه اروپا) در آینده خواهند بود.
Kaye مثالی ارائه کرد که نشان میدهد چگونه حتی تلاشهای با نیت خوب در مدیریت هوش مصنوعی میتواند با ابزارها و تکنیکهای نامناسب نتیجه معکوس داشته باشد: در قانون استخدام ایالات متحده، چهار پنجم یا قانون ۸۰ درصد، برای ارزیابی اینکه آیا فرآیند انتخاب منجر به تأثیر نامطلوب بر روی هر گروه خاصی می شود، استفاده می شود، مانند تعداد زنان سیاه پوست که در رابطه با مردان سفیدپوست استخدام شده اند. Kaye با اشاره به اینکه در ابزارهای مورد استفاده در زمینههای بخش خصوصی در سنگاپور، هند و در سنگاپور، هندوستان و در ابزارهای مورد استفاده در زمینههای بخش خصوصی یافت شده است، توضیح داد: «اکنون بهگونهای رمزگذاری و انتزاعی میشود که تفاوتهای ظریف آن را حذف میکند و بهطور نامناسب در برخی ابزارهای حاکمیت هوش مصنوعی استفاده میشود. کشورهای دیگر. اینطور نیست که مرتبط نباشد، اما در شرایطی که ربطی به اشتغال ندارد، به درستی اعمال میشود.»
Kaye خاطرنشان کرد: دولت ها و سازمان ها ممکن است برای ایجاد قوانین و مقررات و همچنین اجرای حکمرانی هوش مصنوعی احساس فشار کنند و افزود که آژانس ها و ادارات احساس می کنند مردم “نفس می کشند تا کاری انجام دهند.” او تاکید کرد، اما بدترین چیزی که می تواند اتفاق بیفتد، این است که روش های مشکل ساز را در سیاست هایی قرار دهیم که مشکلات جدیدی را در خود جای دهد.
به امید پیشرفت در سال ۲۰۲۴
دیکسون و کی می گویند که امیدوارند ابزارهای مدیریت هوش مصنوعی در سال ۲۰۲۴ بهبود یابد. OECD [the Organization for Economic Cooperation and Development] دیکسون گفت که سازمان دروازه بان پیشرو برای ابزارهای حکمرانی هوش مصنوعی است. آنها قبلاً تمایل خود را برای همکاری با ما برای بهبود این امر نشان داده اند – این یک نشانه عالی است.
مؤسسه ملی استانداردها و فناوری (NIST) نیز میخواهد این کار را انجام دهد، او افزود: «ما علاقهمندیم برای ایجاد یک محیط ارزیابی کار کنیم که در آن آزمایشهای دقیق و رویههای بسیار خوبی وجود داشته باشد که بر اساس شواهد انجام شود. ”
و این نیازی به زمان زیادی ندارد، او تاکید کرد: “ما معتقدیم که با تلاش متمرکز، حتی ظرف شش ماه میتوانیم شاهد پیشرفتهای معنیداری در چشمانداز ابزارهای حکمرانی هوش مصنوعی باشیم.”
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/many-ai-governance-tools-include-faulty-ai-fixes-report-finds/