بسیاری از ابزارهای حاکمیت هوش مصنوعی شامل اصلاحات AI معیوب، یافته‌های گزارش می‌شوند

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


با توجه به الف گزارش جدید از انجمن جهانی حریم خصوصی، بررسی ۱۸ ابزار حاکمیت هوش مصنوعی مورد استفاده توسط دولت ها و سازمان های چند جانبه نشان داد که بیش از یک سوم (۳۸٪) شامل “رفع های معیوب” است. به این معنا که ابزارها و تکنیک‌هایی که برای ارزیابی و اندازه‌گیری سیستم‌های هوش مصنوعی، به‌ویژه برای انصاف و توضیح‌پذیری در نظر گرفته شده‌اند، مشکل‌ساز یا ناکارآمد هستند. آنها ممکن است فاقد مکانیسم‌های تضمین کیفیتی باشند که معمولاً در نرم‌افزار یافت می‌شود، و/یا روش‌های اندازه‌گیری را در نظر گرفته‌اند که «نشان داده می‌شود که نامناسب هستند» در صورت استفاده در خارج از مورد استفاده اصلی.

علاوه بر این، برخی از این ابزارها و تکنیک‌ها توسط شرکت‌هایی مانند مایکروسافت، آی‌بی‌ام و گوگل توسعه یافته یا منتشر شده‌اند که به نوبه خود، بسیاری از سیستم‌های هوش مصنوعی در حال اندازه‌گیری را توسعه داده‌اند.

به عنوان مثال، گزارش نشان داد که IBM AI Fairness 360 این ابزار توسط دفتر پاسخگویی دولت ایالات متحده به عنوان نمونه ای از “راهنمایی در مورد ترکیب اصول اخلاقی مانند انصاف، پاسخگویی، شفافیت و ایمنی در استفاده از هوش مصنوعی” معرفی شده است. اما این گزارش همچنین نشان داد که تحقیقاتی که پایه و اساس «الگوریتم حذف ضربه‌های متفاوت» AI Fairness 360 را تشکیل داد، «نقد شدیدی را در ادبیات علمی به همراه داشته است».

هیچ الزامی برای تضمین کیفیت یا ارزیابی وجود ندارد

پام دیکسون، بنیانگذار و مدیر اجرایی مجمع جهانی حریم خصوصی، گفت: «بیشتر ابزارهای مدیریت هوش مصنوعی که امروزه مورد استفاده قرار می‌گیرند، به نوعی در حال لنگیدن هستند. “یک مشکل بزرگ این است که هیچ الزامات ثابت شده ای برای تضمین کیفیت یا ارزیابی وجود ندارد.” به عنوان مثال، یک ابزار حاکمیت هوش مصنوعی که برای تعصب یک سیستم بزرگ استفاده می‌شود، ممکن است هیچ سندی نداشته باشد: «هیچ دستورالعملی در مورد زمینه‌ای که قرار است برای آن استفاده شود یا حتی تضاد منافع وجود ندارد» به VentureBeat گفت. . او توضیح داد که ابزارهایی که برای یک زمینه ساخته می‌شوند ممکن است در «زمینه‌های ظالمانه متفاوت و «روش‌های بدون برچسب» استفاده شوند.

رویداد VB

تور AI Impact Tour

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

این گزارش ابزارهای حاکمیت هوش مصنوعی را به عنوان ابزارها و تکنیک‌هایی برای ارزیابی و اندازه‌گیری سیستم‌های هوش مصنوعی برای فراگیر بودن، انصاف، توضیح‌پذیری، حریم خصوصی، ایمنی و سایر موارد قابل اعتماد تعریف می‌کند. اینها شامل ابزارهایی برای راهنمایی عملی، پرسشنامه های خودارزیابی، چارچوب های فرآیند، چارچوب های فنی، کد فنی و نرم افزار می باشد. در حالی که ممکن است تنظیم‌کننده‌ها و عموم مردم با استفاده از این ابزارهای نظارتی هوش مصنوعی اطمینان حاصل کنند، آنها همچنین می‌توانند “احساس اعتماد کاذب ایجاد کنند، مشکلات ناخواسته ایجاد کنند و وعده سیستم‌های هوش مصنوعی را تضعیف کنند.”

فرصتی برای بهبود اکوسیستم حاکمیت هوش مصنوعی

در پی گذشت از من قانون دارم و آزادی رئیس جمهور بایدن دستور اجرایی هوش مصنوعی کیت کی، معاون مدیر انجمن جهانی حریم خصوصی، گفت که پاییز امسال، این لحظه مناسبی است تا ببینیم چگونه دولت ها و سایر سازمان ها شروع به ارائه مجموعه ابزارهای حکومتی کرده اند.

او به VentureBeat گفت: «این در مراحل اولیه است، بنابراین با وجود اینکه ما مشکلاتی پیدا کردیم، فرصت‌های زیادی برای بهبود کل این اکوسیستم حاکمیت هوش مصنوعی وجود دارد. این ابزارها متفاوت از قوانین یا مقررات، نحوه اجرای سیاست های هوش مصنوعی توسط دولت ها هستند – و اجزای مهمی از نحوه اجرای قوانین و مقررات هوش مصنوعی (مانند قانون هوش مصنوعی اتحادیه اروپا) در آینده خواهند بود.

Kaye مثالی ارائه کرد که نشان می‌دهد چگونه حتی تلاش‌های با نیت خوب در مدیریت هوش مصنوعی می‌تواند با ابزارها و تکنیک‌های نامناسب نتیجه معکوس داشته باشد: در قانون استخدام ایالات متحده، چهار پنجم یا قانون ۸۰ درصد، برای ارزیابی اینکه آیا فرآیند انتخاب منجر به تأثیر نامطلوب بر روی هر گروه خاصی می شود، استفاده می شود، مانند تعداد زنان سیاه پوست که در رابطه با مردان سفیدپوست استخدام شده اند. Kaye با اشاره به اینکه در ابزارهای مورد استفاده در زمینه‌های بخش خصوصی در سنگاپور، هند و در سنگاپور، هندوستان و در ابزارهای مورد استفاده در زمینه‌های بخش خصوصی یافت شده است، توضیح داد: «اکنون به‌گونه‌ای رمزگذاری و انتزاعی می‌شود که تفاوت‌های ظریف آن را حذف می‌کند و به‌طور نامناسب در برخی ابزارهای حاکمیت هوش مصنوعی استفاده می‌شود. کشورهای دیگر. اینطور نیست که مرتبط نباشد، اما در شرایطی که ربطی به اشتغال ندارد، به درستی اعمال می‌شود.»

Kaye خاطرنشان کرد: دولت ها و سازمان ها ممکن است برای ایجاد قوانین و مقررات و همچنین اجرای حکمرانی هوش مصنوعی احساس فشار کنند و افزود که آژانس ها و ادارات احساس می کنند مردم “نفس می کشند تا کاری انجام دهند.” او تاکید کرد، اما بدترین چیزی که می تواند اتفاق بیفتد، این است که روش های مشکل ساز را در سیاست هایی قرار دهیم که مشکلات جدیدی را در خود جای دهد.

به امید پیشرفت در سال ۲۰۲۴

دیکسون و کی می گویند که امیدوارند ابزارهای مدیریت هوش مصنوعی در سال ۲۰۲۴ بهبود یابد. OECD [the Organization for Economic Cooperation and Development] دیکسون گفت که سازمان دروازه بان پیشرو برای ابزارهای حکمرانی هوش مصنوعی است. آنها قبلاً تمایل خود را برای همکاری با ما برای بهبود این امر نشان داده اند – این یک نشانه عالی است.

مؤسسه ملی استانداردها و فناوری (NIST) نیز می‌خواهد این کار را انجام دهد، او افزود: «ما علاقه‌مندیم برای ایجاد یک محیط ارزیابی کار کنیم که در آن آزمایش‌های دقیق و رویه‌های بسیار خوبی وجود داشته باشد که بر اساس شواهد انجام شود. ”

و این نیازی به زمان زیادی ندارد، او تاکید کرد: “ما معتقدیم که با تلاش متمرکز، حتی ظرف شش ماه می‌توانیم شاهد پیشرفت‌های معنی‌داری در چشم‌انداز ابزارهای حکمرانی هوش مصنوعی باشیم.”

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/many-ai-governance-tools-include-faulty-ai-fixes-report-finds/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *