چرا خود تنظیمی هوش مصنوعی یک حرکت تجاری هوشمندانه است

چرا خود تنظیمی هوش مصنوعی یک حرکت تجاری هوشمندانه است

برای مشاهده جلسات VB Transform 2023 به کتابخانه درخواستی ما مراجعه کنید. اینجا ثبت نام کنید


ChatGPT و دیگر چت‌بات‌های تولیدکننده متن و تصویر، تخیل میلیون‌ها نفر را به خود جلب کرده‌اند – اما بدون بحث نیست. با وجود عدم قطعیت ها، کسب و کارها در حال حاضر در بازی هستند، خواه با جدیدترین ها بازی کنند هوش مصنوعی مولد چت بات ها یا استقرار فرآیندهای مبتنی بر هوش مصنوعی در سراسر شرکت خود.

به همین دلیل ضروری است که کسب‌وکارها نگرانی‌های فزاینده در مورد غیرقابل پیش‌بینی بودن هوش مصنوعی و همچنین تأثیرات قابل پیش‌بینی و بالقوه مضر برای کاربران نهایی را برطرف کنند. عدم انجام این کار پیشرفت و وعده هوش مصنوعی را تضعیف خواهد کرد. و اگرچه دولت ها در حال حرکت برای ایجاد قوانینی برای استفاده اخلاقی هوش مصنوعی هستند، دنیای تجارت نمی تواند صبر کند.

شرکت ها باید نرده های محافظ خود را راه اندازی کنند. این فناوری به سادگی بسیار سریع در حال حرکت است – بسیار سریعتر از مقررات هوش مصنوعی، جای تعجب نیست – و خطرات تجاری بسیار زیاد است. ممکن است یادگیری در حین حرکت وسوسه انگیز باشد، اما پتانسیل انجام یک اشتباه پرهزینه مخالف یک رویکرد موقت است.

برای جلب اعتماد خود تنظیم کنید

دلایل زیادی وجود دارد که کسب‌وکارها تلاش‌های هوش مصنوعی خود را تنظیم می‌کنند – از جمله ارزش‌های شرکتی و آمادگی سازمانی. اما مدیریت ریسک ممکن است در صدر لیست باشد. هرگونه اشتباه می تواند حریم خصوصی مشتری، اعتماد مشتری و شهرت شرکت را تضعیف کند.

رویداد

VB Transform 2023 بر حسب تقاضا

آیا جلسه ای از VB Transform 2023 را از دست داده اید؟ برای دسترسی به کتابخانه درخواستی برای همه جلسات ویژه ما ثبت نام کنید.

اکنون ثبت نام کنید

خوشبختانه، مشاغل زیادی می توانند برای ایجاد اعتماد در برنامه ها و فرآیندهای هوش مصنوعی انجام دهند. انتخاب فناوری‌های زیربنایی مناسب – آن‌هایی که توسعه و استفاده متفکرانه از هوش مصنوعی را تسهیل می‌کنند – بخشی از پاسخ است. به همان اندازه مهم این است که اطمینان حاصل شود که تیم های سازنده این راه حل ها در مورد نحوه پیش بینی و کاهش خطرات آموزش دیده اند.

موفقیت نیز در گرو داشتن تصور خوب است حکمرانی هوش مصنوعی. رهبران تجاری و فناوری باید بر مجموعه داده‌ها و مدل‌های زبانی مورد استفاده، ارزیابی ریسک، تأییدیه‌ها، مسیرهای حسابرسی و موارد دیگر نظارت داشته باشند. تیم‌های داده – از مهندسان آماده‌کننده داده‌ها گرفته تا دانشمندان داده‌ای که مدل‌ها را می‌سازند – باید مراقب تعصب هوش مصنوعی در هر مرحله باشند و اجازه ندهند که در فرآیندها و نتایج تداوم یابد.

مدیریت ریسک باید از هم اکنون آغاز شود

سازمان ها ممکن است در نهایت چاره ای جز اتخاذ برخی از این اقدامات داشته باشند. قوانینی که اکنون در حال تدوین است می‌تواند در نهایت کنترل و تعادل را برای اطمینان از اینکه هوش مصنوعی با مصرف‌کنندگان منصفانه رفتار می‌کند الزامی کند. تا کنون، مقررات جامع هوش مصنوعی هنوز تدوین نشده است، اما قبل از اینکه این اتفاق بیفتد، فقط موضوع زمان است.

تا به امروز در ایالات متحده، کاخ سفید “طرحنامه ای برای منشور حقوق هوش مصنوعی” منتشر کرده است که اصولی را برای هدایت توسعه و استفاده از هوش مصنوعی – از جمله محافظت در برابر تبعیض الگوریتمی و توانایی انصراف از فرآیندهای خودکار ارائه می کند. در همین حال، آژانس‌های فدرال در حال شفاف‌سازی الزامات موجود در مقررات موجود، مانند موارد موجود در قانون FTC و قانون فرصت‌های اعتباری برابر، به عنوان اولین خط دفاعی هوش مصنوعی برای عموم هستند.

اما شرکت های هوشمند منتظر هر گونه قوانین فراگیر دولتی نمی مانند. مدیریت ریسک باید از هم اکنون آغاز شود.

مقررات هوش مصنوعی: کاهش ریسک در عین افزایش اعتماد

این فرضی را در نظر بگیرید: یک فرد مضطرب درخواستی را به مرکز پشتیبانی مجهز به چت بات کلینیک مراقبت های بهداشتی ارسال می کند. کاربر می گوید: «احساس غمگینی دارم. “باید چکار کنم؟”

این یک موقعیت بالقوه حساس است و نشان می دهد که بدون بررسی دقیق هوش مصنوعی با چه سرعتی ممکن است مشکل ظاهر شود. مثلاً اگر فرد در وسط یک بحران شخصی باشد چه اتفاقی می افتد؟ آیا ارائه دهنده مراقبت های بهداشتی با مسئولیت بالقوه مواجه می شود اگر چت بات پاسخ ظریفی را که لازم است ارائه ندهد – یا بدتر از آن، اقدامی را توصیه می کند که ممکن است مضر باشد؟ سناریوهای مشابه سخت نویسی – و پرخطر – می توانند در هر صنعتی ظاهر شوند.

این توضیح می دهد که چرا آگاهی و مدیریت ریسک تمرکز برخی از چارچوب های نظارتی و غیرقانونی است. قانون پیشنهادی هوش مصنوعی اتحادیه اروپا به موارد استفاده پرخطر و غیرقابل قبول می‌پردازد. در ایالات متحده، چارچوب مدیریت ریسک مؤسسه ملی استانداردها و فناوری برای به حداقل رساندن خطر برای افراد و سازمان ها در نظر گرفته شده است، در حالی که “قابلیت اعتماد سیستم های هوش مصنوعی” را نیز افزایش می دهد.

چگونه قابل اعتماد بودن هوش مصنوعی را تعیین کنیم؟

چگونه کسی تشخیص می دهد که آیا هوش مصنوعی قابل اعتماد است؟ روش‌شناسی‌های مختلفی در زمینه‌های مختلف به وجود می‌آیند، چه دستورالعمل‌های کمیسیون اروپا برای هوش مصنوعی قابل اعتماد، پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا، نقشه راه تضمین هوش مصنوعی بریتانیا و کتاب سفید اخیر در مورد مقررات هوش مصنوعی، یا AI Verify سنگاپور.

AI Verify به دنبال ایجاد اعتماد از طریق شفافیت است سازمان برای همکاری و توسعه اقتصادی. این کار را با ارائه چارچوبی انجام می دهد تا اطمینان حاصل شود که سیستم های هوش مصنوعی اصول پذیرفته شده را رعایت می کنند اخلاق هوش مصنوعی. این یک تغییر در موضوعی است که به طور گسترده به اشتراک گذاشته شده است: هوش مصنوعی خود را از توسعه تا استقرار کنترل کنید.

با این حال، هر چقدر هم که تلاش‌های مختلف دولت حسن نیت داشته باشد، هنوز هم بسیار مهم است که کسب‌وکارها به جای منتظر ماندن برای قانون، قوانین مدیریت ریسک خود را ایجاد کنند. استراتژی‌های هوش مصنوعی سازمانی زمانی بیشترین شانس موفقیت را دارند که برخی از اصول رایج – ایمن، منصفانه، قابل اعتماد و شفاف – در پیاده‌سازی قرار بگیرند. این اصول باید قابل اجرا باشند، که نیاز به ابزارهایی برای جاسازی سیستماتیک آنها در خطوط لوله هوش مصنوعی دارد.

افراد، فرآیندها و پلتفرم ها

نکته مثبت این است که نوآوری کسب و کار مبتنی بر هوش مصنوعی می تواند یک تمایز رقابتی واقعی باشد، همانطور که قبلاً در زمینه هایی مانند کشف دارو، پیش بینی ادعاهای بیمه و نگهداری پیش بینی می بینیم. اما پیشرفت‌ها بدون ریسک به دست نمی‌آیند، به همین دلیل است که حکمرانی جامع باید همراه با توسعه و استقرار هوش مصنوعی باشد.

تعداد فزاینده ای از سازمان ها با در نظر گرفتن افراد، فرآیندها و پلتفرم ها، اولین گام های خود را ترسیم می کنند. آنها در حال تشکیل تیم‌های اقدام هوش مصنوعی با نمایندگی در سراسر بخش‌ها، ارزیابی معماری داده‌ها و بحث در مورد چگونگی آن هستند علم داده باید سازگار شود.

رهبران پروژه چگونه همه اینها را مدیریت می کنند؟ برخی از آنها با کمی بیشتر از ایمیل و تماس های ویدیویی برای هماهنگی ذینفعان و صفحات گسترده برای ثبت و ثبت پیشرفت کار شروع می کنند. که در مقیاس کوچک کار می کند. اما ابتکارات هوش مصنوعی در سطح سازمانی باید فراتر رفته و تصمیمات و دلایل اتخاذ شده و همچنین جزئیات عملکرد مدل ها را در طول چرخه عمر پروژه نشان دهد.

حکمرانی قوی مطمئن ترین راه است

به طور خلاصه، ارزش خودگردانی از یک سو از مستندسازی فرآیندها و از سوی دیگر اطلاعات کلیدی در مورد مدل‌ها در زمان توسعه و در مرحله استقرار ناشی می‌شود. در مجموع، این یک تصویر کامل برای انطباق فعلی و آینده ارائه می دهد.

مسیرهای حسابرسی که توسط این نوع زیرساخت حاکمیتی امکان پذیر شده است برایقابلیت توضیح هوش مصنوعی” این نه تنها شامل قابلیت‌های فنی مورد نیاز برای توضیح‌پذیری می‌شود، بلکه ملاحظات اجتماعی را نیز شامل می‌شود – توانایی سازمان برای ارائه منطقی برای مدل و پیاده‌سازی هوش مصنوعی خود.

همه اینها به این نتیجه می رسد که حکمرانی قوی مطمئن ترین مسیر برای ابتکارات موفق هوش مصنوعی است – آنهایی که اعتماد مشتری را ایجاد می کنند، ریسک را کاهش می دهند و نوآوری در کسب و کار را هدایت می کنند. توصیه من: منتظر خشک شدن جوهر روی قوانین و مقررات دولتی نباشید. این فناوری سریعتر از سیاست پیش می رود.

Jacob Beswick مدیر راه حل های مدیریت هوش مصنوعی در دیتایکو.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!

از DataDecisionMakers بیشتر بخوانید


منبع: https://venturebeat.com/ai/why-self-regulation-of-ai-is-a-smart-business-move/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *