شرکتها در اتخاذ راهحلهای هوش مصنوعی به دلیل دشواری در ایجاد تعادل در هزینه حکومت با رفتارهای مدلهای زبان بزرگ (LLM)، مانند توهم، نقض حریم خصوصی دادهها، و پتانسیل مدلها برای تولید محتوای مضر تردید دارند.
یکی از دشوارترین چالشهای پیش روی پذیرش LLM، مشخص کردن مدل پاسخ مضر است، اما IBM معتقد است که میتواند به بهبود وضعیت برای شرکتها در همه جا کمک کند.
در یک رویداد در زوریخ، الیزابت دالی، مدیر تحقیقات STSM، گروه هوش مصنوعی تعاملی IBM Research Europe، تاکید کرد که این شرکت به دنبال توسعه هوش مصنوعی است که توسعهدهندگان بتوانند به آن اعتماد کنند و خاطرنشان کرد: «اندازهگیری و کمیت کردن کلیکها آسان است، اینطور نیست. اندازهگیری و کمی کردن محتوای مضر بسیار آسان است.»
تشخیص، کنترل، حسابرسی
سیاست های عمومی حاکمیتی برای کنترل LLM کافی نیست، بنابراین IBM به دنبال توسعه LLMS برای استفاده از قانون، استانداردهای شرکتی و حاکمیت داخلی هر شرکت به عنوان مکانیزم کنترل است – اجازه می دهد حاکمیت فراتر از استانداردهای شرکتی رفته و اخلاق فردی را در خود بگنجاند. هنجارهای اجتماعی کشور، منطقه یا صنعتی که در آن استفاده می شود.
این اسناد میتوانند زمینه یک LLM را فراهم کنند، و میتوانند برای «پاداش» یک LLM برای مرتبط ماندن با وظیفه فعلیاش استفاده شوند. این اجازه می دهد تا سطح نوآورانه ای از تنظیم دقیق در تعیین زمانی که هوش مصنوعی محتوای مضری را تولید می کند که ممکن است هنجارهای اجتماعی یک منطقه را نقض کند، و حتی می تواند به هوش مصنوعی اجازه دهد تشخیص دهد که آیا خروجی های خود می تواند مضر شناخته شود یا خیر.
علاوه بر این، IBM در توسعه LLM های خود بر روی داده هایی که قابل اعتماد هستند، دقیق بوده و برای سوگیری های احتمالی در هر سطح را شناسایی، کنترل و ممیزی می کند، و مکانیسم های تشخیص را در هر مرحله از خط لوله پیاده سازی کرده است. این در تضاد کامل با مدلهای فونداسیون خارج از قفسه است که معمولاً بر روی دادههای بایاس آموزش داده میشوند و حتی اگر بعداً این دادهها حذف شوند، سوگیریها میتوانند دوباره ظاهر شوند.
قانون پیشنهادی هوش مصنوعی اتحادیه اروپا، حکمرانی هوش مصنوعی را با اهداف کاربرانش مرتبط میکند، و IBM بیان میکند که استفاده بخش اساسی از نحوه حاکمیت بر مدل خود است، زیرا برخی از کاربران ممکن است از هوش مصنوعی آن برای کارهای خلاصهسازی استفاده کنند، و برخی دیگر ممکن است از آن استفاده کنند. آن را برای وظایف طبقه بندی. دالی بیان می کند که استفاده از این رو در مدل حاکمیت IBM “شهروند درجه یک” است.
بیشتر از TechRadar Pro
منبع: https://www.techradar.com/pro/defining-fairness-how-ibm-is-tackling-ai-governance