تعریف عدالت: چگونه IBM با حاکمیت هوش مصنوعی مقابله می کند

شرکت‌ها در اتخاذ راه‌حل‌های هوش مصنوعی به دلیل دشواری در ایجاد تعادل در هزینه حکومت با رفتارهای مدل‌های زبان بزرگ (LLM)، مانند توهم، نقض حریم خصوصی داده‌ها، و پتانسیل مدل‌ها برای تولید محتوای مضر تردید دارند.

یکی از دشوارترین چالش‌های پیش روی پذیرش LLM، مشخص کردن مدل پاسخ مضر است، اما IBM معتقد است که می‌تواند به بهبود وضعیت برای شرکت‌ها در همه جا کمک کند.

در یک رویداد در زوریخ، الیزابت دالی، مدیر تحقیقات STSM، گروه هوش مصنوعی تعاملی IBM Research Europe، تاکید کرد که این شرکت به دنبال توسعه هوش مصنوعی است که توسعه‌دهندگان بتوانند به آن اعتماد کنند و خاطرنشان کرد: «اندازه‌گیری و کمیت کردن کلیک‌ها آسان است، اینطور نیست. اندازه‌گیری و کمی کردن محتوای مضر بسیار آسان است.»

تشخیص، کنترل، حسابرسی

سیاست های عمومی حاکمیتی برای کنترل LLM کافی نیست، بنابراین IBM به دنبال توسعه LLMS برای استفاده از قانون، استانداردهای شرکتی و حاکمیت داخلی هر شرکت به عنوان مکانیزم کنترل است – اجازه می دهد حاکمیت فراتر از استانداردهای شرکتی رفته و اخلاق فردی را در خود بگنجاند. هنجارهای اجتماعی کشور، منطقه یا صنعتی که در آن استفاده می شود.

این اسناد می‌توانند زمینه یک LLM را فراهم کنند، و می‌توانند برای «پاداش» یک LLM برای مرتبط ماندن با وظیفه فعلی‌اش استفاده شوند. این اجازه می دهد تا سطح نوآورانه ای از تنظیم دقیق در تعیین زمانی که هوش مصنوعی محتوای مضری را تولید می کند که ممکن است هنجارهای اجتماعی یک منطقه را نقض کند، و حتی می تواند به هوش مصنوعی اجازه دهد تشخیص دهد که آیا خروجی های خود می تواند مضر شناخته شود یا خیر.

علاوه بر این، IBM در توسعه LLM های خود بر روی داده هایی که قابل اعتماد هستند، دقیق بوده و برای سوگیری های احتمالی در هر سطح را شناسایی، کنترل و ممیزی می کند، و مکانیسم های تشخیص را در هر مرحله از خط لوله پیاده سازی کرده است. این در تضاد کامل با مدل‌های فونداسیون خارج از قفسه است که معمولاً بر روی داده‌های بایاس آموزش داده می‌شوند و حتی اگر بعداً این داده‌ها حذف شوند، سوگیری‌ها می‌توانند دوباره ظاهر شوند.

قانون پیشنهادی هوش مصنوعی اتحادیه اروپا، حکمرانی هوش مصنوعی را با اهداف کاربرانش مرتبط می‌کند، و IBM بیان می‌کند که استفاده بخش اساسی از نحوه حاکمیت بر مدل خود است، زیرا برخی از کاربران ممکن است از هوش مصنوعی آن برای کارهای خلاصه‌سازی استفاده کنند، و برخی دیگر ممکن است از آن استفاده کنند. آن را برای وظایف طبقه بندی. دالی بیان می کند که استفاده از این رو در مدل حاکمیت IBM “شهروند درجه یک” است.

بیشتر از TechRadar Pro


منبع: https://www.techradar.com/pro/defining-fairness-how-ibm-is-tackling-ai-governance

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *