در طول سال گذشته، هوش مصنوعی مولدهای تصویر دنیا را طوفان کرده اند. هک، حتی نویسندگان برجسته ما در TNW هر از گاهی از آنها استفاده می کنند.
حقیقت این است که ابزار مانند انتشار پایدار، انتشار پنهان یا DALL·E می تواند برای تولید تصاویر منحصر به فرد از اعلان های ساده بسیار مفید باشد – مانند این تصویر ایلان ماسک سوار بر اسب شاخدار.
اما این همه سرگرمی و بازی نیست. کاربران این مدلهای هوش مصنوعی میتوانند به همین راحتی تصاویر نفرتانگیز، غیرانسانی و پورنوگرافیک را با کلیک یک دکمه ایجاد کنند – بدون هیچ عواقبی.
“مردم از این ابزارهای هوش مصنوعی برای ترسیم انواع تصاویر استفاده می کنند، که ذاتاً یک خطر است.”محقق کمک ییینگ کو از مرکز امنیت اطلاعات هلمهولتز CISPA در آلمان. او تاکید کرد، وقتی تصاویر مزاحم یا واضح در پلتفرمهای رسانههای اصلی به اشتراک گذاشته میشوند، مسائل بهویژه مشکلساز میشوند.
در حالی که این خطرات کاملاً آشکار به نظر می رسند، تاکنون تحقیقات کمی برای تعیین کمیت خطرات و ایجاد نرده های محافظ ایمن برای استفاده از آنها انجام شده است. “در حال حاضر، حتی یک تعریف جهانی در آن وجود ندارد جامعه پژوهشی از آنچه که یک تصویر ناامن است و نیست، گفت.
برای روشن کردن موضوع، کو و تیمش مورد بررسی قرار گرفت محبوبترین تولیدکنندههای تصویر هوش مصنوعی، رواج تصاویر ناامن در این پلتفرمها و سه راه برای جلوگیری از ایجاد و پخش آنلاین آنها.
محققان چهار مولد تصویر برجسته هوش مصنوعی را با اعلانهای متنی از منابع معروف به محتوای ناامن مانند پلتفرم راست افراطی ۴chan تغذیه کردند. به طور تکان دهنده، ۱۴٫۵۶٪ از تصاویر تولید شده به عنوان “ناامن” طبقه بندی شدند و Stable Diffusion با ۱۸٫۹۲٪ بالاترین درصد را تولید کرد. اینها شامل تصاویری با محتوای صریح جنسی، خشونت آمیز، آزاردهنده، نفرت انگیز یا سیاسی است.
ایجاد پادمان
این واقعیت که بسیاری از تصاویر نامشخص در مطالعه Qu تولید شده اند نشان می دهد که فیلترهای موجود کار خود را به اندازه کافی انجام نمی دهند. این محقق فیلتر خود را توسعه داد که در مقایسه با نرخ ضربه بسیار بالاتری را کسب می کند، اما تعدادی راه های دیگر را برای مهار تهدید پیشنهاد می کند.
او گفت که یکی از راههای جلوگیری از گسترش تصاویر غیرانسانی، برنامهریزی تولیدکنندگان تصویر هوش مصنوعی است که در وهله اول این تصاویر را تولید نکنند. اساساً، اگر مدلهای هوش مصنوعی روی تصاویر ناامن آموزش ندیده باشند، نمیتوانند آنها را تکرار کنند.
فراتر از آن، Qu توصیه می کند کلمات ناامن را از عملکرد جستجو مسدود کنید، به طوری که کاربران نتوانند پیام هایی را که تصاویر مضر تولید می کنند، جمع آوری کنند. او گفت: برای آن تصاویری که در حال حاضر منتشر شده اند، “باید راهی برای طبقه بندی آنها و حذف آنها به صورت آنلاین وجود داشته باشد.”
با همه این اقدامات، چالش یافتن تعادل مناسب است. کو گفت: «باید بین آزادی و امنیت محتوا یک مبادله وجود داشته باشد. اما وقتی نوبت به جلوگیری از انتشار گسترده این تصاویر در پلتفرمهای اصلی میشود، فکر میکنم مقررات سختگیرانه منطقی است.»
جدا از تولید محتوای مضر، سازندگان نرمافزار تبدیل متن به تصویر هوش مصنوعی به دلیل طیف وسیعی از مسائل مورد انتقاد قرار گرفتهاند. سرقت آثار هنرمندان و تقویت کلیشه های خطرناک جنسیتی و نژادی.
در حالی که ابتکاراتی مانند نشست ایمنی هوش مصنوعی، که در این ماه در بریتانیا برگزار شد، با هدف ایجاد نردههای محافظ برای این فناوری است. منتقدان ادعا میکنند که شرکتهای بزرگ فناوری بر مذاکرات نفوذ زیادی دارند. چه این درست باشد یا نه، واقعیت این است که در حال حاضر، مدیریت صحیح و ایمن هوش مصنوعی در بهترین حالت ناهموار است و کاملاً هشدار دهنده در بدترین حالت
منبع: https://thenextweb.com/news/ai-generated-images-pose-safety-risk