تصاویر هوش مصنوعی «ناامن» به صورت آنلاین تکثیر می‌شوند. مطالعه ۳ راه برای مهار این بلا را پیشنهاد می کند

در طول سال گذشته، هوش مصنوعی مولدهای تصویر دنیا را طوفان کرده اند. هک، حتی نویسندگان برجسته ما در TNW هر از گاهی از آنها استفاده می کنند.

حقیقت این است که ابزار مانند انتشار پایدار، انتشار پنهان یا DALL·E می تواند برای تولید تصاویر منحصر به فرد از اعلان های ساده بسیار مفید باشد – مانند این تصویر ایلان ماسک سوار بر اسب شاخدار.

اما این همه سرگرمی و بازی نیست. کاربران این مدل‌های هوش مصنوعی می‌توانند به همین راحتی تصاویر نفرت‌انگیز، غیرانسانی و پورنوگرافیک را با کلیک یک دکمه ایجاد کنند – بدون هیچ عواقبی.

“مردم از این ابزارهای هوش مصنوعی برای ترسیم انواع تصاویر استفاده می کنند، که ذاتاً یک خطر است.”محقق کمک ییینگ کو از مرکز امنیت اطلاعات هلمهولتز CISPA در آلمان. او تاکید کرد، وقتی تصاویر مزاحم یا واضح در پلتفرم‌های رسانه‌های اصلی به اشتراک گذاشته می‌شوند، مسائل به‌ویژه مشکل‌ساز می‌شوند.

<3 تکنولوژی اتحادیه اروپا

آخرین اخبار از صحنه فناوری اتحادیه اروپا، داستانی از بنیانگذار پیر خردمند ما، بوریس، و برخی هنرهای مشکوک هوش مصنوعی. هر هفته در صندوق ورودی شما رایگان است. ثبت نام کن!

در حالی که این خطرات کاملاً آشکار به نظر می رسند، تاکنون تحقیقات کمی برای تعیین کمیت خطرات و ایجاد نرده های محافظ ایمن برای استفاده از آنها انجام شده است. “در حال حاضر، حتی یک تعریف جهانی در آن وجود ندارد جامعه پژوهشی از آنچه که یک تصویر ناامن است و نیست، گفت.

برای روشن کردن موضوع، کو و تیمش مورد بررسی قرار گرفت محبوب‌ترین تولیدکننده‌های تصویر هوش مصنوعی، رواج تصاویر ناامن در این پلتفرم‌ها و سه راه برای جلوگیری از ایجاد و پخش آنلاین آنها.

محققان چهار مولد تصویر برجسته هوش مصنوعی را با اعلان‌های متنی از منابع معروف به محتوای ناامن مانند پلتفرم راست افراطی ۴chan تغذیه کردند. به طور تکان دهنده، ۱۴٫۵۶٪ از تصاویر تولید شده به عنوان “ناامن” طبقه بندی شدند و Stable Diffusion با ۱۸٫۹۲٪ بالاترین درصد را تولید کرد. اینها شامل تصاویری با محتوای صریح جنسی، خشونت آمیز، آزاردهنده، نفرت انگیز یا سیاسی است.

ایجاد پادمان

این واقعیت که بسیاری از تصاویر نامشخص در مطالعه Qu تولید شده اند نشان می دهد که فیلترهای موجود کار خود را به اندازه کافی انجام نمی دهند. این محقق فیلتر خود را توسعه داد که در مقایسه با نرخ ضربه بسیار بالاتری را کسب می کند، اما تعدادی راه های دیگر را برای مهار تهدید پیشنهاد می کند.

او گفت که یکی از راه‌های جلوگیری از گسترش تصاویر غیرانسانی، برنامه‌ریزی تولیدکنندگان تصویر هوش مصنوعی است که در وهله اول این تصاویر را تولید نکنند. اساساً، اگر مدل‌های هوش مصنوعی روی تصاویر ناامن آموزش ندیده باشند، نمی‌توانند آن‌ها را تکرار کنند.

فراتر از آن، Qu توصیه می کند کلمات ناامن را از عملکرد جستجو مسدود کنید، به طوری که کاربران نتوانند پیام هایی را که تصاویر مضر تولید می کنند، جمع آوری کنند. او گفت: برای آن تصاویری که در حال حاضر منتشر شده اند، “باید راهی برای طبقه بندی آنها و حذف آنها به صورت آنلاین وجود داشته باشد.”

با همه این اقدامات، چالش یافتن تعادل مناسب است. کو گفت: «باید بین آزادی و امنیت محتوا یک مبادله وجود داشته باشد. اما وقتی نوبت به جلوگیری از انتشار گسترده این تصاویر در پلتفرم‌های اصلی می‌شود، فکر می‌کنم مقررات سختگیرانه منطقی است.»

جدا از تولید محتوای مضر، سازندگان نرم‌افزار تبدیل متن به تصویر هوش مصنوعی به دلیل طیف وسیعی از مسائل مورد انتقاد قرار گرفته‌اند. سرقت آثار هنرمندان و تقویت کلیشه های خطرناک جنسیتی و نژادی.

در حالی که ابتکاراتی مانند نشست ایمنی هوش مصنوعی، که در این ماه در بریتانیا برگزار شد، با هدف ایجاد نرده‌های محافظ برای این فناوری است. منتقدان ادعا می‌کنند که شرکت‌های بزرگ فناوری بر مذاکرات نفوذ زیادی دارند. چه این درست باشد یا نه، واقعیت این است که در حال حاضر، مدیریت صحیح و ایمن هوش مصنوعی در بهترین حالت ناهموار است و کاملاً هشدار دهنده در بدترین حالت


منبع: https://thenextweb.com/news/ai-generated-images-pose-safety-risk

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *