بر اساس یافته های این مطالعه، تولیدکنندگان تصویر هوش مصنوعی در مورد کودک آزاری، سایر محتوای پدوفیلی آموزش می بینند

در تحقیقات اخیر، مشخص شده است که تولیدکننده‌های تصویر هوش مصنوعی که به طور گسترده مورد استفاده قرار می‌گیرند، یک نقص نگران‌کننده را پنهان می‌کنند – هزاران تصویر که آزار جنسی کودکان را نشان می‌دهد.

یافته‌های نگران‌کننده از گزارشی که توسط رصدخانه اینترنت استنفورد منتشر شده است، به دست می‌آید که از شرکت‌ها می‌خواهد این مشکل نگران‌کننده را در فناوری توسعه‌یافته خود حل و فصل کنند.

این گزارش نشان می‌دهد که این سیستم‌های هوش مصنوعی که با تصاویری از استثمار کودکان تثبیت شده‌اند، نه تنها محتوای صریح با کودکان جعلی تولید می‌کنند، بلکه می‌توانند عکس‌های نوجوانان کاملاً پوشیده را به چیزی نامناسب تبدیل کنند.

تا به حال، محققان ضد سوء استفاده فرض می‌کردند که ابزارهای هوش مصنوعی که تصاویر توهین‌آمیز تولید می‌کنند، اطلاعات پورنوگرافی بزرگسالان و تصاویر بی‌ضرر کودکان را با جمع‌آوری آن‌ها از مکان‌های دیگر در اینترنت ترکیب می‌کنند. با این حال، رصدخانه اینترنتی استانفورد بیش از ۳۲۰۰ تصویر از سوء استفاده جنسی مشکوک به کودکان را در خود پایگاه داده LAION AI کشف کرد.

LAION، فهرست عظیمی از تصاویر و زیرنویس‌های آنلاین، برای آموزش مدل‌های برجسته ساخت تصویر هوش مصنوعی، مانند Stable Diffusion استفاده می‌شود.

در پاسخ به این گزارش، LAION به طور موقت مجموعه داده های خود را حذف کرده است. این سازمان بر سیاست تحمل صفر برای محتوای غیرقانونی تاکید می کند و بیان می کند که حذف یک اقدام احتیاطی برای اطمینان از ایمنی مجموعه داده ها قبل از انتشار مجدد آنها است.

اگرچه این تصاویر مشکل ساز کسری از شاخص وسیع ۵٫۸ میلیارد تصویر LAION را تشکیل می دهند، گروه استنفورد استدلال می کند که احتمالاً بر توانایی ابزارهای هوش مصنوعی برای تولید خروجی های مضر تأثیر می گذارد.

علاوه بر این، این گزارش نشان می دهد که وجود این تصاویر باعث تقویت سوء استفاده قبلی از قربانیان واقعی می شود که ممکن است چندین بار ظاهر شوند.

این گزارش چالش های موجود در پرداختن به این موضوع را برجسته می کند و آن را به توسعه شتابزده و دسترسی گسترده به بسیاری از پروژه های هوش مصنوعی مولد به دلیل رقابت شدید در این زمینه نسبت می دهد.

رصدخانه اینترنت استنفورد خواستار توجه جدی تر برای جلوگیری از گنجاندن غیرعمدی محتوای غیرقانونی در مجموعه داده های آموزشی هوش مصنوعی است.

Stability AI، یکی از کاربران برجسته LAION، این مشکل را تصدیق کرده و تاکید می کند که اقدامات پیشگیرانه ای را برای کاهش خطر سوء استفاده انجام داده است. با این حال، نسخه قدیمی‌تر Stable Diffusion، که به عنوان محبوب‌ترین مدل برای تولید تصاویر واضح شناخته می‌شود، همچنان در گردش است.

گزارش استنفورد خواستار اقدامات شدیدی از جمله حذف مجموعه‌های آموزشی مشتق شده از LAION و ناپدید شدن نسخه‌های قدیمی‌تر مدل‌های هوش مصنوعی مرتبط با محتوای صریح است. همچنین از پلتفرم‌هایی مانند CivitAI و Hugging Face می‌خواهد تا مکانیسم‌های حفاظتی و گزارش بهتری را برای جلوگیری از تولید و توزیع تصاویر توهین‌آمیز اجرا کنند.

در پاسخ به این یافته‌ها، از شرکت‌های فناوری و گروه‌های ایمنی کودکان خواسته می‌شود اقداماتی مشابه اقداماتی که برای ردیابی و حذف مواد کودک آزاری در فیلم‌ها و تصاویر استفاده می‌شود، اتخاذ کنند. این گزارش پیشنهاد می‌کند که امضاهای دیجیتال یا «هش» منحصربه‌فردی را به مدل‌های هوش مصنوعی اختصاص دهید تا موارد سوء استفاده را ردیابی و حذف کنید.

در حالی که شیوع تصاویر تولید شده توسط هوش مصنوعی در بین سوء استفاده کنندگان در حال حاضر اندک است، گزارش استنفورد بر نیاز توسعه دهندگان برای اطمینان از عاری بودن مجموعه داده هایشان از مواد سوء استفاده کننده و تلاش های مداوم برای کاهش استفاده های مضر با رواج مدل های هوش مصنوعی تاکید می کند.

(با ورودی های نمایندگی ها)


منبع: https://www.firstpost.com/tech/ai-image-generators-are-being-trained-on-child-abuse-other-paedophile-content-content-finds-study-13534912.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *