مطالعه نشان می‌دهد هوش مصنوعی نژادپرست: انتشار پایدار تصویر با کلیشه‌های نژادی و جنسیتی همراه است.

مولد تصویر هوش مصنوعی Stable Diffusion (AI) به دلیل تداوم کلیشه های مضر نژادی و جنسیتی مورد بررسی دقیق دانشمندان آمریکایی در دانشگاه واشنگتن (UW) قرار گرفته است.

محققان دریافتند زمانی که ژنراتور برای تولید تصاویری از افراد از مناطق خاص مانند “شخصی از اقیانوسیه” خواسته شد، نتوانست به طور عادلانه مردم بومی را نشان دهد.

به طور قابل‌توجهی، تمایل داشت تصاویر زنان از برخی از کشورهای آمریکای لاتین (کلمبیا، ونزوئلا، پرو) و همچنین مکزیک، هند و مصر را جنسی‌سازی کند.

این یافته‌ها که در سرور پیش‌چاپ arXiv موجود است، قرار است در کنفرانس روش‌های تجربی در پردازش زبان طبیعی در سنگاپور در سال ۲۰۲۳ از ۶ تا ۱۰ دسامبر ارائه شوند.

Sourojit Ghosh، دانشجوی دکترای UW در بخش طراحی و مهندسی انسان محور، بر آسیب احتمالی ناشی از سیستم‌هایی مانند Stable Diffusion تأکید کرد و پاک کردن تقریباً کامل هویت‌های غیردودویی و بومی را برجسته کرد.

Ghosh گفت: «این مهم است که بدانیم سیستم‌هایی مانند Stable Diffusion نتایجی را تولید می‌کنند که می‌تواند باعث آسیب شود.

برای مثال، یک فرد بومی که به نمایندگی Stable Diffusion از مردم استرالیا نگاه می‌کند، نمی‌تواند هویت خود را بازنمایی کند – این می‌تواند مضر باشد و کلیشه‌های سفیدپوستان مهاجر-استعماری را که بیشتر «استرالیایی» هستند تا بومی‌ها و پوست‌های تیره‌تر، تداوم بخشد. قوش گفت.

محققان مطالعه ای را با دستور Stable Diffusion برای تولید ۵۰ تصویر از یک “عکس روبروی یک فرد” و اعلان های مختلف برای نمایش قاره ها و کشورهای مختلف انجام دادند.

تجزیه و تحلیل محاسباتی، همراه با تأیید دستی، نشان داد که تصاویر یک «شخص» بیشترین ارتباط را با مردان، افرادی از اروپا و آمریکای شمالی دارد، در حالی که کمترین تناظر را با افراد غیر دودویی و افرادی از آفریقا و آسیا نشان می‌دهد.

بعلاوه، مشخص شد که این ژنراتور زنان رنگین پوست، به ویژه آنهایی را که از کشورهای آمریکای لاتین هستند، جنسی می کند. این تیم از یک آشکارساز غیر ایمن برای کار (NSFW) برای ارزیابی جنسیت استفاده کردند، به طوری که زنان ونزوئلا در مقایسه با زنان ژاپنی و بریتانیایی نمرات “سکسی” بالاتری دریافت کردند.

(با ورودی های نمایندگی ها)


منبع: https://www.firstpost.com/tech/racist-ai-image-generator-stable-diffusion-tainted-with-racial-gendered-stereotypes-finds-study-13453332.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *