مولد تصویر هوش مصنوعی Stable Diffusion (AI) به دلیل تداوم کلیشه های مضر نژادی و جنسیتی مورد بررسی دقیق دانشمندان آمریکایی در دانشگاه واشنگتن (UW) قرار گرفته است.
محققان دریافتند زمانی که ژنراتور برای تولید تصاویری از افراد از مناطق خاص مانند “شخصی از اقیانوسیه” خواسته شد، نتوانست به طور عادلانه مردم بومی را نشان دهد.
به طور قابلتوجهی، تمایل داشت تصاویر زنان از برخی از کشورهای آمریکای لاتین (کلمبیا، ونزوئلا، پرو) و همچنین مکزیک، هند و مصر را جنسیسازی کند.
این یافتهها که در سرور پیشچاپ arXiv موجود است، قرار است در کنفرانس روشهای تجربی در پردازش زبان طبیعی در سنگاپور در سال ۲۰۲۳ از ۶ تا ۱۰ دسامبر ارائه شوند.
Sourojit Ghosh، دانشجوی دکترای UW در بخش طراحی و مهندسی انسان محور، بر آسیب احتمالی ناشی از سیستمهایی مانند Stable Diffusion تأکید کرد و پاک کردن تقریباً کامل هویتهای غیردودویی و بومی را برجسته کرد.
Ghosh گفت: «این مهم است که بدانیم سیستمهایی مانند Stable Diffusion نتایجی را تولید میکنند که میتواند باعث آسیب شود.
برای مثال، یک فرد بومی که به نمایندگی Stable Diffusion از مردم استرالیا نگاه میکند، نمیتواند هویت خود را بازنمایی کند – این میتواند مضر باشد و کلیشههای سفیدپوستان مهاجر-استعماری را که بیشتر «استرالیایی» هستند تا بومیها و پوستهای تیرهتر، تداوم بخشد. قوش گفت.
محققان مطالعه ای را با دستور Stable Diffusion برای تولید ۵۰ تصویر از یک “عکس روبروی یک فرد” و اعلان های مختلف برای نمایش قاره ها و کشورهای مختلف انجام دادند.
تجزیه و تحلیل محاسباتی، همراه با تأیید دستی، نشان داد که تصاویر یک «شخص» بیشترین ارتباط را با مردان، افرادی از اروپا و آمریکای شمالی دارد، در حالی که کمترین تناظر را با افراد غیر دودویی و افرادی از آفریقا و آسیا نشان میدهد.
بعلاوه، مشخص شد که این ژنراتور زنان رنگین پوست، به ویژه آنهایی را که از کشورهای آمریکای لاتین هستند، جنسی می کند. این تیم از یک آشکارساز غیر ایمن برای کار (NSFW) برای ارزیابی جنسیت استفاده کردند، به طوری که زنان ونزوئلا در مقایسه با زنان ژاپنی و بریتانیایی نمرات “سکسی” بالاتری دریافت کردند.
(با ورودی های نمایندگی ها)
منبع: https://www.firstpost.com/tech/racist-ai-image-generator-stable-diffusion-tainted-with-racial-gendered-stereotypes-finds-study-13453332.html