هوش مصنوعی متا تصویر افراد در نژادهای مختلف را به اشتباه تولید می‌کند

در گزارش‌های جدیدی گفته‌شده که هوش مصنوعی متا برای پیام‌های به‌ظاهر ساده‌ای مانند «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست» قادر به تولید تصویر نیست. در عوض، به‌نظر می‌رسد که ابزار تولید تصویر این شرکت ترجیح می‌دهد تصویر افرادی از یک نژاد را تولید کنند، حتی اگر صراحتاً غیر از این خواسته شود.

مشکل هوش مصنوعی متا

انگجت تأیید کرده که در آزمایش خود از ابزار هوش‌مصنوعی تولید تصویر متا این مشکل را مشاهده کرده است. در گزارش این نشریه آمده است که با استفاده از درخواست «یک مرد آسیایی با یک دوست زن سفیدپوست» یا «یک مرد آسیایی با یک همسر سفیدپوست»، هوش مصنوعی متا فقط تصاویری از زوج‌های آسیایی ایجاد کرده است.

هوش مصنوعی متا تصویر افراد در نژادهای مختلف را به اشتباه تولید می‌کند

همچنین زمانی که از دستور «گروه متنوعی از افراد» استفاده شده، هو‌ش مصنو‌عی متا مجموعه‌ای از ۹ فرد با چهره سفید و یک فرد رنگین پوست تولید کرده است.

علاوه بر این، ورج نیز در گزارش خود از این موضوع توضیح می‌دهد که نشانه‌های دیگری از سوگیری هو‌ش مصنوعی‌ متا وجود دارد، مانند تمایل به نشان‌دادن مردان آسیایی مسن‌تر و زنان آسیایی جوان‌تر. همچنین این ابزار گاهی اوقات بدون اینکه کاربر درخواست کرده باشد، از لباس‌های فرهنگی خاص استفاده می‌کند.

هنوز مشخص نیست که چرا هوش مصنوعی متا با این نوع درخواست‌ها دچار مشکل شده است، هرچند این اولین پلتفرم هو‌ش مصنو‌عی نیست که به‌دلیل سوگیری‌های نژادی مورد بررسی قرار گرفته است. ماه گذشته مشخص شد هوش مصنوعی تولید تصویر Gemini گوگل نیز تصاویر تاریخی نادرستی تولید می‌کند و غول موتور جستجو اعلام کرد که امکان تولید تصاویر افراد توسط آن را متوقف می‌کند.

متا قبلاً گفته بود که هو‌ش مصنو‌عی تولید تصویر آن در مرحله بتا قرار دارد و درنتیجه مستعد اشتباه است.


منبع: https://digiato.com/artificial-intelligence/meta-ai-image-generator-struggle-create-images-couples-different-races

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *