واتس اپ به دلیل پاسخ استیکرهای تولید شده توسط هوش مصنوعی به «فلسطین» مورد انتقاد قرار گرفت

در اوایل سال جاری، واتس‌اپ متعلق به متا شروع به آزمایش ویژگی جدیدی کرد که به کاربران اجازه می‌دهد تا بر اساس توضیحات متنی با استفاده از هوش مصنوعی استیکر تولید کنند. هنگامی که کاربران «فلسطینی»، «فلسطین» یا «پسر مسلمان فلسطین» را جستجو می‌کنند، این ویژگی عکس یک اسلحه یا پسری با تفنگ را برمی‌گرداند. گزارشی از روزنامه گاردین نشان می دهد.

مطابق با روزنامه گاردیندر گزارش جمعه، نتایج جستجو بسته به اینکه کدام کاربر جستجو می کند متفاوت است. با این حال، درخواست‌های «پسر اسرائیلی» برچسب‌هایی از کودکان در حال بازی و خواندن ایجاد کرد، و حتی درخواست‌های «ارتش اسرائیل» عکس‌هایی از افراد با سلاح تولید نکرد. این در مقایسه با تصاویر تولید شده از جستجوهای فلسطینی، نگران کننده است. فردی با علم به بحث هایی که روزنامه گاردین بدون نام به این خبرگزاری گفت که کارمندان متا موضوع را در داخل گزارش کرده و تشدید کرده اند.

یکی از سخنگویان متا در بیانیه ای به Mashable گفت: “ما از این موضوع آگاه هستیم و در حال رسیدگی به آن هستیم.” همانطور که گفتیم هنگام راه‌اندازی این ویژگی، مدل‌ها می‌توانند خروجی‌های نادرست یا نامناسب را مانند تمام سیستم‌های هوش مصنوعی مولد ارائه دهند. ما به بهبود این ویژگی‌ها با تکامل آنها ادامه خواهیم داد و افراد بیشتری بازخورد خود را به اشتراک می‌گذارند.»

مشخص نیست که چه مدت این اختلافات مشاهده شده است روزنامه گاردین ادامه یابد، یا اگر این اختلافات همچنان ادامه داشته باشد. برای مثال، وقتی اکنون «فلسطینی» را جستجو می‌کنم، در جستجو برچسبی از شخصی که گل در دست دارد، فردی خندان با پیراهنی که شبیه «فلسطینی» است، یک جوان و یک فرد میانسال را نشان می‌دهد. وقتی «فلسطین» را جست‌وجو کردم، نتایج یک جوان در حال دویدن، یک تابلوی صلح بر فراز پرچم فلسطین، یک جوان غمگین و دو بچه بی‌چهره را نشان داد که دست در دست هم گرفته بودند. وقتی «پسر مسلمان فلسطینی» را جستجو می کنید، جستجو چهار پسر جوان خندان را نشان می دهد. وقتی «اسرائیل»، «اسرائیل» یا «پسر یهودی اسرائیلی» را جستجو کردم، نتایج مشابهی نشان داده می‌شود. Mashable چندین کاربر داشت که کلمات مشابهی را جستجو می کردند و در حالی که نتایج متفاوت بود، هیچ یک از تصاویر حاصل از جستجوهای «فلسطینی»، «فلسطین»، «پسربچه مسلمان فلسطینی»، «اسرائیل»، «اسرائیل» یا «پسر یهودی اسرائیلی» نبود. “به برچسب های هوش مصنوعی با هر سلاحی منجر شد.

اگرچه هنوز تفاوت هایی وجود دارد. به عنوان مثال، وقتی «ارتش فلسطین» را جستجو می‌کنم، یک تصویر فردی را نشان می‌دهد که اسلحه‌ای را در یونیفورم در دست دارد، در حالی که سه نفر دیگر فقط افرادی هستند که یونیفورم به تن دارند. وقتی «ارتش اسرائیل» را جست‌وجو می‌کنم، جست‌وجو سه نفر را با لباس نظامی و یک نفر را با یونیفورم در حال رانندگی یک خودروی نظامی بازمی‌گرداند. جستجوی “حماس” هیچ برچسب هوش مصنوعی را برنمی‌گرداند. باز هم، هر جستجو بسته به شخصی که جستجو می کند متفاوت خواهد بود.

این در زمانی اتفاق می افتد که گفته می شود متا مورد انتقاد قرار گرفته است shadowbanning محتوای طرفدار فلسطین، قفل کردن حساب های طرفدار فلسطینو افزودن “تروریست” به بیوگرافی فلسطین. سایر سیستم‌های هوش مصنوعی، از جمله Google Bard و ChatGPT نیز چنین هستند نشانه های قابل توجهی از جانبداری در مورد اسرائیل و فلسطین نشان داد.


منبع: https://mashable.com/article/whatsapps-ai-generated-sticker-palestine

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *