در اوایل سال جاری، واتساپ متعلق به متا شروع به آزمایش ویژگی جدیدی کرد که به کاربران اجازه میدهد تا بر اساس توضیحات متنی با استفاده از هوش مصنوعی استیکر تولید کنند. هنگامی که کاربران «فلسطینی»، «فلسطین» یا «پسر مسلمان فلسطین» را جستجو میکنند، این ویژگی عکس یک اسلحه یا پسری با تفنگ را برمیگرداند. گزارشی از روزنامه گاردین نشان می دهد.
مطابق با روزنامه گاردیندر گزارش جمعه، نتایج جستجو بسته به اینکه کدام کاربر جستجو می کند متفاوت است. با این حال، درخواستهای «پسر اسرائیلی» برچسبهایی از کودکان در حال بازی و خواندن ایجاد کرد، و حتی درخواستهای «ارتش اسرائیل» عکسهایی از افراد با سلاح تولید نکرد. این در مقایسه با تصاویر تولید شده از جستجوهای فلسطینی، نگران کننده است. فردی با علم به بحث هایی که روزنامه گاردین بدون نام به این خبرگزاری گفت که کارمندان متا موضوع را در داخل گزارش کرده و تشدید کرده اند.
یکی از سخنگویان متا در بیانیه ای به Mashable گفت: “ما از این موضوع آگاه هستیم و در حال رسیدگی به آن هستیم.” همانطور که گفتیم هنگام راهاندازی این ویژگی، مدلها میتوانند خروجیهای نادرست یا نامناسب را مانند تمام سیستمهای هوش مصنوعی مولد ارائه دهند. ما به بهبود این ویژگیها با تکامل آنها ادامه خواهیم داد و افراد بیشتری بازخورد خود را به اشتراک میگذارند.»
مشخص نیست که چه مدت این اختلافات مشاهده شده است روزنامه گاردین ادامه یابد، یا اگر این اختلافات همچنان ادامه داشته باشد. برای مثال، وقتی اکنون «فلسطینی» را جستجو میکنم، در جستجو برچسبی از شخصی که گل در دست دارد، فردی خندان با پیراهنی که شبیه «فلسطینی» است، یک جوان و یک فرد میانسال را نشان میدهد. وقتی «فلسطین» را جستوجو کردم، نتایج یک جوان در حال دویدن، یک تابلوی صلح بر فراز پرچم فلسطین، یک جوان غمگین و دو بچه بیچهره را نشان داد که دست در دست هم گرفته بودند. وقتی «پسر مسلمان فلسطینی» را جستجو می کنید، جستجو چهار پسر جوان خندان را نشان می دهد. وقتی «اسرائیل»، «اسرائیل» یا «پسر یهودی اسرائیلی» را جستجو کردم، نتایج مشابهی نشان داده میشود. Mashable چندین کاربر داشت که کلمات مشابهی را جستجو می کردند و در حالی که نتایج متفاوت بود، هیچ یک از تصاویر حاصل از جستجوهای «فلسطینی»، «فلسطین»، «پسربچه مسلمان فلسطینی»، «اسرائیل»، «اسرائیل» یا «پسر یهودی اسرائیلی» نبود. “به برچسب های هوش مصنوعی با هر سلاحی منجر شد.
اگرچه هنوز تفاوت هایی وجود دارد. به عنوان مثال، وقتی «ارتش فلسطین» را جستجو میکنم، یک تصویر فردی را نشان میدهد که اسلحهای را در یونیفورم در دست دارد، در حالی که سه نفر دیگر فقط افرادی هستند که یونیفورم به تن دارند. وقتی «ارتش اسرائیل» را جستوجو میکنم، جستوجو سه نفر را با لباس نظامی و یک نفر را با یونیفورم در حال رانندگی یک خودروی نظامی بازمیگرداند. جستجوی “حماس” هیچ برچسب هوش مصنوعی را برنمیگرداند. باز هم، هر جستجو بسته به شخصی که جستجو می کند متفاوت خواهد بود.
این در زمانی اتفاق می افتد که گفته می شود متا مورد انتقاد قرار گرفته است shadowbanning محتوای طرفدار فلسطین، قفل کردن حساب های طرفدار فلسطینو افزودن “تروریست” به بیوگرافی فلسطین. سایر سیستمهای هوش مصنوعی، از جمله Google Bard و ChatGPT نیز چنین هستند نشانه های قابل توجهی از جانبداری در مورد اسرائیل و فلسطین نشان داد.
موضوعات
برنامه ها و نرم افزارها
واتس اپ
متا
منبع: https://mashable.com/article/whatsapps-ai-generated-sticker-palestine