طبق گزارش‌ها، اینستاگرام Reels محتوای جنسی را به کاربرانی که فقط کودکان را دنبال می‌کنند نشان می‌دهد

چند روز سخت گذشت متا. ابتدا غول فناوری متهم شد هدف قرار دادن عمدی کودکان زیر ۱۳ سال برای استفاده از پلتفرم های آن. سپس به نظر می رسید رد تبلیغات محصولات مراقبت دوره بر این اساس که آنها «بالغ» و «سیاسی» بودند. اکنون با اتهاماتی مواجه است که اینستاگرامالگوریتم Reels محتوای جنسی آشکار را به حساب‌هایی که فقط کودکان را دنبال می‌کنند ارائه می‌کند – و همچنین تبلیغات برای مارک‌های بزرگ در کنار آنها. به طور کلی، ظاهر خوبی نیست.

در گزارشی جدید از روزنامه وال استریتاین نشریه الگوریتم اینستاگرام را با ایجاد حساب‌هایی آزمایش کرد که فقط از «ژیمناست‌های جوان، تشویق‌کننده‌ها و سایر اینفلوئنسرهای نوجوان و پیش‌نوجوان» پیروی می‌کردند – محتوایی که شامل کودکان بود و فاقد هرگونه مفهوم جنسی بود. با این حال، مجلهآزمایش نشان داد که متا TikTok متعاقباً رقیب محتوای جنسی را به حساب‌های آزمایشی خود توصیه کرد، از جمله ویدیوهای تحریک‌آمیز بزرگسالان و «فیلم خطرناک کودکان».

را مجله علاوه بر این، دریافتند که کاربران کودک مانند آنهایی که حساب‌های آزمایشی آن دنبال می‌شوند، اغلب توسط حساب‌های متعلق به مردان بزرگسال دنبال می‌شوند. به نظر می‌رسد که دنبال کردن چنین حساب‌هایی باعث می‌شود که الگوریتم اینستاگرام «محتوای مزاحم‌تر» را به آن نشان دهد.

همه اینها به اندازه کافی بد هستند، اما برای متا بدتر می شوند. این گزارش همچنین نشان داد که حلقه های اینستاگرام تبلیغاتی را برای شرکت هایی مانند دیزنی، والمارتکلبه پیتزا، بامبل، گروه مسابقهو حتی مجله خودش در کنار چنین محتوای جنسی ناخواسته و الگوریتمی ارائه شده است.

در پاسخ، شرکت‌های برنامه دوستیابی Bumble و Match Group هر دو تبلیغات در اینستاگرام را به حالت تعلیق درآورده‌اند و مخالف قرار دادن برندهای خود در کنار محتوای نامناسب هستند.

به گفته سامانتا استتسون از متا، مجلهنتایج آزمایش “بر اساس یک تجربه تولید شده است که نشان دهنده چیزی نیست که میلیاردها نفر در سراسر جهان می بینند.” نایب رئیس شورای مشتری و روابط بازرگانی صنعت متا اظهار داشت که بیش از چهار میلیون قرقره هر ماه به دلیل نقض سیاست های آن حذف می شود. یکی از سخنگویان متا همچنین خاطرنشان کرد که مواردی از محتوایی که خط‌مشی‌های آن را نقض می‌کند نسبتاً کم است.

ما نمی‌خواهیم این نوع محتوا در پلت‌فرم‌هایمان باشد و برندها نمی‌خواهند تبلیغاتشان در کنار آن ظاهر شود. ما به سرمایه‌گذاری تهاجمی برای متوقف کردن آن ادامه می‌دهیم – و هر سه ماه یکبار در مورد شیوع چنین محتوایی گزارش می‌کنیم، که همچنان بسیار باقی می‌ماند. استتسون در بیانیه ای به Mashable گفت. سیستم‌های ما در کاهش محتوای مضر مؤثر هستند و میلیاردها دلار در راه‌حل‌های ایمنی، امنیت و مناسب بودن برند سرمایه‌گذاری کرده‌ایم.»

اوایل امسال متا ابزار هوش مصنوعی طراحی کرد تا تعیین کند آیا محتوا با سیاست‌های درآمدزایی آن مطابقت دارد یا خیر، طبقه بندی آن به دسته های مناسب و غیرفعال کردن تبلیغات اگر خارج از همه آنها باشد. این ابزار در ماه اکتبر به Reels گسترش یافت.

چند هفته سخت است که برندهایی که سعی در تبلیغ در رسانه های اجتماعی دارند. در اوایل این ماه تبلیغ کنندگان بزرگی مانند سیب و IBM از Twitter/X فرار کرد بعد از مالک ایلان ماسک از یک توطئه ضد یهود حمایت کردو گزارش Media Matters آن را پیدا کرد تبلیغات نمایش داده شده در کنار محتوای نازی.

Twitter/X همان استدلالی را مطرح کرد که متا اکنون در حال افزایش است، یعنی آزمایش‌هایی که منجر به نمایش محتوای نامناسب در کنار تبلیغ‌کنندگان شد، «تولید شده‌اند». با این حال، درست مانند مورد توییتر/X، موضوع کمتر به این است که چند نفر آن را دیدند یا چگونه رخ داد، و بیشتر در مورد اینکه اصلاً ممکن است اتفاق بیفتد.

حلقه‌های اینستاگرام نیز با مشکل توییتر/X تفاوت دارد زیرا در آزمایش Media Matters، حساب‌هایی را دنبال می‌کرد که «محتوای حاشیه‌ای شدید» را ارسال می‌کردند. مجله فقط ورزشکاران جوان و اینفلوئنسرها را دنبال می کرد. به نظر می رسید محتوای جنسی ارائه شده کاملاً به دلیل استنباط هایی است که توسط الگوریتم اینستاگرام تهیه شده است.

به این ترتیب، به نظر می رسد که الگوریتم مذکور می تواند با برخی تنظیمات قابل توجه انجام دهد.

موضوعات
اینستاگرام
متا


منبع: https://mashable.com/article/instagram-reels-meta-algorithm-children-sexual-ads

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *