ابزارهای خودکار متا محتوای جنگ اسرائیل و حماس را که قوانین آن را زیر پا نمی گذاشت، حذف کردند

هیئت نظارت متا تصمیم خود را برای آن منتشر کرده است اولین بررسی تسریع شده، که به جای هفته ها فقط ۱۲ روز طول کشید و بر محتوای پیرامون جنگ اسرائیل و حماس متمرکز شد. هیئت مدیره تصمیم اولیه شرکت را مبنی بر حذف دو قسمت از محتوا از هر دو طرف درگیری لغو کرد. از آنجایی که متا از حرکت بعدی متا برای بازگردانی پست‌ها در فیس‌بوک و اینستاگرام حمایت کرد، انتظار نمی‌رود اقدام دیگری از سوی شرکت انجام شود. با این حال، بررسی هیئت مدیره نشان داد که چگونه اتکای متا به ابزارهای خودکار می تواند مانع از به اشتراک گذاری اطلاعات مهم توسط افراد شود. در این مورد خاص، هیئت متذکر شد که "احتمال حذف پست های ارزشمندی که جهان را در مورد رنج های انسانی در هر دو طرف درگیری در خاورمیانه آگاه می کرد، افزایش داد."

برای اولین بررسی سریع خود، هیئت نظارت تصمیم گرفت دو درخواست تجدیدنظر خاص را بررسی کند که نشان‌دهنده آنچه کاربران در منطقه آسیب‌دیده از زمان حملات ۷ اکتبر ارائه کرده‌اند، هستند. یکی از آنها ویدئویی است که در فیس بوک منتشر شده است از زنی که در حال التماس از دستگیرکنندگانش است که او را نکشند گروگان گرفته شده در جریان حملات تروریستی اولیه به اسرائیل. ویدیوی دیگری که در اینستاگرام منتشر شده است عواقب الف را نشان می دهد اعتصاب به بیمارستان الشفا در غزه در جریان حمله زمینی اسرائیل. فلسطینی های کشته و مجروح از جمله کودکان را نشان می دهد.

بررسی هیئت نشان داد که این دو ویدیو به اشتباه پس از اینکه متا ابزارهای خودکار خود را به گونه‌ای تنظیم کرد که پس از حملات ۷ اکتبر در نظارت بر محتوای پلیسی تهاجمی‌تر باشد، حذف شدند. برای مثال، حذف ویدیوی بیمارستان الشفا و رد درخواست تجدیدنظر کاربر برای بازگرداندن آن، هر دو بدون دخالت انسان انجام شد. هر دو ویدیو بعداً با صفحه‌های هشدار بازیابی شدند که بیان می‌کرد چنین محتوایی با هدف گزارش خبری و افزایش آگاهی مجاز است. هیئت مدیره اظهار داشت که متا “با توجه به شرایط سریع و هزینه های بالای آزادی و دسترسی به اطلاعات برای حذف این نوع محتوا باید سریعتر حرکت می کرد تا سیاست خود را تطبیق دهد…” همچنین این نگرانی را ایجاد کرد که شرکت به سرعت در حال حرکت است. تغییر رویکرد به اعتدال می تواند ظاهری از خودسری به آن بدهد و سیاست هایش را زیر سوال ببرد.

گفتنی است، هیئت مدیره متوجه شد که متا محتوایی را که بازیابی کرده بود با صفحه‌های هشدار تنزل داده است. حتی پس از اینکه شرکت تشخیص داد که قصد دارند آگاهی را افزایش دهند، آنها را از توصیه به سایر کاربران فیس بوک و اینستاگرام محروم کرد. لازم به ذکر است، تعدادی از کاربران داشتند گزارش شده است در ماه اکتبر پس از انتشار مطالبی در مورد شرایط غزه، سایه‌بان شد.

این هیئت همچنین توجه خود را به این موضوع جلب کرد که چگونه متا فقط اجازه داد محتوای گروگان‌گیری از حملات ۷ اکتبر توسط کاربران از لیست‌های بررسی متقابل خود بین ۲۰ اکتبر تا ۱۶ نوامبر پست شود. سیستم تعدیل خودکار شرکت هیئت مدیره گفت که تصمیم متا نگرانی های آن را در مورد این برنامه، به ویژه “رفتار نابرابر با کاربران” برجسته می کند. [and] فقدان معیارهای شفاف برای شمول». در این بیانیه آمده است که این شرکت باید “اطمینان حاصل کند که نمایش بیشتری از کاربرانی که محتوای آنها احتمالاً از منظر حقوق بشر در لیست های متقابل چک مهم است.”

“ما از تصمیم امروز هیئت نظارت در مورد این پرونده استقبال می کنیم. هم بیان و هم ایمنی برای ما و افرادی که از خدمات ما استفاده می کنند مهم است. هیئت مدیره تصمیم اولیه متا برای حذف این محتوا را لغو کرد اما تصمیم بعدی برای بازیابی محتوا با این شرکت در بیانیه ای به Engadget گفت. متا قبلاً این محتوا را بازیابی کرده بود بنابراین هیچ اقدام دیگری در مورد آن انجام نخواهد شد. همانطور که در مرکز راهنمای ما توضیح داده شد، برخی از دسته‌های محتوا برای توصیه‌ها واجد شرایط نیستند و هیئت مدیره مخالف است که متا محتوا را در این مورد از سطوح توصیه منع کند. هیچ به‌روزرسانی دیگری برای این مورد وجود نخواهد داشت، زیرا هیئت مدیره هیچ‌گونه انجام نداده است. توصیه هایی به عنوان بخشی از تصمیم آنها است.”

این مقاله در ابتدا در Engadget در https://www.engadget.com/oversight-board-says-metas-automated-tools-took-down-israel-hamas-war-content-that-didnt-break-its-rules منتشر شد. -۱۱۰۰۳۴۱۵۴٫html?src=rss


منبع: https://www.engadget.com/oversight-board-says-metas-automated-tools-took-down-israel-hamas-war-content-that-didnt-break-its-rules-110034154.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *