Meta 'Hastly' سیاست اعتدال را با توجه به تأثیر کمی تغییر داد ، می گوید هیئت نظارت | متا
Meta announced in January that it was removing factcheckers in the US, reducing ‘censorship’ on its platforms and recommending more political content. Photograph: Yui Mok/PA

Meta ‘Hastly’ سیاست اعتدال را با توجه به تأثیر کمی تغییر داد ، می گوید هیئت نظارت | متا

به گزارش سرویس بین الملل رسانه اخبار تکنولوژی روز دنیا تک فاکس،

متا مارک زاکربرگ اعلام کرد که تغییرات اعتدال محتوای گسترده “با عجله” و بدون هیچ نشانه ای تأثیر حقوق بشر را در نظر گرفته است.

ارزیابی این تغییرات در حالی صورت گرفت که هیئت مدیره همچنین از صاحب فیس بوک و اینستاگرام به دلیل ترک سه پست حاوی محتوای ضد مسلمان و ضد مهاجران در طول شورش در انگلستان در تابستان گذشته انتقاد کرد.

هیئت نظارت نگرانی در مورد اعلام این شرکت در ماه ژانویه مبنی بر حذف FactCheckers در ایالات متحده ، کاهش “سانسور” در سیستم عامل های خود و توصیه محتوای سیاسی بیشتری را مطرح کرد.

در اولین بیانیه رسمی خود در مورد این تغییرات ، هیئت مدیره – که تصمیمات الزامی در مورد حذف محتوای متا را صادر می کند – گفت که این شرکت خیلی سریع عمل کرده است و باید تأثیر تغییرات خود را بر حقوق بشر ارزیابی کند.

هیئت مدیره گفت: “در 7 ژانویه 2025 متا ، تغییرات سیاست و اجرای قانون با عجله اعلام شد ، در خروج از رویه منظم ، بدون اینکه اطلاعات عمومی در مورد آنچه وجود دارد ، در صورت وجود ، قبل از دقت حقوق بشر که شرکت انجام داده است ، به اشتراک گذاشته شود.”

این امر از متا خواست كه از تعهد خود برای حمایت از اصول سازمان ملل متحد در مورد تجارت و حقوق بشر پیروی كند و از این شركت خواست كه با دقت و احتیاط در مورد این تأثیر عمل كند.

در این بیانیه آمده است: “از آنجا که این تغییرات در سطح جهانی در حال چرخش است ، هیئت مدیره تأکید می کند که اکنون ضروری است که متا تأثیرات جانبی بر حقوق بشر را که ممکن است از آنها ناشی شود ، شناسایی و برطرف کند.” “این باید شامل ارزیابی اینکه آیا کاهش اعتماد به تشخیص خودکار تخلفات سیاست می تواند عواقب ناهموار در سطح جهان داشته باشد ، به ویژه در کشورهایی که بحران های فعلی یا اخیر مانند درگیری های مسلحانه را تجربه می کنند.”

انتقاد از این تغییرات در کنار مجموعه ای از احکام محتوا از جمله هشدار به متا برای ترک سه پست فیس بوک مربوط به شورش هایی که در پی حمله Southport در 29 ژوئیه سال گذشته در سراسر انگلیس رخ داد ، منتشر شد ، که در آن سه دختر جوان به قتل رسیدند. Axel Radukabana برای انجام این حمله حداقل 52 سال در زندان به سر برد.

این هیئت گفت: این سه پست ، که شامل طیف وسیعی از احساسات ضد مسلمان است ، خشونت را برانگیخت و از شورش ها حمایت کرد ، “خطر آسیب احتمالی و قریب الوقوع را ایجاد کرد” و باید از بین می رفت. وی افزود: متا برای اجرای اقدامات بحران بسیار آهسته بوده است زیرا شورش ها در سراسر انگلیس رخ داده است.

اولین پست ، که سرانجام توسط متا از بین رفت ، فقط متن بود و خواستار خرد شدن مساجد و همچنین ساختمانهایی بود که “مهاجران” و “تروریست ها” برای آتش سوزی زندگی می کردند. در پست های دوم و سوم تصاویر تولید شده توسط AI از یک مرد غول پیکر در یک تی شرت جک اتحادیه که مردان مسلمان را تعقیب می کند ، و از چهار مرد مسلمان که پس از یک کودک نو پا گریه می کردند در مقابل خانه های پارلمان که یکی از مردانی داشت ، در حال دویدن بود.

هیئت مدیره افزود که تغییر در راهنمایی متا در ماه ژانویه به این معنی بود که کاربران می توانند رفتارها را به گروه های مشخصه محافظت شده نسبت دهند ، به عنوان مثال ، افرادی که توسط دین ، ​​جنس ، قومیت یا تمایلات جنسی یا بر اساس وضعیت مهاجرت شخصی تعریف شده اند. در نتیجه ، کاربران می توانند یک گروه مشخصه محافظت شده “کشتن” را بگویند.

وی افزود: Factcheckers های شخص ثالث ، که هنوز توسط متا در خارج از ایالات متحده مورد استفاده قرار می گیرند ، باعث کاهش دید پست هایی با نام کاذب مهاجم Southport شده است. این شرکت را توصیه می کند که در مورد اثربخشی ویژگی های یادداشت های جامعه – جایی که کاربران پلیس در سیستم عامل ها – که پس از حذف فاکتور های ایالات متحده نیز توسط متا مستقر می شوند ، تحقیق کند.

هیئت گفت: “متا پروتکل سیاست بحران (CPP) را در پاسخ به شورش ها فعال کرد و متعاقباً انگلستان را در 6 اوت به عنوان یک مکان پرخطر معرفی کرد. این اقدامات خیلی دیر شده بود. تا این زمان ، هر سه قطعه محتوا ارسال شده بود.”

“هیئت مدیره نگران این است که متا برای انجام اقدامات بحران بسیار کند باشد ، و خاطرنشان کرد: این اتفاق باید سریعاً برای قطع تقویت محتوای مضر اتفاق بیفتد.”

در پاسخ به حكم هیئت مدیره ، سخنگوی متا گفت: “ما مرتباً از متخصصان خارج از متا ، از جمله هیئت نظارت ، به دنبال ورودی هستیم و برای تصمیم گیری در مورد این هیئت اقدام خواهیم كرد.

“در پاسخ به این رویدادها در تابستان گذشته ، ما بلافاصله یک کارگروه اختصاصی را تنظیم کردیم که در زمان واقعی برای شناسایی و حذف هزاران قطعه محتوا که قوانین ما را شکسته است – از جمله تهدیدات خشونت و پیوندها به سایتهای خارجی که برای هماهنگی شورش استفاده می شود ، راه اندازی کردیم.”

متا گفت که در طی 60 روز به توصیه های گسترده تر هیئت مدیره پاسخ خواهد داد.

حكم هیئت مدیره همچنین دستور حذف دو پست ضد مهاجرت در لهستان و آلمان را به دلیل نقض سیاست رفتار نفرت انگیز متا دستور داد. این گفته است که متا باید مشخص کند که چگونه به روزرسانی های سیاست محتوای نفرت انگیز خود بر حقوق پناهندگان و پناهجویان تأثیر می گذارد.