محتوای وحشتناک متا او را شکست. حالا او می خواهد آن را پرداخت کند


این مورد برای اولین بار از یک ناظر محتوا در خارج از کشور اصلی شرکت است. در می 2020، متا (در آن زمان فیس بوک) به توافق رسید 52 میلیون دلار با ناظران مستقر در ایالات متحده که PTSD را از کار برای شرکت توسعه دادند. ولی گزارش قبلی دریافته است که بسیاری از مدیران بین المللی شرکت که کارهای تقریباً مشابهی را انجام می دهند، در حالی که در کشورهایی با خدمات مراقبت از سلامت روان و حقوق کار کمتری کار می کنند، با دستمزد کمتر و حمایت کمتری دریافت می کنند. در حالی که ناظران مستقر در ایالات متحده حدود 15 دلار در ساعت درآمد داشتند، ناظران در مکان هایی مانند هند، فیلیپین و کنیا درآمد دارند. خیلی کمتر، مطابق سال 2019 گزارش نویسی از آستانه

پل بارت، معاون مرکز تجارت و حقوق بشر در دانشگاه نیویورک می‌گوید: «هدف ارسال محتوا به خارج از کشور و دوردست این است که آن را در فاصله کوتاهی نگه دارید و هزینه این کار تجاری را کاهش دهید. ، که یک 2020 نوشته است گزارش در تعدیل محتوای برون سپاری شده اما تعدیل محتوا برای ادامه فعالیت پلتفرم‌ها حیاتی است و محتوایی را حفظ می‌کند که کاربران و تبلیغ‌کنندگان را از پلتفرم دور کند. «اعتدال محتوا یک کارکرد حیاتی ،ب و کار است، نه چیزی جانبی یا یک فکر بعدی. اما یک کنایه قوی از این واقعیت وجود دارد که کل چیدمان برای تخلیه مسئولیت تنظیم شده است. (نسخه خلاصه شده ای از گزارش بارت به ،وان مدرک در پرونده فعلی در کنیا از طرف Motaung گنجانده شد.)

بارت می‌گوید که دیگر برون‌سپاری‌ها، مانند ،، که در صنعت پوشاک هستند، امروز غیرقابل تصور هستند که بگویند هیچ مسئولیتی در قبال شرایط تولید لباس‌هایشان ندارند.

او می‌گوید: «من فکر می‌کنم شرکت‌های فناوری، که جوان‌تر هستند و از جهاتی متکبرتر هستند، فکر می‌کنند که می‌توانند به نوعی این ترفند را از بین ببرند.

یکی از ناظران سما که به شرط ناشناس ماندن به دلیل نگر، از تلافی با WIRED صحبت می‌کرد، توضیح داد که باید روزانه هزاران محتوا را مرور کرد و اغلب نیاز به تصمیم‌گیری درباره اینکه چه چیزی می‌تواند و چه چیزی نمی‌تواند در این پلتفرم بماند در ۵۵ ث،ه یا کمتر است. . آنها می گویند که گاهی اوقات این محتوا می تواند “چیزی گرافیکی، سخنان نفرت انگیز، قلدری، تحریک، چیزی ، باشد”. “شما باید انتظار هر چیزی را داشته باشید.”

کرایدر، از Foxglove Legal، می‌گوید که سیستم‌ها و فرآیندهایی که مدیران سما در معرض آن‌ها قرار می‌گیرند – و نشان داده شده است که از نظر ذهنی و عاطفی آسیب‌رسان هستند – همگی توسط متا طراحی شده‌اند. (این پرونده همچنین ادعا می‌کند که سما از طریق فعالیت‌های ت،یب اتحادیه‌ها به سوء استفاده از کار دست زده است، اما ادعا نمی‌کند که متا بخشی از این تلاش بوده است.)

کرایدر می‌گوید: «این در مورد شکایات گسترده‌تر در مورد سیستم کار است که ذاتاً مضر، ذاتاً سمی است و افراد را در معرض خطر غیرقابل قبولی قرار می‌دهد.» این سیستم از نظر عملکردی ی،ان است، چه فرد در Mountain View، در آستین، در ورشو، در بارسلون، در دوبلین یا در نایروبی باشد. و بنابراین از دیدگاه ما، نکته این است که فیس بوک سیستمی را طراحی می کند که عامل آسیب و خطر PTSD برای افراد است.

کرایدر می‌گوید که در بسیاری از کشورها، به‌ویژه آن‌هایی که به قو،ن عرفی بریت،ا تکیه می‌کنند، دادگاه‌ها اغلب به تصمیم‌گیری در کشورهای دیگر مشابه نگاه می‌کنند تا به تصمیم‌گیری خود کمک کنند، و پرونده موتانگ می‌تواند طرحی برای ناظران برون‌سپاری در کشورهای دیگر باشد. اگرچه هیچ سابقه رسمی ایجاد نمی کند، امیدوارم که این پرونده بتواند نقطه عطفی برای سایر حوزه های قضایی در مورد چگونگی دست و پنجه نرم ، با این شرکت های چندملیتی بزرگ باشد.


منبع: https://www.wired.com/story/meta-kenya-lawsuit-outsourcing-content-moderation/