این مورد برای اولین بار از یک ناظر محتوا در خارج از کشور اصلی شرکت است. در می 2020، متا (در آن زمان فیس بوک) به توافق رسید 52 میلیون دلار با ناظران مستقر در ایالات متحده که PTSD را از کار برای شرکت توسعه دادند. ولی گزارش قبلی دریافته است که بسیاری از مدیران بین المللی شرکت که کارهای تقریباً مشابهی را انجام می دهند، در حالی که در کشورهایی با خدمات مراقبت از سلامت روان و حقوق کار کمتری کار می کنند، با دستمزد کمتر و حمایت کمتری دریافت می کنند. در حالی که ناظران مستقر در ایالات متحده حدود 15 دلار در ساعت درآمد داشتند، ناظران در مکان هایی مانند هند، فیلیپین و کنیا درآمد دارند. خیلی کمتر، مطابق سال 2019 گزارش نویسی از آستانه
پل بارت، معاون مرکز تجارت و حقوق بشر در دانشگاه نیویورک میگوید: «هدف ارسال محتوا به خارج از کشور و دوردست این است که آن را در فاصله کوتاهی نگه دارید و هزینه این کار تجاری را کاهش دهید. ، که یک 2020 نوشته است گزارش در تعدیل محتوای برون سپاری شده اما تعدیل محتوا برای ادامه فعالیت پلتفرمها حیاتی است و محتوایی را حفظ میکند که کاربران و تبلیغکنندگان را از پلتفرم دور کند. «اعتدال محتوا یک کارکرد حیاتی ،ب و کار است، نه چیزی جانبی یا یک فکر بعدی. اما یک کنایه قوی از این واقعیت وجود دارد که کل چیدمان برای تخلیه مسئولیت تنظیم شده است. (نسخه خلاصه شده ای از گزارش بارت به ،وان مدرک در پرونده فعلی در کنیا از طرف Motaung گنجانده شد.)
بارت میگوید که دیگر برونسپاریها، مانند ،، که در صنعت پوشاک هستند، امروز غیرقابل تصور هستند که بگویند هیچ مسئولیتی در قبال شرایط تولید لباسهایشان ندارند.
او میگوید: «من فکر میکنم شرکتهای فناوری، که جوانتر هستند و از جهاتی متکبرتر هستند، فکر میکنند که میتوانند به نوعی این ترفند را از بین ببرند.
یکی از ناظران سما که به شرط ناشناس ماندن به دلیل نگر، از تلافی با WIRED صحبت میکرد، توضیح داد که باید روزانه هزاران محتوا را مرور کرد و اغلب نیاز به تصمیمگیری درباره اینکه چه چیزی میتواند و چه چیزی نمیتواند در این پلتفرم بماند در ۵۵ ث،ه یا کمتر است. . آنها می گویند که گاهی اوقات این محتوا می تواند “چیزی گرافیکی، سخنان نفرت انگیز، قلدری، تحریک، چیزی ، باشد”. “شما باید انتظار هر چیزی را داشته باشید.”
کرایدر، از Foxglove Legal، میگوید که سیستمها و فرآیندهایی که مدیران سما در معرض آنها قرار میگیرند – و نشان داده شده است که از نظر ذهنی و عاطفی آسیبرسان هستند – همگی توسط متا طراحی شدهاند. (این پرونده همچنین ادعا میکند که سما از طریق فعالیتهای ت،یب اتحادیهها به سوء استفاده از کار دست زده است، اما ادعا نمیکند که متا بخشی از این تلاش بوده است.)
کرایدر میگوید: «این در مورد شکایات گستردهتر در مورد سیستم کار است که ذاتاً مضر، ذاتاً سمی است و افراد را در معرض خطر غیرقابل قبولی قرار میدهد.» این سیستم از نظر عملکردی ی،ان است، چه فرد در Mountain View، در آستین، در ورشو، در بارسلون، در دوبلین یا در نایروبی باشد. و بنابراین از دیدگاه ما، نکته این است که فیس بوک سیستمی را طراحی می کند که عامل آسیب و خطر PTSD برای افراد است.
کرایدر میگوید که در بسیاری از کشورها، بهویژه آنهایی که به قو،ن عرفی بریت،ا تکیه میکنند، دادگاهها اغلب به تصمیمگیری در کشورهای دیگر مشابه نگاه میکنند تا به تصمیمگیری خود کمک کنند، و پرونده موتانگ میتواند طرحی برای ناظران برونسپاری در کشورهای دیگر باشد. اگرچه هیچ سابقه رسمی ایجاد نمی کند، امیدوارم که این پرونده بتواند نقطه عطفی برای سایر حوزه های قضایی در مورد چگونگی دست و پنجه نرم ، با این شرکت های چندملیتی بزرگ باشد.
منبع: https://www.wired.com/story/meta-kenya-lawsuit-outsourcing-content-moderation/