Многие из вас наверняка сталкивались с тем, что Facebook удаляет безобидные, казалось бы, посты. Как выяснилось, при модерации контента соцсеть совершает примерно 300 тыс. ошибок в день.
Согласно отчету NYU Stern, модераторы контента Facebook проверяют сообщения, фотографии и видео, которые были помечены AI или о которых пользователи сообщали около 3 млн раз в день. А поскольку генеральный директор Марк Цукерберг в официальном документе признал, что модераторы «совершают неправильный вызов более чем в одном из каждых десяти случаев», это означает, что 300 тыс. раз в день случаются ошибки.
В Facebook работают около 15 тыс. модераторов контента. Если они получают 3 млн сообщений для модерирования каждый день, то это 200 на человека: 25 каждый час в восьмичасовую смену. Это менее 150 секунд, чтобы решить, соответствует ли сообщение стандартам сообщества.
А если один из материалов, которые необходимо просмотреть, это десятиминутное видео? Вероятно, у модератора контента остаются считанные секунды для других сообщений.
Предсказуемо, все это стало намного сложнее во время пандемии коронавируса. После того, как модераторы связанного с COVID-19 контента были отправлены на удаленку или вообще в отпуск, автоматизированная система Facebook получила полный контроль. Это привело к повсеместному блокированию или удалению постов с упоминанием коронавируса из авторитетных источников, таких как The Independent и Dallas Morning News, не говоря уже о миллионах отдельных пользователей Facebook.
Согласно отчету NYU Stern, решение проблемы возможно в одном случае: если все модераторы контента будут официальными сотрудниками Facebook с адекватной зарплатой (раньше это в большей мере делали подрядчики). Удвоение количества модераторов - это еще одно решение, а также переведение модерации контента под специальный надзор старшего руководителя.