Модерация контента в Facebook – это нечеткие принципы, невысокая оперативность и «потогонка» для модераторов. Все это требует новых подходов к модерации контента крупнейшей в мире социальной сети.
Желать смерти селибритиз разрешается
Несколько дней назад издание The Guardian опубликовало материал о том, как работает система модерации Facebook. Журналисты получили доступ к скрытым правилам работы с контентом и описали наиболее примечательные моменты этих гайдлайнов. Для этого журналисты изучили документ, состоящий из более чем 300 страниц и датированный концом 2020 года.
Наиболее удивительным и противоречивым в этом документе были различные действия модераторов по отношению к высказываниям, касающимся публичных личностей и обычных людей. В этих правилах отмечается, что на платформе Faсebook разрешаются ненавистнические высказывания относительно публичных личностей, среди которых – призывы к их смерти. В Faсebook классифицируют такие слова как простое обсуждение, в том числе допустимую критику относительно публичного человека.
Правила по поводу частных лиц гораздо строже. Модераторы могут удалять контент, который призван «унизить или посрамить, включая, например, утверждения о чьей-либо сексуальной активности», — цитируют документ журналисты The Guardian. Модераторы должны «удалять особенно агрессивные посты, которые относятся к общественным деятелям. Что касается простых пользователей, то нужно удалять весь контент, который унижает или позорит их».
Частные лица не могут подвергаться «призывам к смерти» на страницах Facebook. Что касается общественных деятелей, то такие угрозы не могут быть целенаправленными (личными), то есть они разрешены в публичном открытом пространстве: на Facebook законно призывать к смерти известного человека в публичном посте, но только если такого человека не отметили (не затегали) в посте. Таким образом, все словесные нападки на публичного человека компания считает проявлением «свободы слова».
Компания поясняет, что публичными фигурами являются любые политики – избранные или баллотирующиеся, равно как и любые журналисты. Кроме того, под этот критерий «известности» попадают пользователи с числом более 100 тыс. подписчиков. Также достаточно упоминания пользователя в новостях, чтобы он стал публичной личностью. Это правило не касается детей в возрасте до 13 лет.
Комментируя эти правила, Имран Ахмед (Imran Ahmed), основатель Центра противодействия цифровой ненависти (Center for Countering Digital Hate), заявляет:
«Несмотря на громкие нападения последних лет, в том числе … атаку на Капитолий, Facebook санкционирует пропаганду насилия в отношении государственных служащих, если они не отмечены в сообщении».
Решить за 10 секунд
В 2017 году журналисты The Guardian тоже получили доступ к внутренним документам Faсebook для модераторов контента и выпустили цикл материалов, проанализировав их по предназначению и тематике. Авторы этого цикла материалов подчеркивают большое количество гайдлайнов с не всегда четкими и однозначными правилами для модераторов компании. В то же время количество жалоб на контент, с которым сталкивались модераторы еще в 2017 году, превышало 6 млн в неделю. По этой причине на принятие решения относительно того, что делать с конкретным фрагментом контента, модераторам иногда нужно потратить не более 10 секунд.
На тот момент (2017 год) в Facebook работало около 4,5 тыс. модераторов. Однако компания не справлялась с анализом контента и заявила о готовности нанять еще 3 тыс. специалистов для анализа записей пользователей, а также активизировала использование для этой цели инструментов искусственного интеллекта (AI).
Тем не менее объемы контента и скорость работы модераторов приводили к большому количеству ошибок с их стороны и позже. Так согласно отчету NYU Stern, в 2020 году ежедневно модераторы социальной сети просматривали более 3 млн единиц контента, помеченных AI-инструментами как требующие внимания. В этом же отчете упоминалось уже о 15 тыс. специалистах, занятых модерацией содержимого соцсети. Авторы отчета подсчитали, что модераторам необходимо тратить в среднем около 150 секунд на одну жалобу или спорный пост – и неважно, идет речь о записи на три строки или о 10-минутном видео.
Сложности работы этих специалистов с началом локдауна привели к новым проблемам. Из-за того, что их работа в удаленном режиме была неподготовлена, Faсebook стала активнее использовать автоматическую фильтрацию спорного контента. Это привело к блокировке или удалению сообщений о коронавирусе от весьма авторитетных источников, например, The Independent.
В середине апреля один из уволившихся модераторов Facebook описал свою работу в компании как весьма травматическую:
«Контент-аналитикам платят за то, чтобы они смотрели на худшее в человечестве по восемь часов в день. Мы — миндалины интернета, постоянно бомбардируемая первая линия защиты от потенциальных травм для пользовательской базы».
Комментируя эти откровения в своем Twitter-аккаунте, журналист Buzzfeed Райан Мак отметил, что «главный вывод из этой истории состоит в том, что эти контрактные модераторы не общаются с людьми, разрабатывающими правила модерации. Люди, которые видят это дерьмо, не могут говорить о том дерьме, которое они видят, с людьми, которые принимают решения»
Адские условия
Еще одной проблемой для модераторов контента в Faсebook стали ужасающие условия их работы, о которых технологическая пресса много писала. Например, в 2019 году Кейси Ньютон, журналист и автор технологической рассылки The Platformer, впервые смог поговорить с бывшими модераторами Faсebook, которые поделились с ним особенностями работы, несмотря на строгие соглашения о неразглашении.
В материале упоминается случай смерти одного из сотрудников непосредственно на рабочем месте, постоянное давление со стороны руководства относительно недостаточной производительности, постоянно меняющиеся правила работы с контентом. Модераторы контента получали два 15-минутных перерыва в день, полчаса на обед и еще 9 минут – это так называемое wellness-время, которое можно потратить на отдых от просмотра эмоционально сложного контента.
Все это привело к частым случаям диагностированной депрессии, ПТСР и других психических расстройств, возникающих у людей, которые вынуждены часами просматривать контент с элементами насилия, например, издевательства над животными.
В 2018 году BBC поговорило с бывшей модераторкой Faсebook Сарой Кац (Sarah Katz), которая тоже упоминала об анализе более 8 тыс. постов за смену, необходимости просматривать сложный контент, в том числе детское порно и отсутствие какой-либо поддержки со стороны руководства.
Авторы публикации в Vice уже от 2020 года рассказывают о необходимости модераторов Faсebook фиксировать все рабочее время, в том числе посещение туалета. Кроме того, руководители рекомендовали модераторам не указывать в соцсетях или в LinkedIn, что они работают в компании, чтобы с ними не связывались журналисты.
«Самые счастливые люди — это люди, которые не работают в Facebook. Чем больше времени вы тратите на Faсebook, тем несчастней вы становитесь», — сказал VICE News один из модераторов, готовящий судебный иск против Facebook по поводу того, что компания не справилась с обеспечением безопасного рабочего окружения.
Низкая эффективность прилагаемых усилий
Несмотря на постоянное увеличение штата модераторов и их сложные условия работы в попытках достичь поставленных результатов, эффективность системы модерации Faсebook вызывает сомнения. Существует большое количество пользователей, заблокированных в социальной сети практически без объяснений и с тщетными попытками понять причину не только блокировки уже существующего аккаунта, но и попыток создания нового.
Платформа может заблокировать научных блогеров просто из-за большого количества жалоб. С блокировками время от времени сталкиваются и украинские сообщества и пользователи. В 2018 году была заблокирована группа с вакансиями с аудиторией в 226 тыс. пользователей. Ее создателям удалось восстановить свой проект, а вот львовской группе «Варта 1» повезло меньше – в начале 2019 года она была вначале временно заблокирована, а потом и полностью удалена из Faсebook. Причины такого решения не пояснили.
Неэффективность системы модерации Faсebook, прежде всего, относительно фейкового контента, рассматривалась на недавних слушаниях в Конгрессе США. Конгрессмены обсуждали увеличение ответственности этих компаний за размещаемый контент, в том числе поправки к разделу 230 закона о коммуникациях, который защищает соцсети от ответственности за контент пользователей
Наблюдательный совет и внешнее управление: что может спасти систему модерации Faсebook
Выступая на этих слушаниях, Марк Цукерберг высказал готовность отказаться от защиты от ответственности за размещаемый контент и предложил принудительно внедрить системы модерации контента, которые должны контролироваться некой третьей стороной.
У Faсebook уже есть опыт создания условного внешнего наблюдателя. В 2020 году компания создала Наблюдательный совет, призванный контролировать платформу, прежде всего, в вопросе модерации контента. Например, решение относительно продления блокировки аккаунта Дональда Трампа компания передала именно Наблюдательному совету.
Однако повлияют ли третьи стороны на систему модерации Faсebook и условия труда специалистов, работающих в этих подразделениях, спрогнозировать сложно. Вряд ли Наблюдательный совет будет заниматься вопросами локальных групп или конкретных пользователей.
Частично спасти ситуацию сможет более активное использование искусственного интеллекта, который будет в автоматическом режиме блокировать основную часть спорного контента (фейков, контента с элементами насилия, угроз и многое другое).
В то же время, если компания будет отвечать за пользовательский контент, то есть раздел 230 будет изменен, наверняка будут изменены и правила относительно спорного контента, в том числе, касательно известных людей.
Все это приведет к тому, что модерация контента станет жестче, а о подобии свободы слова, которую мы сейчас наблюдаем на платформе, можно будет забыть. Учитывая то, что модерация контента в социальных сетях как никогда ранее требует серьезных изменений, такое развитие событий весьма вероятно.