Модерація контенту в Facebook — це нечіткі принципи, невисока оперативність і «потогонка» для модераторів. Усе це вимагає нових підходів до модерації контенту найбільшої в світі соціальної мережі.
Бажати смерті селібрітіз дозволяється
Кілька днів тому видання The Guardian опублікувало матеріал про те, як працює система модерації Facebook. Журналісти отримали доступ до прихованих правил роботи з контентом і описали найбільш примітні моменти цих гайдлайнів. Для цього журналісти вивчили документ, що складається з більш ніж 300 сторінок і датований кінцем 2020 року.
Найдивнішим і суперечливим у цьому документі були різні дії модераторів стосовно висловлювань щодо публічних особистостей та звичайних людей. У цих правилах зазначається, що на платформі Faсebook вирішуються ненависницькі висловлювання щодо публічних особистостей, серед яких — заклики до їхньої смерті. У Faсebook класифікують такі слова як просте обговорення, зокрема, допустиму критику публічної людини.
Правила щодо приватних осіб набагато суворіші. Модератори можуть видаляти контент, який покликаний «принизити або зневажити, включаючи, наприклад, твердження про чиюсь сексуальну активність», — цитують документ журналісти The Guardian. Модератори повинні «видаляти особливо агресивні пости, які стосуються громадських діячів. Щодо простих користувачів, то потрібно видаляти весь контент, який принижує або ганьбить їх».
Приватні особи не можуть піддаватися «закликам до смерті» на сторінках Facebook. Що стосується громадських діячів, то такі загрози не можуть бути цілеспрямованими (особистими), тобто вони дозволені в публічному відкритому просторі: на Facebook законно закликати до смерті відомої людини в публічному пості, але тільки якщо такої людини не відзначили (не затегали) в пості. Таким чином, всі словесні нападки на публічну людину компанія вважає проявом «свободи слова».
Компанія пояснює, що публічними фігурами є будь-які політики — обрані або такі, що балотуються, так само як і будь-які журналісти. Крім того, під цей критерій «популярності» потрапляють користувачі з числом понад 100 тис. підписників. Також досить згадки користувача в новинах, щоб він став публічною особою. Це правило не стосується дітей віком до 13 років.
Коментуючи ці правила, Імран Ахмед (Imran Ahmed), засновник Центру протидії цифровій ненависті (Center for Countering Digital Hate), заявляє:
«Незважаючи на гучні напади останніх років, зокрема... атаку на Капітолій, Facebook санкціонує пропаганду насильства щодо державних службовців, якщо вони не зазначені в повідомленні».
Вирішити за 10 секунд
У 2017 році журналісти The Guardian теж отримали доступ до внутрішніх документів Faсebook для модераторів контенту і випустили цикл матеріалів, проаналізувавши їх за призначенням і тематикою. Автори цього циклу матеріалів підкреслюють велику кількість гайдлайнів із не завжди чіткими й однозначними правилами для модераторів компанії. Водночас кількість скарг на контент, із яким стикалися модератори ще в 2017 році, перевищувала 6 млн на тиждень. З цієї причини на ухвалення рішення щодо того, що робити з конкретним фрагментом контенту, модераторам іноді потрібно витратити не більше 10 секунд.
Тоді (2017 рік) у Facebook працювало близько 4,5 тис. модераторів. Однак компанія не справлялася з аналізом контенту та заявила про готовність найняти ще 3 тис. фахівців для аналізу записів користувачів, а також активізувала використання з цією метою інструментів штучного інтелекту (AI).
Проте обсяги контенту та швидкість роботи модераторів приводили до великої кількості помилок із їхнього боку і пізніше. Так згідно зі звітом NYU Stern, у 2020 році щодня модератори соціальної мережі переглядали понад 3 млн одиниць контенту, помічених AI-інструментами як такі, що вимагають уваги. У цьому ж звіті згадувалося вже про 15 тис. фахівців, зайнятих модерацією вмісту соцмережі. Автори звіту підрахували, що модераторам необхідно витрачати в середньому близько 150 секунд на одну скаргу або спірний пост — і неважливо, чи йдеться про записи на три рядки або про 10-хвилинне відео.
Складнощі роботи цих фахівців із початком локдауну призвели до нових проблем. Через те, що їхня робота у віддаленому режимі була непідготовлена, Faсebook стала активніше використовувати автоматичну фільтрацію спірного контенту. Це призвело до блокування або видалення повідомлень про коронавірус від вельми авторитетних джерел, наприклад, The Independent.
У середині квітня один із звільнених модераторів Facebook описав свою роботу в компанії як дуже травматичну:
«Контент-аналітикам платять за те, щоб вони дивилися на найгірше в людстві по вісім годин на день. Ми — мигдалини інтернету, постійно бомбардована перша лінія захисту від потенційних травм для користувацької бази».
Коментуючи ці одкровення в своєму Twitter-акаунті, журналіст Buzzfeed Райан Мак зазначив, що «головний висновок з цієї історії полягає в тому, що ці контрактні модератори не спілкуються з людьми, які розробляють правила модерації. Люди, які бачать це лайно, не можуть говорити про те лайно, яке вони бачать, з людьми, які приймають рішення».
Пекельні умови
Ще однією проблемою для модераторів контенту в Faсebook стали жахливі умови їхньої роботи, про які технологічна преса багато писала. Наприклад, у 2019 році Кейсі Ньютон, журналіст і автор технологічної розсилки The Platformer, вперше зміг поговорити з колишніми модераторами Faсebook, які поділилися з ним особливостями роботи, незважаючи на суворі угоди про нерозголошення.
У матеріалі згадується випадок смерті одного із співробітників безпосередньо на робочому місці, постійний тиск з боку керівництва щодо недостатньої продуктивності, постійно мінливі правила роботи з контентом. Модератори контенту отримували дві 15-хвилинні перерви на день, півгодини на обід і ще 9 хвилин — це так званий wellness-час, який можна витратити на відпочинок від перегляду емоційно складного контенту.
Все це призвело до частих випадків діагностованої депресії, ПТСР та інших психічних розладів, що виникають у людей, які змушені годинами переглядати контент з елементами насильства, наприклад, знущання над тваринами.
У 2018 році BBC поговорити з колишньою модераторкою Faсebook Сарою Кац (Sarah Katz), яка теж згадувала про аналіз понад 8 тис. постів за зміну, необхідність переглядати складний контент, зокрема дитяче порно та відсутність будь-якої підтримки з боку керівництва.
Автори публікації в Vice вже від 2020 року розповідають про необхідність модераторів Faсebook фіксувати весь робочий час, зокрема відвідування туалету. Крім того, керівники рекомендували модераторам не вказувати в соцмережах або в LinkedIn, що вони працюють у компанії, щоб з ними не зв'язувалися журналісти.
«Найщасливіші люди — це люди, які не працюють у Facebook. Чим більше часу ви витрачаєте на Faсebook, тим нещасливішим ви стаєте», — сказав VICE News один із модераторів, який готує судовий позов проти Facebook з приводу того, що компанія не впоралася із забезпеченням безпечного робочого оточення.
Низька ефективність зусиль, що докладаються
Незважаючи на постійне збільшення штату модераторів і їхні складні умови роботи в спробах досягти поставлених результатів, ефективність системи модерації Faсebook викликає сумніви. Існує велика кількість користувачів, заблокованих у соціальній мережі практично без пояснень і з марними спробами зрозуміти причину не тільки блокування вже існуючого облікового запису, а й спроб створення нового.
Платформа може заблокувати наукових блогерів просто через велику кількість скарг. З блокуваннями час від часу стикаються також українські спільноти та користувачі. У 2018 році була заблокована група з вакансіями з аудиторією в 226 тис. користувачів. Її творцям удалося відновити свій проєкт, а ось львівській групі «Варта 1» пощастило менше — на початку 2019 року вона була спочатку тимчасово заблокована, а потім і повністю вилучена з Faсebook. Причини такого рішення не пояснили.
Неефективність системи модерації Faсebook, насамперед, щодо фейкового контенту, розглядалася на недавніх слуханнях у Конгресі США. Конгресмени обговорювали збільшення відповідальності цих компаній за розміщуваний контент, зокрема поправки до розділу 230 закону про комунікації, який захищає соцмережі від відповідальності за контент користувачів
Наглядова рада та зовнішнє управління: що може врятувати систему модерації Faсebook
Виступаючи на цих слуханнях, Марк Цукерберг висловив готовність відмовитися від захисту від відповідальності за розміщуваний контент і запропонував примусово впровадити системи модерації контенту, які повинні контролюватися якоюсь третьою стороною.
У Faсebook уже є досвід створення умовного зовнішнього спостерігача. У 2020 році компанія створила Наглядову раду, покликану контролювати платформу передусім у питанні модерації контенту. Наприклад, рішення щодо продовження блокування акаунта Дональда Трампа компанія передала саме Наглядовій раді.
Однак чи вплинуть треті сторони на систему модерації Faсebook і умови праці фахівців, які працюють у цих підрозділах, спрогнозувати складно. Навряд чи Наглядова рада займатиметься питаннями локальних груп або конкретних користувачів.
Частково врятувати ситуацію зможе більш активне використання штучного інтелекту, який в автоматичному режимі блокуватиме основну частину спірного контенту (фейків, контенту з елементами насильства, погроз та багато іншого).
Водночас, якщо компанія відповідатиме за користувальницький контент, тобто розділ 230 буде змінений, напевно, будуть змінені й правила щодо спірного контенту, зокрема, стосовно відомих людей.
Все це призведе до того, що модерація контенту стане жорсткішою, а про подібність свободи слова, яку ми зараз спостерігаємо на платформі, можна буде забути. З огляду на те, що модерація контенту в соціальних мережах як ніколи раніше потребує серйозних змін, такий розвиток подій цілком можливий.