Как пишет TechCrunch — the Guardian опубликовала детальные методические материалы в которых указанны Правила модерирования контента Facebook. Опубликованные руководства содержат инструкции, правила, блок-схемы и таблицы с инструкциями по модерации такого контента, как насилие, оскорбление и само-вред. Все опубликованное порождает серьезные дебаты в обществе в отношении социального гиганта.

Правила модерирования контента Facebook так же содержат в себе достаточно противоречивые положения относительно тревожного контента. В данный момент в компании модерированием контента занимается достаточно маленький штадт сотрудников.

Осторожно нежелательный контент

Документы с внетренними положенями показывают, например, что пользователи могут делиться фотографиями с не сексуальным насилием над детьми, к примеру фотографии с издевательствами. Компания будет удалять подобный контент только в том случае, если на фото просматривается садизм или элемент торжествования.

Facebook так же достаточно терпелив и к изображениям с издевательствами над животными. Подобного рода медиа будут помечены как «тревожные», только в случае если будут считаться «очень расстраивающими».

У Facebook так же прописаны и правила относительно контента «порно в отместку». Данный контент может быть удален, только при условии если модератор может «подтвердить» отсутсвие согласия из контекста или опираясь на новостные медиа источники.

Все это связано с тем, что фэйсбук находится последнее время под плотным пресингом и постоянным наблюдением из-за распространения тревожного или, правильней сказать, запрещенного контента. К примеру, немецкое правительство приняло решение оштрафовать социальную сеть Facebook на 50 миллионов евро из-за несвоевременного удаления запрещенного контента. В Великобритании правительнство так же хочет рассмотреть вопрос наложения штрафа в отношении социальной сети из-за сбоев в модерировании.

Тем не менее платформу продолжают использовать для стриминга видео с убийствами и суицидами, так как сеть конечно же не в состоянии применять привентивные меры к подобного рода материалам.

Реакция компании и общества

В связи со всем выше сказанным руководство компании обьявило о намерении нанять дополнительно 3000 человек в штадт, для повышения качества модерации, после чего общее число сотрудников вовлеченных в данный процесс должно составить 7500 человек. Как мы понимаем, это всего лишь капля в море, по сравнению с тем, какое колличетсво информации аггрегируется пользователями facebook за весь день.

Опубликованный правила модерирования контента Facebook вызвали в обществе достаточно много нареканий после прочтения данных положений. Многие люди возмутились, так как они считают, что социальная сеть может сделать больше для защиты наших с вами детей на страницах своего ресурса. Monika Bickert, руководитель отдела глобальной политики, подчеркнула, что компания делает все возможно для того, чтобы площадка была безопасной на столько, на сколько это возможно. Она так же заявила, что компания инвестирует в современны технологии, такие как машинное обучение и компьютерное зрение и искуственный интеллект. Компания надеется, что внедрение подобного рода технологий существенно автоматизирует процесс, улучшить качество и повысит эффективность работы команды модераторов. Однако не смотря на все усилия компании, Eve Critchley, глава благотворительной организации Великобритании душевного здоровья, считает, что компания прелагает не достаточно усилий и поэтому должна нести серьезную ответственность за риск публикуемого контента.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

ПОДЕЛИТЬСЯ