Правила, которыми пользуется FB для определения того, что пользователям видеть, является довольно непоследовательными, считают співробіники компании
Благодаря инсайдерам стали известны «непоследовательные правила», по которым цензурується контент в Facebook, пишет Guardian.
Как сообщает издание, обнародованные документы показывают, какими критериями руководствуются модераторы, чтобы определить, является ли содержание сообщений насильственным, сексуальным, расистским, он провоцирует ненависть или терроризм.
Guardian пишет, что модераторы Facebook — «перегружены» и имеют лишь 10 секунд на решение относительно того или иного сообщения.
Утечка информации произошла вскоре после того, как член британского парламента заявил, что крупные социальные сети «не справились» с проблемой противоречивого контента.
Внимательная политика?
Издание утверждает, что получило доступ к более 100 пособий, которые использовались внутри Facebook для подготовки модераторов относительно того, что можно и чего нельзя публиковать на сайте.
В Facebook не комментировали, насколько подлинными являются документы, которые попали в Guardian.
В пособиях говорится о широкий спектр чувствительных вопросов, включая ненавистью, порнографией, самоубийством, каннибализмом и насилием.
Модераторы Facebook, с которыми говорили журналисты Guardian, признают, что политика компании относительно цензурирования контента очень непоследовательной и субъективной».
По их словам, процесс принятия решений относительно сексуальных тем был среди самых «противоречивых».
Неправительственная организация, которая занимается правами, связанными с цифровыми технологиями, Open Rights Group, заявила, что «утечка» показывает, насколько мощным может быть влияние Facebook на более чем два миллиарда своих пользователей.
«Решение Facebook относительно того, что является приемлемым и неприемлемым, имеет огромное значение для свободы слова, — говорится в заявлении ORG. — Этот «исток» показывает, что эти решения являются сложными и связаны с огромными проблемами».
В заявлении группы также говорится о том, что «Facebook, наверное, никогда не удастся делать это вполне правильно, но по крайней мере компания может быть немного более прозрачной относительно самого процесса принятия решений».
Guardian пишет, что взгляд на внутренний процессы решений в Facebook, наверное, возобновит призывы к руководителям компании проводить более внимательную и прозрачную политику относительно постов пользователей.
Марк Цукерберг говорит, что работает над лучшими инструментами для определения проблемного контента
«Тревожный исток»
В заявлении главы отдела глобального менеджмента Facebook Моники Бикерт говорится о том, что «мы напряженно работаем для того, чтобы сделать Facebook как можно более безопасным и одновременно сохранить свободу слова».
«Это требует детальной проработки многих сложных вопросов, правильное решение которых мы воспринимаем очень серьезно», — заявила она.
В начале мая влиятельный парламентский комитет по вопросам внутренней политики подверг Facebook и другие социальные медиа жесткой критике за то, что они «невероятно далеки» от предотвращения распространению призывов к насилию.
Вскоре после этого Facebook сообщил о планах привлечь дополнительно к проверке содержания сообщений до 3000 работников.
По материалам: BBC