[Спам и антиспам, Управление сообществом, Управление медиа, Социальные сети и сообщества] Можем ли мы привлечь общество к самостоятельному поддержанию интернет-культуры? (перевод)

Автор Сообщение
news_bot ®

Стаж: 6 лет 9 месяцев
Сообщений: 27286

Создавать темы news_bot ® написал(а)
17-Ноя-2020 09:31


С развитием социальных сетей и других онлайн-платформ люди получили беспрецедентную возможность для проведения публичных мероприятий. Но нередко эта способность по публикации и распространению информации используется не во благо. Здесь и распространение насилия, терроризма, фейка, популяризации запрещенных препаратов, спам, оскорбления и многое другое, что вызывает резонанс в обществе. И в таких случаях возможности онлайн-платформ по распространению информации начинают работать во вред людям.
При этом трудностей с выявлением информации, которую мы не хотели бы видеть, у онлайн-платформ хватает, так как объем распространяемого в интернете контента огромен, и он постоянно растет, а задача модерации контента при этом отнюдь не тривиальная. Поэтому, несмотря на успехи автоматических методов, число нанятых онлайн-платформами модераторов, вручную просматривающих контент, также непрерывно растет, как и волна критики со стороны общества в отношении процесса модерации.
И прежде всего в обществе все чаще разгораются споры кто и в каком объеме должен нести ответственность за контент.
В конце мая 2020 года Президент Дональд Трамп подписал исполнительное распоряжение, касающееся платформ социальных сетей, призвав привлечь их к ответственности за контент, размещенный на их сайтах, и приказав Федеральной торговой комиссии и генеральному прокурору начать расследование деятельности компаний. Причиной стало размещение в Twitter предупреждающего ярлыка о проверке фактов на некоторых твитах президента, которое президент воспринял как цензуру, применённой избирательно и не прозрачно.
Но чтобы мы хотели от интернет-компаний? Чтобы они были своеобразным глобальным цензором всего и вся на своих платформах, пускай даже дорогой ценой ручной модерации? Или все же не лезли в наше общение, во имя свободы слова? Где грань? Кто задает правила игры? Возможен ли компромисс в модерации информационного поля для всех участников сторон: интернет-компаний, пользователей, контролирующих органов? Может ли статься так, что поддержанию интернет-культуры — это комплексная проблема, являющейся проблемой не только интернет-компаний, но и требующая участия самого общества в этом процессе и требующая принятие им на себя хотя бы части ответственности за публикуемый им же контент?
Подобные вопросы возникают все чащеи чаще

Но какими возможностями обладает общество для участия в процессе регулирования сетевой культуры?
В настоящее время компании пытаются привлечь пользователей к модерации путем использования кнопки “пожаловаться”, реализация применения которой имеет несколько основных подходов.
Так, по нажатию этой кнопки контент, выделенный пользователем, может быть отправлен на проверку назначенному заранее модератору. Плюс такого подхода — это простота указания нарушения конечными пользователями. Минусом этого подхода является отсутствие доверия к оценке отдельного пользователя и, как следствие, необходимость подтверждения нарушения модератором, который нередко не успевает реагировать в следствии постоянного роста объема контента. И в этом случае, конечное слово, а значит и ответственность за отторжение неприемлемой информации полностью лежит на плечах интернет- компаний.
Другим основным подходом можно считать коллективную модерацию. Разновидностей такого подхода много, но в общем случае этот подход можно описать следующим образом. При нажатии кнопки “пожаловаться” определенным количеством пользователей на одном и том же контенте, компании могут считать, что нарушение было, и запустить автоматическую процедуру удаления неприемлемого контента или пометить его каким-либо образом, предупреждая тем самым своих пользователей. Плюс такого подхода состоит в том, что пользователи полностью самостоятельно могут влиять на информационную культуру. Принимая на себя таким образом групповую ответственность за отторжение неприемлемой информации. Минусом является то, что такая технология по-прежнему не доверяет оценке отдельного пользователя и, как следствие, она подразумевает некоторое, достаточное количество голосующих пользователей, которых может просто не набраться для организации голосования по конкретному контенту.
В итоге, участие общества в процессе регулирования сетевой культуры на практике является опосредованной или громоздкой процедурой, которую сложно использовать массово. И это несмотря на то, что пользователи заинтересованы в поддержании адекватной интернет-культуры и, как показывает практика использования кнопки “пожаловаться”, готовы в ней участвовать в случае нарушений! Однако их голоса воспринимаются очень условно, и все из-за того, что в интернете нет доверия к оценке, сделанной рядовым пользователем. Нет, по умолчанию.

Но можем ли мы научится доверять оценке отдельного пользователя?
Казалось бы, в интернет невозможно просто так взять и довериться оценке рядового пользователя. Но ведь можно создать условия, при которой этой оценке можно доверять. И такой успешный опыт уже есть. Такой метод использует широко известная и всем поднадоевшая reСaptcha. Точнее, одна из ее первых версий, в которой пользователю для авторизации на сайте предлагалось написать несколько слов. Одно из этих слов было проверочным и известно системе, а другое слово было неизвестно системе, и его требовалось распознать. Сами же пользователи не знали, какое слово известное, а какое нет, и для того, чтобы быстрее авторизоваться, вынуждены были стараться отвечать честно, а не гадать.
В итоге пользователи, которые отвечали честно и правильно вводили проверочное слово, считались объективными, и reCaptcha их пропускала дальше, а также принимала ранее не известное ей слово, как верный результат. И это оказалось эффективно. Таким несложным методом пользователи reCaptcha только за первые полгода работы успешно распознали около 150 миллионов не распознанных слов, которые не смогли распознать автоматические методы.
А что, если применить такой подход в области модерации?
Подобно reCaptcha можно дать отдельному пользователю возможность выполнить тест на модерацию, т.е. тест на оценку соответствие ряда публикаций неким заранее заданным правилам. При этом среди публикаций будет публикация, оценка которой нам не известна, а остальные публикации будут проверочными с заранее известными оценками. Далее, если пользователь успешно прошел тест, т.е. был честен в оценке проверочных публикаций, известных системе, то мы принимаем его оценку неизвестной публикации, то есть доверяем мнению этого пользователя. Причем, для получения оценки неизвестной нам публикации, таким образом, нам не нужно будет организовывать коллективное голосование. Достаточно будет одного пользователя.
Объединив этот тест с кнопкой “пожаловаться”, мы можем организовать среду, позволяющую пользователям полностью самостоятельно модерировать информацию. Для организации этого, после нажатия кнопки “пожаловаться” пользователю сначала будет предложено пройти тест. Затем, если он успешно прошел тест, публикация, на которую он хочет пожаловаться и которая, как он считает, нарушает некое заранее заданное правило, будет отправлена на проверку.
В процессе прохождения теста пользователь будет является невольным, непредвзятым модератором некой публикации, оценка которой еще не известна, среди остальных публикаций.А публикация, на которую пользователь пожаловался, будет в свою отправлена другому пользователю, который также использует кнопку “пожаловаться”, работающую подобным образом. И уже этот пользователь в свою очередь будет невольным, непредвзятым модератором, данной публикации.

Что может дать такой подход?
  • Этот подход позволит упростить процесс модерации, сделать его массовой процедурой, при которой каждый пользователь имеет возможность выявлять нарушающую правила информацию.
  • Этот подход позволяет четко ответить на вопрос о предвзятости модерации или на обвинения в цензуре: нет, такая модерация не является предвзятой — оценивающий пользователь не знает, оценка какой публикации уже известна, а какую публикацию модерирует именно он.
  • Этот подход предлагает компромиссное решение для всех участников сторон: пользователей, интернет-компаний, контролирующих органов. Здесь сами пользователи являются непредвзятыми цензорами, компании создают условий пользовательской модерации, определяя вместе с контролирующими органами правила сетевого поведения.

Использование этого подхода видится прежде всего при модерировании интернет-обсуждений (комментариев). Так с его помощью его несложно организовать пользователей с разных сайтов в своеобразное сообщество модераторов. Сообщество, в котором адекватные, соблюдающие культуру пользователи имеют преимущество перед нарушающими и в котором используются простые правила. Небольшой пример возможной реализации такого подхода и правил сообщества приведен здесь.
Такой подход можно использовать и в других местах информационного поля. Например, для разметки видеоконтента, для выявления в них грубости, жестокости, наркотиков и т.д. Это может быть разметка видео, которое вы встретите на YouTube или пересланное вам по Whatsapp, в одну из групп, в которой вы состоите. Тогда, если это видео вас шокировало, и вы хотите предупредить других людей, вы можете с помощью указанного подхода пометить его как видео, содержащее тот или иной тип неприемлемого контента. Разумеется, предварительно выполнив тест по модерации. Для упрощения модерацию видео можно оптимизировать и посылать на модерацию не все видео целиком, а только фрагмент видео, содержащий неприемлемый контент. В итоге, при дальнейшем распространении этого видео, оно будет распространятся с пометкой, которая может быть полезной другим пользователям, не желающим видеть такого рода контент.
Этот же подход можно применить и к нарушениям другого типа. Например, в случае фейка пользователи могут самостоятельно добавлять ярлык о проверке фактов или же добавлять ссылку на опровергающую информацию.
И в заключении следует отметить, что нарушающая информация, выявленная пользователями с помощью указанного подхода в том или ином месте информационного поля, может быть передана на вход автоматическим методам, с целью последующей автоматизации процесса выявления подобных нарушений. Это позволит пользователям совместно с интернет-компаниями решать трудную задачу по модерированию публикуемой и распространяемой нами же информации.

===========
Источник:
habr.com
===========

===========
Автор оригинала: Sokolov Alex
===========
Похожие новости: Теги для поиска: #_spam_i_antispam (Спам и антиспам), #_upravlenie_soobschestvom (Управление сообществом), #_upravlenie_media (Управление медиа), #_sotsialnye_seti_i_soobschestva (Социальные сети и сообщества), #_moderatsija (модерация), #_kontent (контент), #_soobschestva (сообщества), #_kommentarii (комментарии), #_diskussii (дискуссии), #_spam_i_antispam (
Спам и антиспам
)
, #_upravlenie_soobschestvom (
Управление сообществом
)
, #_upravlenie_media (
Управление медиа
)
, #_sotsialnye_seti_i_soobschestva (
Социальные сети и сообщества
)
Профиль  ЛС 
Показать сообщения:     

Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

Текущее время: 22-Ноя 11:44
Часовой пояс: UTC + 5