[Искусственный интеллект, Социальные сети и сообщества, IT-компании] Facebook заявила, что будет использовать ИИ для модерации комментариев

Автор Сообщение
news_bot ®

Стаж: 6 лет 9 месяцев
Сообщений: 27286

Создавать темы news_bot ® написал(а)
17-Июн-2021 20:31

Facebook запускает в тестовом режиме систему оповещения администраторов сообществ о появляющихся конфликтах, работающую на основе анализа ИИ.      
16 июня Facebook анонсировала несколько новых опций для владельцев сообществ и объявила о запуске в тестовом режиме системы оповещения Conflict Alerts. В основе системы лежит работа нейросети, которая будет искать и маркировать «нездоровые» комментарии пометкой «moderation alert» («оповещение модератора»). После администраторам придут сообщения о количестве подозрительных комментариев. Компания не сообщила подробностей о работе новой системы. Сайт Verge обратился к Facebook за дополнительным комментарием и выяснил, что компания будет использовать модель машинного обучения для поиска нежелательного контента. В качестве вводных данных пресс-секретарь Facebook указал лишь частоту и объём комментариев. Новый инструмент от Facebook похож на уже работающее оповещение по ключевым словам Keyword Alerts. Руководитель сообщества самостоятельно настраивает список фраз и отдельных слов. Затем система либо не пропустит комментарии с такими словами, либо оповестит о них. Система определяет и отправляет уведомление администратору о появлении нужных комментариев. В ноябре прошло года Facebook уже внедрила ИИ, помечающий подозрительные и приоритетные комментарии для администраторов соцсети. Компания указала, что в приоритете у алгоритма стоят популярные материалы и контент, связанный с терроризмом, сексуальной эксплуатацией детей или причинением вреда самому себе. Спам алгоритмы воспринимают как наименее важный контент. Алгоритм находит заданные в параметрах высказывания, но не умеет определять сарказм, иронию или сленг. В результате все эти «шутливые» комментарии попадают к администраторам.Невозможность распознать сарказм и шутки — общая проблема для всех подобных нейросетей. 4 июня этого года команда учёных под руководством Оксфордского университета опубликовала исследование, показавшее, что алгоритмы крупных компаний по-разному справляются с поиском нежелательного контента. Они были либо слишком суровыми, либо недостаточно строгими, и ни один из них не смог отличить сарказм, иронию или даже цитаты от вредоносного контента. 
===========
Источник:
habr.com
===========

Похожие новости: Теги для поиска: #_iskusstvennyj_intellekt (Искусственный интеллект), #_sotsialnye_seti_i_soobschestva (Социальные сети и сообщества), #_itkompanii (IT-компании), #_facebook, #_moderatsija_kontenta (модерация контента), #_sotsialnye_seti (социальные сети), #_iskusstvennyj_intellekt (искусственный интеллект), #_mashinnoe_obuchenie (машинное обучение), #_iskusstvennyj_intellekt (
Искусственный интеллект
)
, #_sotsialnye_seti_i_soobschestva (
Социальные сети и сообщества
)
, #_itkompanii (
IT-компании
)
Профиль  ЛС 
Показать сообщения:     

Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

Текущее время: 22-Ноя 12:38
Часовой пояс: UTC + 5