[Искусственный интеллект, Социальные сети и сообщества, IT-компании] Facebook заявила, что будет использовать ИИ для модерации комментариев
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Facebook запускает в тестовом режиме систему оповещения администраторов сообществ о появляющихся конфликтах, работающую на основе анализа ИИ.
16 июня Facebook анонсировала несколько новых опций для владельцев сообществ и объявила о запуске в тестовом режиме системы оповещения Conflict Alerts. В основе системы лежит работа нейросети, которая будет искать и маркировать «нездоровые» комментарии пометкой «moderation alert» («оповещение модератора»). После администраторам придут сообщения о количестве подозрительных комментариев. Компания не сообщила подробностей о работе новой системы. Сайт Verge обратился к Facebook за дополнительным комментарием и выяснил, что компания будет использовать модель машинного обучения для поиска нежелательного контента. В качестве вводных данных пресс-секретарь Facebook указал лишь частоту и объём комментариев. Новый инструмент от Facebook похож на уже работающее оповещение по ключевым словам Keyword Alerts. Руководитель сообщества самостоятельно настраивает список фраз и отдельных слов. Затем система либо не пропустит комментарии с такими словами, либо оповестит о них. Система определяет и отправляет уведомление администратору о появлении нужных комментариев. В ноябре прошло года Facebook уже внедрила ИИ, помечающий подозрительные и приоритетные комментарии для администраторов соцсети. Компания указала, что в приоритете у алгоритма стоят популярные материалы и контент, связанный с терроризмом, сексуальной эксплуатацией детей или причинением вреда самому себе. Спам алгоритмы воспринимают как наименее важный контент. Алгоритм находит заданные в параметрах высказывания, но не умеет определять сарказм, иронию или сленг. В результате все эти «шутливые» комментарии попадают к администраторам.Невозможность распознать сарказм и шутки — общая проблема для всех подобных нейросетей. 4 июня этого года команда учёных под руководством Оксфордского университета опубликовала исследование, показавшее, что алгоритмы крупных компаний по-разному справляются с поиском нежелательного контента. Они были либо слишком суровыми, либо недостаточно строгими, и ни один из них не смог отличить сарказм, иронию или даже цитаты от вредоносного контента.
===========
Источник:
habr.com
===========
Похожие новости:
- [Обработка изображений, Реверс-инжиниринг, Машинное обучение, Искусственный интеллект] В Facebook AI научились находить источники дипфейков
- [Работа с 3D-графикой, CAD/CAM, Дизайн, IT-компании] Простой расчет Flow Simulation
- [AR и VR, IT-компании] Facebook протестирует рекламу внутри шлемов Oculus Quest
- [Информационная безопасность, Законодательство в IT, IT-компании] В сети обнаружен зарубежный сервер Elasticsearch с обновляемой базой СМС-сообщений, предположительно, с номера 900
- [IT-компании] Китайский разработчик собрал данные с 1,1 млрд страниц Taobao
- [Законодательство в IT, Социальные сети и сообщества, IT-компании] Закон о «приземлении» иностранных компаний прошёл третье финальное чтение
- [Python, Алгоритмы, Big Data, Машинное обучение, Искусственный интеллект] DataScience Digest — 17.06.21
- [Облачные сервисы, IT-компании] «Ростелеком» и Яндекс представят совместные облачные сервисы для бизнеса и госсектора
- [Социальные сети и сообщества, Звук] Facebook добавит поддержку подкастов 22 июня
- [Алгоритмы, Научно-популярное, Искусственный интеллект] DeepMind считает, что обучения с подкреплением хватит для разработки сильной формы искусственного интеллекта (перевод)
Теги для поиска: #_iskusstvennyj_intellekt (Искусственный интеллект), #_sotsialnye_seti_i_soobschestva (Социальные сети и сообщества), #_itkompanii (IT-компании), #_facebook, #_moderatsija_kontenta (модерация контента), #_sotsialnye_seti (социальные сети), #_iskusstvennyj_intellekt (искусственный интеллект), #_mashinnoe_obuchenie (машинное обучение), #_iskusstvennyj_intellekt (
Искусственный интеллект
), #_sotsialnye_seti_i_soobschestva (
Социальные сети и сообщества
), #_itkompanii (
IT-компании
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 12:38
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Facebook запускает в тестовом режиме систему оповещения администраторов сообществ о появляющихся конфликтах, работающую на основе анализа ИИ. 16 июня Facebook анонсировала несколько новых опций для владельцев сообществ и объявила о запуске в тестовом режиме системы оповещения Conflict Alerts. В основе системы лежит работа нейросети, которая будет искать и маркировать «нездоровые» комментарии пометкой «moderation alert» («оповещение модератора»). После администраторам придут сообщения о количестве подозрительных комментариев. Компания не сообщила подробностей о работе новой системы. Сайт Verge обратился к Facebook за дополнительным комментарием и выяснил, что компания будет использовать модель машинного обучения для поиска нежелательного контента. В качестве вводных данных пресс-секретарь Facebook указал лишь частоту и объём комментариев. Новый инструмент от Facebook похож на уже работающее оповещение по ключевым словам Keyword Alerts. Руководитель сообщества самостоятельно настраивает список фраз и отдельных слов. Затем система либо не пропустит комментарии с такими словами, либо оповестит о них. Система определяет и отправляет уведомление администратору о появлении нужных комментариев. В ноябре прошло года Facebook уже внедрила ИИ, помечающий подозрительные и приоритетные комментарии для администраторов соцсети. Компания указала, что в приоритете у алгоритма стоят популярные материалы и контент, связанный с терроризмом, сексуальной эксплуатацией детей или причинением вреда самому себе. Спам алгоритмы воспринимают как наименее важный контент. Алгоритм находит заданные в параметрах высказывания, но не умеет определять сарказм, иронию или сленг. В результате все эти «шутливые» комментарии попадают к администраторам.Невозможность распознать сарказм и шутки — общая проблема для всех подобных нейросетей. 4 июня этого года команда учёных под руководством Оксфордского университета опубликовала исследование, показавшее, что алгоритмы крупных компаний по-разному справляются с поиском нежелательного контента. Они были либо слишком суровыми, либо недостаточно строгими, и ни один из них не смог отличить сарказм, иронию или даже цитаты от вредоносного контента. =========== Источник: habr.com =========== Похожие новости:
Искусственный интеллект ), #_sotsialnye_seti_i_soobschestva ( Социальные сети и сообщества ), #_itkompanii ( IT-компании ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 12:38
Часовой пояс: UTC + 5