[Искусственный интеллект, Социальные сети и сообщества] Китайские разработчики создали модель ИИ для обнаружения сарказма
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Китайские исследователи заявляют, что они создали ИИ для обнаружения сарказма. Нейросеть обучили на базе данных из Twitter. ИИ оценивает текст поста и привязанное к нему изображение, чтобы понять, саркастичен пост или нет.«Сарказм — это своеобразная форма выражения чувств, при которой поверхностная эмоция отличается от подразумеваемой. Обнаружение сарказма на платформах социальных сетей в прошлом применялось, в основном, к текстовым высказываниям. В этом случае для обнаружения саркастического тона использовались лексические индикаторы (например, междометия), лингвистические маркеры и контекстная информация (например, профили пользователей). Однако современные платформы социальных сетей позволяют создавать мультимодальные сообщения, в которых аудиовизуальный контент объединяется с текстом, что делает анализ отдельной части сообщения неполным», — поясняют исследователи.
ИИ исследователей фокусируется на различиях между текстом и изображениями, а затем объединяет эти результаты для составления прогнозов. Он также сравнивает хэштеги с текстом твита, чтобы помочь оценить настроение, которое пытается передать пользователь.В ходе тестирования модель китайских ученых показала улучшение на 2,74% по шкале F1 (оценка классификатора) сравнению с HFM (Hierarchical Fusion Model), представленной в прошлом году: новая нейросеть достигла 86% точности по сравнению с 83% у HFM. Ученые начали использовать ИИ для изучения сарказма в Instagram, Tumblr и Twitter в 2016 году. В 2019 году исследователи из Мичиганского и Сингапурского университетов выпустили нейросеть для обнаружения сарказма в телешоупод названием MUStARD. Тесты показали, что использование мультимодальной информации может снизить уровень ошибок при обнаружении сарказма до 12,9% по шкале F1 по сравнению с оценкой одного типа информации. Весной этого года Facebook рассказала об использовании искусственного интеллекта для выявления постов, нарушающих условия платформы. ИИ Facebook пытается обнаружить оскорбления, разжигание ненависти и хейтспич. В компании рассказали, что в первом квартале 2020 года соцсеть выявила и удалила 9,6 млн единиц контента, который был определён как оскорбительный или ненавистнический. Из 9,6 млн удалённых постов алгоритмы Facebook обнаружили 88,8% раньше, чем о них сообщили пользователи. Это на 86% больше, чем в предыдущем квартале. Тем не менее, в Facebook признали, что алгоритмы пока не готовы к широкому развертыванию — точность их работы составляет около 65-70%.
===========
Источник:
habr.com
===========
Похожие новости:
- [Обработка изображений, Машинное обучение, Научно-популярное, Искусственный интеллект] Глубокие нейросети в компьютерном зрении: genesis for geeks
- [Машинное обучение, Искусственный интеллект, Natural Language Processing] Тестируем ruGPT-3 на новых задачах
- [Разработка под MacOS, Машинное обучение, Софт, Искусственный интеллект, TensorFlow] Apple представила форк TensorFlow для чипа M1
- [Python, Машинное обучение, Искусственный интеллект, TensorFlow] Нейросеть анализирует сексуальность игроков, пример машинной обработки и классификаци текста
- [Законодательство в IT] Госдума рассмотрит вопрос о блокировке Facebook и YouTube за цензуру
- [Машинное обучение, Робототехника, Искусственный интеллект, Транспорт, Будущее здесь] “Водитель, вы — слабое звено”: новая разработка Honda
- [Информационная безопасность, Обработка изображений, Машинное обучение, Искусственный интеллект] Насколько неуязвим искусственный интеллект?
- [Программирование, Машинное обучение, Искусственный интеллект, Голосовые интерфейсы] Open Source синтез речи SOVA
- [Open source, Машинное обучение, Искусственный интеллект] DeepMind открыла код среды Lab2D для обучения нейросетей
- [Разработка игр, Конференции, Искусственный интеллект, Голосовые интерфейсы] Конференция Conversations: инструменты и кейсы разговорного AI от DeepPavlov, SberDevices, CoolGames и не только
Теги для поиска: #_iskusstvennyj_intellekt (Искусственный интеллект), #_sotsialnye_seti_i_soobschestva (Социальные сети и сообщества), #_iskusstvennyj_intellekt (искусственный интеллект), #_nejroseti (нейросети), #_twitter, #_sarkazm (сарказм), #_obnaruzhenie_sarkazma (обнаружение сарказма), #_iskusstvennyj_intellekt (
Искусственный интеллект
), #_sotsialnye_seti_i_soobschestva (
Социальные сети и сообщества
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 23-Ноя 01:36
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Китайские исследователи заявляют, что они создали ИИ для обнаружения сарказма. Нейросеть обучили на базе данных из Twitter. ИИ оценивает текст поста и привязанное к нему изображение, чтобы понять, саркастичен пост или нет.«Сарказм — это своеобразная форма выражения чувств, при которой поверхностная эмоция отличается от подразумеваемой. Обнаружение сарказма на платформах социальных сетей в прошлом применялось, в основном, к текстовым высказываниям. В этом случае для обнаружения саркастического тона использовались лексические индикаторы (например, междометия), лингвистические маркеры и контекстная информация (например, профили пользователей). Однако современные платформы социальных сетей позволяют создавать мультимодальные сообщения, в которых аудиовизуальный контент объединяется с текстом, что делает анализ отдельной части сообщения неполным», — поясняют исследователи. ИИ исследователей фокусируется на различиях между текстом и изображениями, а затем объединяет эти результаты для составления прогнозов. Он также сравнивает хэштеги с текстом твита, чтобы помочь оценить настроение, которое пытается передать пользователь.В ходе тестирования модель китайских ученых показала улучшение на 2,74% по шкале F1 (оценка классификатора) сравнению с HFM (Hierarchical Fusion Model), представленной в прошлом году: новая нейросеть достигла 86% точности по сравнению с 83% у HFM. Ученые начали использовать ИИ для изучения сарказма в Instagram, Tumblr и Twitter в 2016 году. В 2019 году исследователи из Мичиганского и Сингапурского университетов выпустили нейросеть для обнаружения сарказма в телешоупод названием MUStARD. Тесты показали, что использование мультимодальной информации может снизить уровень ошибок при обнаружении сарказма до 12,9% по шкале F1 по сравнению с оценкой одного типа информации. Весной этого года Facebook рассказала об использовании искусственного интеллекта для выявления постов, нарушающих условия платформы. ИИ Facebook пытается обнаружить оскорбления, разжигание ненависти и хейтспич. В компании рассказали, что в первом квартале 2020 года соцсеть выявила и удалила 9,6 млн единиц контента, который был определён как оскорбительный или ненавистнический. Из 9,6 млн удалённых постов алгоритмы Facebook обнаружили 88,8% раньше, чем о них сообщили пользователи. Это на 86% больше, чем в предыдущем квартале. Тем не менее, в Facebook признали, что алгоритмы пока не готовы к широкому развертыванию — точность их работы составляет около 65-70%. =========== Источник: habr.com =========== Похожие новости:
Искусственный интеллект ), #_sotsialnye_seti_i_soobschestva ( Социальные сети и сообщества ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 23-Ноя 01:36
Часовой пояс: UTC + 5