[Машинное обучение, Игры и игровые приставки] Компания Modulate представила службу распознавания речи ToxMod для борьбы с токсичностью в видеоиграх
Автор
Сообщение
news_bot ®
Стаж: 7 лет 2 месяца
Сообщений: 27286

Компания Modulate разработала службу ToxMod, которая сканирует речь из голосовых чатов видеоигр на предмет токсичности с использованием искусственного интеллекта. Разработчики утверждают, что она может распознавать широкий спектр негативных фраз от расистских высказываний до попыток домогательств во внутриигровых чатах. Служба анализирует речь человека не только на предмет определённых слов, которые могут свидетельствовать о токсичности, но и интонации, тональность и громкость, с которыми игрок произносит их. Разработка ToxMod основана на опыте, который команда Modulate приобрела во время создания программы VoiceWear, которая позволяет переводить свою речь на определённый «скин» голоса — например, придавать ей голос одного из игровых персонажей. Программу представили в 2019 году. Компания обнаружила, что наработки, полученные в создании VoiceWear, можно использовать и в других направлениях. В частности, Modulate отметила, что, согласно исследованиям, 48% всей внутриигровой токсичности происходит через голосовые чаты, при этом 22% игроков полностью прекращают запускать игру из-за токсичности в сообществе. Поэтому Modulate решила разработать сервис, который призван избавить игроков от подобных негативных высказываний, отслеживая голосовые сообщения в режиме реального времени. ИИ для ToxMod обучали на основе генеративно-состязательных нейронных сетей. Компания не уточняет, как именно происходил процесс обучения. ToxMod сканирует речь игроков и определяет, присутствуют ли в ней какие-либо запрещённые высказывания и слова или с какими эмоциями она была произнесена. Помимо оскорблений, издевательств и других проявлений токсичности, служба распознаёт также произнесённую идентификационную информацию — например, номера телефонов — и предпринимает заранее установленные действия. Эти действия могут быть более тонкими, чем обычное заглушение звука, говорят разработчики, например, программа умеет заглушать отдельные расистские высказывания. При этом пользователи программы могут сами устанавливать «предел токсичности» и скрипты на своё усмотрение.Извините, данный ресурс не поддреживается. :( По словам разработчиков, программа работает непосредственно на устройствах самих игроков — на серверы Modulate для обработки будут отправляться только те записи голосовых чатов, в которых она усмотрит высокую вероятность токсичных высказываний. Их будут рассматривать ещё более сложные алгоритмы. В случае возникновения спорных ситуаций, запись будет передана команде модераторов. Однако это означает, что то или иное высказывание не будет заблокировано достаточно быстро.Технический директор Modulate Картер Хаффман отмечает, что в этом состоит одна из главных проблем, которая стоит перед командой разработчиков — компромисс между задержкой и точностью работы программы. По его словам, сделать упор именно на скорость работы программы, которая позволила бы предвосхищать любые негативные проявления в речи, невозможно, поскольку это грозит большим количеством ложных срабатываний и, напротив, пропуском большого количества токсичных фраз. Кроме того, процесс работы не может быть полностью автоматизирован, поскольку спорные ситуации всё равно будут возникать. При этом программа будет чрезвычайно полезна различным игровым сообществам, уверен Хаффман. ToxMod позволит значительно разгрузить службы модерации, самостоятельно отмечая токсичность в голосовых чатах, а также ведя некую «историю токсичности» того или иного игрока. Кроме того, служба может быть интересна таким платформам, как YouTube, которые смогли бы использовать подобные ей сервисы для проверки видео на музыку, защищённую авторским правом.
===========
Источник:
habr.com
===========
Похожие новости:
- [Игры и игровые приставки] EA купит Codemasters за 1,2 миллиарда долларов
- [Игры и игровые приставки] Высокий интерес к Cyberpunk 2077 вынудил Google досрочно закрыть промо-акцию на Stadia
- [Игры и игровые приставки] CD Projekt Red пообещала исправить Cyberpunk 2077 на PS4 и Xbox One и вернуть игрокам деньги
- [Обработка изображений, Машинное обучение, Искусственный интеллект, Процессоры] Pentium на Эльбрусе: как мы томографировали процессор
- [Обработка изображений, Машинное обучение, Смартфоны] Google показала обучение нейросети для создания портретного освещения на снимках
- [Биографии гиков, Игры и игровые приставки] Умер Эрик Энгстром, легенда игровой разработки Microsoft и автор DirectX
- [Компьютерное железо, Игры и игровые приставки, IT-компании] В iFixit разобрали PlayStation 5 и обнаружили, что замена оптического привода заблокирована на программном уровне
- [Игры и игровые приставки] Sony возвращает деньги за Cyberpunk 2077 некоторым владельцам PS4, которые недовольны покупкой
- [Разработка игр, Настольные компьютеры, Процессоры, Игры и игровые приставки] Cyberpunk 2077 игнорирует многопоточность микропроцессора AMD
- [Разработка игр, Игры и игровые приставки] Бесплатный онлайн-круглый стол «Тенденции игрового рынка 2021. Какие игры делать в новом году»
Теги для поиска: #_mashinnoe_obuchenie (Машинное обучение), #_igry_i_igrovye_pristavki (Игры и игровые приставки), #_modulate, #_toxmod, #_voicewear, #_toksichnost (токсичность), #_onlajnigry (онлайн-игры), #_mashinnoe_obuchenie (
Машинное обучение
), #_igry_i_igrovye_pristavki (
Игры и игровые приставки
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 26-Апр 21:55
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 7 лет 2 месяца |
|
![]() Компания Modulate разработала службу ToxMod, которая сканирует речь из голосовых чатов видеоигр на предмет токсичности с использованием искусственного интеллекта. Разработчики утверждают, что она может распознавать широкий спектр негативных фраз от расистских высказываний до попыток домогательств во внутриигровых чатах. Служба анализирует речь человека не только на предмет определённых слов, которые могут свидетельствовать о токсичности, но и интонации, тональность и громкость, с которыми игрок произносит их. Разработка ToxMod основана на опыте, который команда Modulate приобрела во время создания программы VoiceWear, которая позволяет переводить свою речь на определённый «скин» голоса — например, придавать ей голос одного из игровых персонажей. Программу представили в 2019 году. Компания обнаружила, что наработки, полученные в создании VoiceWear, можно использовать и в других направлениях. В частности, Modulate отметила, что, согласно исследованиям, 48% всей внутриигровой токсичности происходит через голосовые чаты, при этом 22% игроков полностью прекращают запускать игру из-за токсичности в сообществе. Поэтому Modulate решила разработать сервис, который призван избавить игроков от подобных негативных высказываний, отслеживая голосовые сообщения в режиме реального времени. ИИ для ToxMod обучали на основе генеративно-состязательных нейронных сетей. Компания не уточняет, как именно происходил процесс обучения. ToxMod сканирует речь игроков и определяет, присутствуют ли в ней какие-либо запрещённые высказывания и слова или с какими эмоциями она была произнесена. Помимо оскорблений, издевательств и других проявлений токсичности, служба распознаёт также произнесённую идентификационную информацию — например, номера телефонов — и предпринимает заранее установленные действия. Эти действия могут быть более тонкими, чем обычное заглушение звука, говорят разработчики, например, программа умеет заглушать отдельные расистские высказывания. При этом пользователи программы могут сами устанавливать «предел токсичности» и скрипты на своё усмотрение.Извините, данный ресурс не поддреживается. :( По словам разработчиков, программа работает непосредственно на устройствах самих игроков — на серверы Modulate для обработки будут отправляться только те записи голосовых чатов, в которых она усмотрит высокую вероятность токсичных высказываний. Их будут рассматривать ещё более сложные алгоритмы. В случае возникновения спорных ситуаций, запись будет передана команде модераторов. Однако это означает, что то или иное высказывание не будет заблокировано достаточно быстро.Технический директор Modulate Картер Хаффман отмечает, что в этом состоит одна из главных проблем, которая стоит перед командой разработчиков — компромисс между задержкой и точностью работы программы. По его словам, сделать упор именно на скорость работы программы, которая позволила бы предвосхищать любые негативные проявления в речи, невозможно, поскольку это грозит большим количеством ложных срабатываний и, напротив, пропуском большого количества токсичных фраз. Кроме того, процесс работы не может быть полностью автоматизирован, поскольку спорные ситуации всё равно будут возникать. При этом программа будет чрезвычайно полезна различным игровым сообществам, уверен Хаффман. ToxMod позволит значительно разгрузить службы модерации, самостоятельно отмечая токсичность в голосовых чатах, а также ведя некую «историю токсичности» того или иного игрока. Кроме того, служба может быть интересна таким платформам, как YouTube, которые смогли бы использовать подобные ей сервисы для проверки видео на музыку, защищённую авторским правом. =========== Источник: habr.com =========== Похожие новости:
Машинное обучение ), #_igry_i_igrovye_pristavki ( Игры и игровые приставки ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 26-Апр 21:55
Часовой пояс: UTC + 5