[Голосовые интерфейсы, Информационная безопасность, Исследования и прогнозы в IT] Исследователи обнаружили 1000 фраз, которые приводят к запуску Alexa, Siri, Assistant и Cortana
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Новое исследование голосовых помощников Alexa, Google Home, Siri и Microsoft Cortana продемонстрировало, что триггеров, которые приводят к включению устройств с ними, намного больше, чем предполагалось ранее. Исследователи обнаружили более 1000 таких словосочетаний.
Большое число таких фраз содержится в фильмах, сериалах и телешоу, например, в «Игре престолов», «Карточном домике» и в новостных сводках.
Извините, данный ресурс не поддреживается. :(
Авторы исследования говорят, что к ложному срабатыванию приводят особенности ПО голосовых помощников, которое ориентировано на распознавание речи владельца даже в условиях помех.
Извините, данный ресурс не поддреживается. :(
Примеры слов и словосочетаний-триггеров:
Alexa: «недопустимо», «выборы» и «письмо» (unacceptable, election, letter);
Google Home: «Хорошо, круто» и «Хорошо, кто читает» (OK, cool и Okay, who is reading);
Siri: «город» и «эй, Джерри» (a city и hey jerry);
Microsoft Cortana: «Монтана» (Montana).
Извините, данный ресурс не поддреживается. :(
Такие фразы активируют устройство, затем его алгоритмы анализируют их; после ошибочного заключения устройства отправляют записанные аудио на удаленные серверы, где более надежные механизмы проверки также анализируют их. Иногда же триггеры обманывают только локальный алгоритм, но не облачный.
По словам исследователей, когда устройства запускаются, они записывают часть сказанного и передают эти записи их производителю. Затем аудио может быть расшифровано и проверено сотрудниками в попытке улучшить распознавание слов. Таким образом, фрагменты потенциально приватных разговоров могут попасть в журналы компании.
Авторы делают вывод, что те, кто реально обеспокоен этой проблемой, могут оставлять голосовых помощников отключенными или заблокированными для прослушивания, за исключением случаев, когда это необходимо, либо вообще отказаться от их использования.
На это заявление пока ответили только в Amazon. Там заверили, что их устройства Alexa ориентированы на конфиденциальность и «пробуждаются» только после соответствующей команды. Компания утверждает, что ложные триггеры срабатывают только в редких случаях, а системы распознавания речи улучшаются с каждым днем — по мере того, как клиенты все больше используют устройства. В апреле 2019 года Bloomberg писал, что подрядчики Amazon прослушивают аудиозапросы, адресованные голосовому помощнику, для улучшения его работы. Позднее стало известно, что десятки работников-людей в Индии и Румынии могут просматривать отрывки видео, снятых с помощью ещё одного устройства Amazon — облачной камеры видеонаблюдения камеры Cloud Cam — для обучения алгоритмов искусственного интеллекта.
В прослушивании аудиозаписей обвиняли Google, Apple и Microsoft. Google официально признала эти действия подрядчиков и теперь запрашивает разрешение для сбора данных пользователей.
В Apple прослушивали личные разговоры и команды Siri в рамках глобальной программы оценки работы помощника, из-за чего компания столкнулась с коллективным судебным иском и была вынуждена приостановить программу оценки. Правда, недавно бывший подрядчик заявил, что Siri продолжает записывать запросы.
В Microsoft прослушивали разговоры через Skype и команды Cortana.
Ранее подобное исследование провели для колонок Google Home Mini, Apple Homepod, Harman Kardon Invoke, Amazon Echo Dot. Оно показало, что умные устройства активировались при определенных словах и фразах, которые содержались в выборке из различных сериалов и другого развлекательного контента Netflix.
===========
Источник:
habr.com
===========
Похожие новости:
- [Голосовые интерфейсы, Звук, Машинное обучение] Mozilla опубликовала крупнейший датасет разговорной речи с транскрипцией: 7226 часов, 54 языка
- [GitHub, Информационная безопасность, Статистика в IT] Анализ 170 млн утекших паролей: интересные находки
- [Информационная безопасность] Разбираем атаки на Kerberos с помощью Rubeus. Часть 2
- [DIY или Сделай сам, Natural Language Processing, Будущее здесь, Голосовые интерфейсы, Информационная безопасность] Голосовой помощник для совершения операций на бирже
- [Информационная безопасность] С аккаунта МИД РФ в твиттере продают базу данных туристов
- [Информационная безопасность] Исключения хранения биометрических данных
- [Информационная безопасность] Mail.ru для бизнеса собирает онлайн-встречу по информационной безопасности
- [Информационная безопасность, Исследования и прогнозы в IT] Карантинные хроники: как рос DDoS
- [Законодательство в IT, Информационная безопасность, Криптография] В системе интернет-голосования можно расшифровать чужие голоса, выпущено расширение для браузера
- [Будущее здесь, Законодательство в IT, Информационная безопасность, Финансы в IT] Почему у Wechat нет и не может быть конкурентов
Теги для поиска: #_golosovye_interfejsy (Голосовые интерфейсы), #_informatsionnaja_bezopasnost (Информационная безопасность), #_issledovanija_i_prognozy_v_it (Исследования и прогнозы в IT), #_golosovye_pomoschniki (голосовые помощники), #_issledovanie (исследование), #_triggery (триггеры), #_raspoznavanie_rechi (распознавание речи), #_alexa, #_google_home, #_siri, #_cortana, #_golosovye_interfejsy (
Голосовые интерфейсы
), #_informatsionnaja_bezopasnost (
Информационная безопасность
), #_issledovanija_i_prognozy_v_it (
Исследования и прогнозы в IT
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 03-Дек 22:32
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Новое исследование голосовых помощников Alexa, Google Home, Siri и Microsoft Cortana продемонстрировало, что триггеров, которые приводят к включению устройств с ними, намного больше, чем предполагалось ранее. Исследователи обнаружили более 1000 таких словосочетаний. Большое число таких фраз содержится в фильмах, сериалах и телешоу, например, в «Игре престолов», «Карточном домике» и в новостных сводках. Извините, данный ресурс не поддреживается. :( Авторы исследования говорят, что к ложному срабатыванию приводят особенности ПО голосовых помощников, которое ориентировано на распознавание речи владельца даже в условиях помех. Извините, данный ресурс не поддреживается. :( Примеры слов и словосочетаний-триггеров: Alexa: «недопустимо», «выборы» и «письмо» (unacceptable, election, letter); Google Home: «Хорошо, круто» и «Хорошо, кто читает» (OK, cool и Okay, who is reading); Siri: «город» и «эй, Джерри» (a city и hey jerry); Microsoft Cortana: «Монтана» (Montana). Извините, данный ресурс не поддреживается. :( Такие фразы активируют устройство, затем его алгоритмы анализируют их; после ошибочного заключения устройства отправляют записанные аудио на удаленные серверы, где более надежные механизмы проверки также анализируют их. Иногда же триггеры обманывают только локальный алгоритм, но не облачный. По словам исследователей, когда устройства запускаются, они записывают часть сказанного и передают эти записи их производителю. Затем аудио может быть расшифровано и проверено сотрудниками в попытке улучшить распознавание слов. Таким образом, фрагменты потенциально приватных разговоров могут попасть в журналы компании. Авторы делают вывод, что те, кто реально обеспокоен этой проблемой, могут оставлять голосовых помощников отключенными или заблокированными для прослушивания, за исключением случаев, когда это необходимо, либо вообще отказаться от их использования. На это заявление пока ответили только в Amazon. Там заверили, что их устройства Alexa ориентированы на конфиденциальность и «пробуждаются» только после соответствующей команды. Компания утверждает, что ложные триггеры срабатывают только в редких случаях, а системы распознавания речи улучшаются с каждым днем — по мере того, как клиенты все больше используют устройства. В апреле 2019 года Bloomberg писал, что подрядчики Amazon прослушивают аудиозапросы, адресованные голосовому помощнику, для улучшения его работы. Позднее стало известно, что десятки работников-людей в Индии и Румынии могут просматривать отрывки видео, снятых с помощью ещё одного устройства Amazon — облачной камеры видеонаблюдения камеры Cloud Cam — для обучения алгоритмов искусственного интеллекта. В прослушивании аудиозаписей обвиняли Google, Apple и Microsoft. Google официально признала эти действия подрядчиков и теперь запрашивает разрешение для сбора данных пользователей. В Apple прослушивали личные разговоры и команды Siri в рамках глобальной программы оценки работы помощника, из-за чего компания столкнулась с коллективным судебным иском и была вынуждена приостановить программу оценки. Правда, недавно бывший подрядчик заявил, что Siri продолжает записывать запросы. В Microsoft прослушивали разговоры через Skype и команды Cortana. Ранее подобное исследование провели для колонок Google Home Mini, Apple Homepod, Harman Kardon Invoke, Amazon Echo Dot. Оно показало, что умные устройства активировались при определенных словах и фразах, которые содержались в выборке из различных сериалов и другого развлекательного контента Netflix. =========== Источник: habr.com =========== Похожие новости:
Голосовые интерфейсы ), #_informatsionnaja_bezopasnost ( Информационная безопасность ), #_issledovanija_i_prognozy_v_it ( Исследования и прогнозы в IT ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 03-Дек 22:32
Часовой пояс: UTC + 5