[Информационная безопасность, Алгоритмы, Обработка изображений, Искусственный интеллект] В McAfee преобразовали фото так, что система распознавания лиц приняла одного человека за другого
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Команда из McAfee, занимающейся кибербезопасностью, организовала атаку на систему распознавания лиц, аналогичную тем, которые в настоящее время используются в аэропортах для проверки паспортов. Используя машинное обучение, исследователи создали изображение, которое выглядело как человек с оригинального снимка. Однако алгоритм не смог идентифицировать личность, приняв данное изображение за снимок другого человека.
Чтобы ввести систему в заблуждение, исследователи использовали алгоритм преобразования изображений, известный как CycleGAN, который переводит фотографии из одного стиля в другой. Например, он может превратить фотографию гавани в рисунок стиля Моне или заменить летнее фото гор на зимнее.
Извините, данный ресурс не поддреживается. :(
Команда McAfee использовала 1500 фотографий. Их загрузили в CycleGAN, чтобы преобразовать друг в друга. В то же время алгоритм задействовали, чтобы проверить новые изображения на распознаваемость. После создания сотен снимков CycleGAN выдал поддельное изображение, которое выглядело как человек А, но алгоритм решил, что это был человек Б.
Исследователи отметили, что они не имели доступа к реальной системе, которую используют аэропорты для идентификации пассажиров, и вместо этого использовали новейший алгоритм с открытым исходным кодом. Однако они полагают, что, если злоумышленники получат доступ к целевой системе, то эта атака сработает даже в аэропорту.
Извините, данный ресурс не поддреживается. :(
Извините, данный ресурс не поддреживается. :(
Извините, данный ресурс не поддреживается. :(
Ранее команда Чикагского университета выпустила Fawkes — инструмент, предназначенный для «маскировки» лиц, который слегка меняет снимок в социальных сетях, чтобы обмануть системы искусственного интеллекта. Исследователи из компании Kneron также показали, как маски могут обмануть системы распознавания лиц, используемые во всем мире. Исследование Национального института стандартов и технологий США (NIST) показало, что маски для лица, которые люди используют в период COVID-19, также создают препятствия для работы алгоритмов. Частота ошибок некоторых из 89 наиболее широко используемых систем выросла на 5-50%. В обычной ситуации этот показатель не превышал 0,3%.
Исследователи McAfee заявляют, что их цель в конечном итоге — продемонстрировать уязвимости, присущие этим системам ИИ: «Искусственный интеллект и распознавание лиц — невероятно мощные инструменты, помогающие в процессе идентификации и авторизации людей. Но когда вы просто берете их и слепо заменяете существующую человеческую систему, без какой-либо дополнительной проверки, то новая схема может иметь даже больше уязвимостей, чем раньше».
===========
Источник:
habr.com
===========
Похожие новости:
- [Информационная безопасность, Процессоры, IT-компании] У Intel утекли 20 ГБ исходных кодов и внутренней документации
- [Python, Искусственный интеллект, Natural Language Processing] Итоговые проекты курса Deep Learning in Natural Language Processing (by DeepPavlov Lab)
- [Информационная безопасность, Сетевые технологии, Сетевое оборудование] 1.5 схемы на отечественном IPsec VPN. Тестирую демоверсии
- [Информационная безопасность] Удобные пароли для полиглотов
- [Информационная безопасность, Системы обмена сообщениями, Законодательство в IT, Социальные сети и сообщества] Трамп запретил жителям США «иметь какие-либо дела» с TikTok и WeChat
- [Алгоритмы, Искусственный интеллект] В Эдинбурге пройдет первый в мире фестиваль, программу которого создал ИИ
- [Искусственный интеллект] Взаимодействие агента и среды — путь к ОИИ
- [Информационная безопасность, Социальные сети и сообщества] Немного про кибербезопасность и «кожаных человеков» (с), т.е. нас с вами
- [Информационная безопасность, Антивирусная защита] Лечение или профилактика: как справиться с пандемией COVID-брендированных кибератак
- [Информационная безопасность, Разработка мобильных приложений] Защищаемся от трекеров на мобильных платформах
Теги для поиска: #_informatsionnaja_bezopasnost (Информационная безопасность), #_algoritmy (Алгоритмы), #_obrabotka_izobrazhenij (Обработка изображений), #_iskusstvennyj_intellekt (Искусственный интеллект), #_mcafee, #_sistemy_raspoznavanija (системы распознавания), #_algoritmy_obrabotki_izobrazhenij (алгоритмы обработки изображений), #_fejki (фейки), #_informatsionnaja_bezopasnost (
Информационная безопасность
), #_algoritmy (
Алгоритмы
), #_obrabotka_izobrazhenij (
Обработка изображений
), #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 20:29
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Команда из McAfee, занимающейся кибербезопасностью, организовала атаку на систему распознавания лиц, аналогичную тем, которые в настоящее время используются в аэропортах для проверки паспортов. Используя машинное обучение, исследователи создали изображение, которое выглядело как человек с оригинального снимка. Однако алгоритм не смог идентифицировать личность, приняв данное изображение за снимок другого человека. Чтобы ввести систему в заблуждение, исследователи использовали алгоритм преобразования изображений, известный как CycleGAN, который переводит фотографии из одного стиля в другой. Например, он может превратить фотографию гавани в рисунок стиля Моне или заменить летнее фото гор на зимнее. Извините, данный ресурс не поддреживается. :( Команда McAfee использовала 1500 фотографий. Их загрузили в CycleGAN, чтобы преобразовать друг в друга. В то же время алгоритм задействовали, чтобы проверить новые изображения на распознаваемость. После создания сотен снимков CycleGAN выдал поддельное изображение, которое выглядело как человек А, но алгоритм решил, что это был человек Б. Исследователи отметили, что они не имели доступа к реальной системе, которую используют аэропорты для идентификации пассажиров, и вместо этого использовали новейший алгоритм с открытым исходным кодом. Однако они полагают, что, если злоумышленники получат доступ к целевой системе, то эта атака сработает даже в аэропорту. Извините, данный ресурс не поддреживается. :( Извините, данный ресурс не поддреживается. :( Извините, данный ресурс не поддреживается. :( Ранее команда Чикагского университета выпустила Fawkes — инструмент, предназначенный для «маскировки» лиц, который слегка меняет снимок в социальных сетях, чтобы обмануть системы искусственного интеллекта. Исследователи из компании Kneron также показали, как маски могут обмануть системы распознавания лиц, используемые во всем мире. Исследование Национального института стандартов и технологий США (NIST) показало, что маски для лица, которые люди используют в период COVID-19, также создают препятствия для работы алгоритмов. Частота ошибок некоторых из 89 наиболее широко используемых систем выросла на 5-50%. В обычной ситуации этот показатель не превышал 0,3%. Исследователи McAfee заявляют, что их цель в конечном итоге — продемонстрировать уязвимости, присущие этим системам ИИ: «Искусственный интеллект и распознавание лиц — невероятно мощные инструменты, помогающие в процессе идентификации и авторизации людей. Но когда вы просто берете их и слепо заменяете существующую человеческую систему, без какой-либо дополнительной проверки, то новая схема может иметь даже больше уязвимостей, чем раньше». =========== Источник: habr.com =========== Похожие новости:
Информационная безопасность ), #_algoritmy ( Алгоритмы ), #_obrabotka_izobrazhenij ( Обработка изображений ), #_iskusstvennyj_intellekt ( Искусственный интеллект ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 20:29
Часовой пояс: UTC + 5