[Информационная безопасность, Open source, Обработка изображений, Киберпанк, TensorFlow] Защита фото от систем распознавания лиц работает?
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
За последние полтора месяца (с начала августа 2020) уже довольно много изданий/платформ и ресурсов говорили/писали про Алгоритм Fawkes: https://sandlab.cs.uchicago.edu/fawkes/#press.
Среди которых и Habr, The New York Times, The Verge и т.д.
Действительно, в наше время (тихий 2020 год) довольно актуальна тема со слежкой опознанием граждан по камерам наблюдения и поиск частными лицами по фото (FindFace, etc).
Исследователи из Чикагского университета придумали алгоритм клоакинга, для защиты от распознавания лиц. Выложили исходники на github: https://github.com/Shawn-Shan/fawkes.
В августе я прочитал про этот инструмент (Алгоритм Fawkes). И решил заменить свои фото в социальных сетях и на всех интернет ресурсах, где есть мои реальные фото.
Но, для начала, решил испробовать данный инструмент на своих фото:
- запускается ли fawkes;
- проверить собственными глазами результат работы fawkes;
- проверить на заявленных ресурсах (теми же инструментами, что и автор fawkes проверял свой алгоритм).
Благо на https://github.com/Shawn-Shan/fawkes есть довольно подробная и простая инструкция по работе с fawkes.
Создателем fawkes заявлено, что алгоритм защищает от:
- Microsoft Azure Face API,
- Amazon Rekognition Face Verification,
- Face++ Face Search API.
Данный список указан в «Technical Paper»:
На личном сервере собрал из исходников: git clone; pip3 install fawkes. Это было не просто, а очень просто.
Закинул свое фото на сервер «r1.jpg». И по инструкции обработал это фото с помощью fawkes.
На выходе получил второе фото: «r1_min_cloaked.png». Ура, я получил «клоакнутое» фото. Открыл фото «r1_min_cloaked.png» — посмотреть своими глазами. Изменения заметны, но не критичны. Вокруг глаз, переносицы и носа — есть не значительные затемнения.
После этого решил проверить результат («r1_min_cloaked.png») на сервисах «Microsoft Azure Face API», «Amazon Rekognition Face Verification» и «Face++ Face Search API».
Результат:
Как видим — нейросеть «Microsoft Azure Face API» показала, что оригинальное фото (слева на скриншоте) и фото после обработки (справа на скриншоте) — один человек. Аналогичные цифры показали и остальные инструмента проверки: нейросети «Amazon Rekognition Face Verification» и «Face++ Face Search API».
То же самое с «защитой» фото других людей/персон:
То есть по состоянию на середину сентября «Fawkes» не работает. Возможно, конечно, «Fawkes» работала в августе 2020 года. Но в сентябре 2020 году — уже не работает.
Неделю назад писал письмо разработчику «Fawkes» и его команде «Fawkes team», с просьбой помочь подтвердить работу алгоритма. Но ответного письма пока не получил.
На данный момент я так и не смог подтвердить работу «Fawkes».
===========
Источник:
habr.com
===========
Похожие новости:
- [Игры и игровые приставки, Информационная безопасность] СМИ сообщили об утечке данных полумиллиона игроков Call of Duty. Activision всё отрицает
- [Информационная безопасность] FinTech. А что защищать?
- [Алгоритмы, Искусственный интеллект, Обработка изображений] В Photoshop появится функция на ИИ для замены неба
- [Информационная безопасность, Разработка под Windows, Софт] В США потребовали от организаций установить последние патчи безопасности для Windows Server из-за серьёзных уязвимостей
- [Законодательство в IT, Информационная безопасность] Минцифры для борьбы с запрещенным контентом предлагает запретить скрывать имя сайта в сети
- [Децентрализованные сети, Информационная безопасность, Программирование, Хранение данных] Блокчейн как структура данных (перевод)
- [Email-маркетинг, Информационная безопасность] Радости обладания коротким емейл-адресом (перевод)
- [Информационная безопасность, Тестирование IT-систем] Как плохо настроенная БД позволила захватить целое облако с 25 тысячами хостов
- [IT-инфраструктура, Open source, Системное администрирование] Новые шаблоны — IPMI, Mikrotik, MSSQL
- [Информационная безопасность, Законодательство в IT, Лайфхаки для гиков] Как снизить вероятность кражи персональных данных
Теги для поиска: #_informatsionnaja_bezopasnost (Информационная безопасность), #_open_source, #_obrabotka_izobrazhenij (Обработка изображений), #_kiberpank (Киберпанк), #_tensorflow, #_open_source, #_obrabotka_izobrazhenij (Обработка изображений), #_informatsionnaja_bezopasnost (Информационная безопасность), #_kiberpank (Киберпанк), #_fawkes, #_raspoznavanie_lits (распознавание лиц), #_kloaking (клоакинг), #_informatsionnaja_bezopasnost (
Информационная безопасность
), #_open_source, #_obrabotka_izobrazhenij (
Обработка изображений
), #_kiberpank (
Киберпанк
), #_tensorflow
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 06:11
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
За последние полтора месяца (с начала августа 2020) уже довольно много изданий/платформ и ресурсов говорили/писали про Алгоритм Fawkes: https://sandlab.cs.uchicago.edu/fawkes/#press. Среди которых и Habr, The New York Times, The Verge и т.д. Действительно, в наше время (тихий 2020 год) довольно актуальна тема со слежкой опознанием граждан по камерам наблюдения и поиск частными лицами по фото (FindFace, etc). Исследователи из Чикагского университета придумали алгоритм клоакинга, для защиты от распознавания лиц. Выложили исходники на github: https://github.com/Shawn-Shan/fawkes. В августе я прочитал про этот инструмент (Алгоритм Fawkes). И решил заменить свои фото в социальных сетях и на всех интернет ресурсах, где есть мои реальные фото. Но, для начала, решил испробовать данный инструмент на своих фото:
Благо на https://github.com/Shawn-Shan/fawkes есть довольно подробная и простая инструкция по работе с fawkes. Создателем fawkes заявлено, что алгоритм защищает от:
Данный список указан в «Technical Paper»: На личном сервере собрал из исходников: git clone; pip3 install fawkes. Это было не просто, а очень просто. Закинул свое фото на сервер «r1.jpg». И по инструкции обработал это фото с помощью fawkes. На выходе получил второе фото: «r1_min_cloaked.png». Ура, я получил «клоакнутое» фото. Открыл фото «r1_min_cloaked.png» — посмотреть своими глазами. Изменения заметны, но не критичны. Вокруг глаз, переносицы и носа — есть не значительные затемнения. После этого решил проверить результат («r1_min_cloaked.png») на сервисах «Microsoft Azure Face API», «Amazon Rekognition Face Verification» и «Face++ Face Search API». Результат: Как видим — нейросеть «Microsoft Azure Face API» показала, что оригинальное фото (слева на скриншоте) и фото после обработки (справа на скриншоте) — один человек. Аналогичные цифры показали и остальные инструмента проверки: нейросети «Amazon Rekognition Face Verification» и «Face++ Face Search API». То же самое с «защитой» фото других людей/персон: То есть по состоянию на середину сентября «Fawkes» не работает. Возможно, конечно, «Fawkes» работала в августе 2020 года. Но в сентябре 2020 году — уже не работает. Неделю назад писал письмо разработчику «Fawkes» и его команде «Fawkes team», с просьбой помочь подтвердить работу алгоритма. Но ответного письма пока не получил. На данный момент я так и не смог подтвердить работу «Fawkes». =========== Источник: habr.com =========== Похожие новости:
Информационная безопасность ), #_open_source, #_obrabotka_izobrazhenij ( Обработка изображений ), #_kiberpank ( Киберпанк ), #_tensorflow |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 06:11
Часовой пояс: UTC + 5