MIT удалил коллекцию Tiny Images из-за выявления расистских и женоненавистнических терминов
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Массачусетский технологический институт удалил набор данных Tiny Images, включающий аннотированную коллекцию из 80 миллионов небольших изображений с разрешением 32x32. Набор поддерживался группой, развивающей технологии компьютерного зрения, и использовался c 2008 года различными исследователями для тренировки и проверки распознавания объектов в системах машинного обучения.
Причиной удаления стало выявление использования расистских и женоненавистнических терминов в метках, характеризующих изображённые на картинках объекты, а также наличия образов, которые воспринимались как оскорбительные. Например, присутствовали изображения половых органов с жаргонными терминами, изображения некоторых женщин характеризовались как "шлюхи", применялись недопустимые в современном обществе термины для чернокожих и азиатов.
Причиной появления недопустимых слов было использование автоматизированного процесса, использующего при классификации семантические связи из лексической базы данных английского языка WordNet, созданной в 1980-е годы в Принстонском университете. Так как вручную проверить наличие оскорбительной лексики в 80 млн мелких картинок не представляется возможным, было принято решение полностью закрыть доступ к БД. MIT также призвал других исследователей прекратить использование данной коллекции и удалить её копии. Аналогичные проблемы наблюдаются и в крупнейшей аннотированной базе изображений ImageNet, в которой также используются привязки из WordNet.
оригинал
оригинал
===========
Источник:
OpenNet.RU
===========
Похожие новости
- Главная ссылка к новости (https://www.theregister.com/20...)
- OpenNews: GitHub решил отказаться от имени "master" для основных веток
- OpenNews: Проект OpenZFS из-за политкорректности избавился от упоминания слова "slave" в коде
- OpenNews: Язык Go избавляется от неполиткорректных терминов whitelist/blacklist и master/slave
- OpenNews: Проект Python для соблюдения политкорректности избавляется от терминов "master" и "slave"
- OpenNews: Мэтью Гаррет в знак протеста отказался выпускать патчи для продуктов Intel
Похожие новости:
- [C, C++, Программирование, Реверс-инжиниринг] IDA Pro: работа с библиотечным кодом (не WinAPI)
- [.NET, C#, Программирование] Магические сигнатуры методов в C# (перевод)
- [CSS, Ненормальное программирование, Программирование, Разработка веб-сайтов] TailwindCSS – очередной фреймворк или новый шаг эволюции?
- [Python, Программирование, Карьера в IT-индустрии] Полный список вопросов с собеседований по Python для дата-сайентистов и инженеров (перевод)
- Baidu присоединился к инициативе по защите Linux от патентных претензий
- Релиз дистрибутива Tails 4.8 и Tor Browser 9.5.1
- [Здоровье, Статистика в IT, Удалённая работа, Управление персоналом] Чему Голландия может научить нас в плане удаленной работы
- [Информационная безопасность, Разработка мобильных приложений, Разработка под iOS] Почему разработчики отказываются от авторизации через Apple с фейковым email
- [PHP, Symfony, Тестирование веб-сервисов] 10 советов по тестированию в Symfony (перевод)
- [] Научные стажировки в Computer Science: кто, что, зачем и почему?
Теги для поиска: #_ai, #_image
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 19:39
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Массачусетский технологический институт удалил набор данных Tiny Images, включающий аннотированную коллекцию из 80 миллионов небольших изображений с разрешением 32x32. Набор поддерживался группой, развивающей технологии компьютерного зрения, и использовался c 2008 года различными исследователями для тренировки и проверки распознавания объектов в системах машинного обучения. Причиной удаления стало выявление использования расистских и женоненавистнических терминов в метках, характеризующих изображённые на картинках объекты, а также наличия образов, которые воспринимались как оскорбительные. Например, присутствовали изображения половых органов с жаргонными терминами, изображения некоторых женщин характеризовались как "шлюхи", применялись недопустимые в современном обществе термины для чернокожих и азиатов. Причиной появления недопустимых слов было использование автоматизированного процесса, использующего при классификации семантические связи из лексической базы данных английского языка WordNet, созданной в 1980-е годы в Принстонском университете. Так как вручную проверить наличие оскорбительной лексики в 80 млн мелких картинок не представляется возможным, было принято решение полностью закрыть доступ к БД. MIT также призвал других исследователей прекратить использование данной коллекции и удалить её копии. Аналогичные проблемы наблюдаются и в крупнейшей аннотированной базе изображений ImageNet, в которой также используются привязки из WordNet. оригинал оригинал =========== Источник: OpenNet.RU =========== Похожие новости
|
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 19:39
Часовой пояс: UTC + 5