[Законодательство в IT, Искусственный интеллект] Первое масштабное регулирование европейского рынка интеллектуальных технологий: ИИ с человеческим лицом
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Системы, основанные на ИИ, начинают применяться во все большем количестве стран. Использование новых ИИ-технологий, однако, вызывает не только одобрение, но и критику.Основными лидерами по критике применения ИИ являются США и Китай. В 2010-2011 году более 206 учителей в штате Вашингтон были уволен на основании сомнительных результатов работы интеллектуальной системы IMPACT. В 2016 году при независимом анализе использующейся в США ИИ-системы прогноза криминального рецидива COMPAS было установлено, что в качестве входных параметров система учитывала расу: осужденным афроамериканского происхождения в результате анализа она рекомендовала назначить более длительные сроки наказания. В Китае ИИ-системы используются для контроля над поведением граждан.На фоне таких неоднозначных решений, Европа решила создать свой собственный тренд - ИИ с человеческим лицом. С этой целью в апреле Еврокомиссией был подготовлен Проект общеевропейского регулирования рынка ИИ.Основная цель"Европа должна стать мировым центром надежного ИИ" под этим девизом проходила работа Еврокомиссии. "В работе с ИИ доверие является обязательным условием. С помощью новых правил ЕС сможет выдвинуться на передовую в области разработки новых глобальных стандартов обеспечения надежности ИИ", - утверждает вице-председатель Еврокомиссии Маргрете Вестагер. Планируется запрет таких ИИ-продуктов, которые могут угрожать безопасности, имущественным интересам и правам людей. К системам ИИ с высокой степенью угрозы будут предъявляться строгие требования, которым они должны соответствовать для выхода на рынок.Европейская комиссия обновила свой подход к передовым достижениям в области ИИ, сосредоточив внимание на ускорении инвестиций в ИИ-технологии и учёт новых вызовов, возникших, в частности, в связи с пандемией коронавируса. В рамках этого подхода планируется ввести новые правила, которые позволят адаптировать новое поколение ИИ-продуктов к требованиям безопасности и повысить доверие к ним со стороны пользователей.Комиссар по внутреннему рынку ЕС Тьерри Бретон в связи с этим отметил: "ИИ - это не самоцель, это инструмент, который используется на протяжении десятилетий. Но благодаря современным вычислительным мощностям у него появились совершенно новые возможности. Это открывает огромный потенциал в таких разных областях, как здравоохранение, транспорт, энергетика, сельское хозяйство, туризм и кибербезопасность. Однако ИИ-технологии также связаны с рисками. Новые правила Еврокомиссии направлены на укрепление позиций Европы как глобального центра разработки и продажи ИИ-продуктов "от лаборатории до рынка". Они также направлены на обеспечение соответствия ИИ европейским ценностям, а также призваны помочь раскрыть потенциал ИИ в направлении промышленного использования".Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.Европейский подходНовые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:
- Критическая инфраструктура (например, транспорт), где жизнь и здоровье людей могут быть подвергнуты чрезвычайному риску.
- Образование или профессиональная подготовка, где технологиями может быть затронут доступ человека к образованию и профессиональной деятельности (например, оценка экзаменов).
- Важные для безопасности компоненты других продуктов (например, ИИ для роботизированной хирургии).
- Трудоустройство, управление человеческими ресурсами и самозанятость (например, программное обеспечение для оценки резюме соискателей при приеме на работу).
- Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить кредит).
- Правоохранительная деятельность, в рамках которой могут нарушаться основные права людей (например, оценка доказательств).
- Миграция, предоставление убежища и пограничный контроль (например, проверка подлинности проездных документов).
- Отправление правосудия и демократические процессы (например, правоприменительная деятельность).
ИИ с высокой степенью риска должны будут соответствовать строгим требованиям (в противном случае они не смогут выйти на рынок):
- Адекватные системы оценки и снижения рисков.
- Высокое качество наборов данных, используемых для обучения ИИ.
- Протоколирование операций для обеспечения возможности отслеживания результатов обучения и работы ИИ.
- Подробная техническая документация, содержащая всю необходимую информацию об ИИ и его назначении.
- Четкая и адекватная информация для пользователей.
- Адекватный контроль со стороны техподдержки для минимизации рисков.
- Высокий уровень надежности, безопасности и точности.
В частности, все виды систем удаленной биометрической идентификации несут в себе высокий уровень риска, и к ним будут предъявляться повышенные требования. Их использование правоохранительными органами в режиме реального времени в общественных местах будет запрещено. Низкий риск. К данной группе относятся такие системы ИИ, как чат-боты. Пользователи должны понимать, что имеют дело с машиной, и иметь возможность принять взвешенное решение о том, стоит ли продолжать пользоваться приложением.Минимальный риск. К интеллектуальным технологиям с минимальным риском Еврокомиссия отнесла видеоигры и спам-фильтры, а также иные технологии, не вошедшие в другие группы риска. Правила предлагают не вмешиваться в регулирование данной сферы, так как такие технологии представляют минимальную опасность для гражданских свобод или безопасности.Проект Еврокомиссии направлен для обсуждения и утверждения в Европейский парламент. В случае утверждения, правила должны будут быть имплементированы в законодательство всех стран-участниц ЕС.
===========
Источник:
habr.com
===========
Похожие новости:
- [Контент-маркетинг, Управление медиа, Научно-популярное] Что такое научная новость?
- [Научно-популярное, Инженерные системы] Её высочество Пуля
- [Звук] «Первые с конца»: какие музыкальные альбомы полувековой давности эксперты признали худшими
- [Сетевые технологии, Математика, Машинное обучение, Искусственный интеллект, Химия] Теория Графов. Часть 2 Смежность, инцидентность, петли
- [Робототехника, Искусственный интеллект] Исследователи научили робота самостоятельно учиться помогать людям
- [Управление персоналом, Финансы в IT, IT-компании] Джим Уайтхёрст ушёл с поста главы IBM через 14 месяцев после вступления в должность
- [Информационная безопасность, Мессенджеры, Законодательство в IT] Telegram начал блокировать один из крупнейших сервисов для частного поиска данных граждан «Глаз Бога»
- [Open source, Программирование, Учебный процесс в IT] Как я учил студентов Северной Кореи разрабатывать ПО с открытым исходным кодом (перевод)
- [Научно-популярное, Видеотехника] Видеосалоны. Ретроспектива
- [Периферия, Звук] Как выглядят наиболее доступные проигрыватели винила — пять «вертушек» начального уровня
Теги для поиска: #_zakonodatelstvo_v_it (Законодательство в IT), #_iskusstvennyj_intellekt (Искусственный интеллект), #_evropa (европа), #_evroparlament (европарламент), #_ii (ии), #_rynok (рынок), #_zakonodatelstvo (законодательство), #_zakonodatelstvo_v_it (
Законодательство в IT
), #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 02:31
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Системы, основанные на ИИ, начинают применяться во все большем количестве стран. Использование новых ИИ-технологий, однако, вызывает не только одобрение, но и критику.Основными лидерами по критике применения ИИ являются США и Китай. В 2010-2011 году более 206 учителей в штате Вашингтон были уволен на основании сомнительных результатов работы интеллектуальной системы IMPACT. В 2016 году при независимом анализе использующейся в США ИИ-системы прогноза криминального рецидива COMPAS было установлено, что в качестве входных параметров система учитывала расу: осужденным афроамериканского происхождения в результате анализа она рекомендовала назначить более длительные сроки наказания. В Китае ИИ-системы используются для контроля над поведением граждан.На фоне таких неоднозначных решений, Европа решила создать свой собственный тренд - ИИ с человеческим лицом. С этой целью в апреле Еврокомиссией был подготовлен Проект общеевропейского регулирования рынка ИИ.Основная цель"Европа должна стать мировым центром надежного ИИ" под этим девизом проходила работа Еврокомиссии. "В работе с ИИ доверие является обязательным условием. С помощью новых правил ЕС сможет выдвинуться на передовую в области разработки новых глобальных стандартов обеспечения надежности ИИ", - утверждает вице-председатель Еврокомиссии Маргрете Вестагер. Планируется запрет таких ИИ-продуктов, которые могут угрожать безопасности, имущественным интересам и правам людей. К системам ИИ с высокой степенью угрозы будут предъявляться строгие требования, которым они должны соответствовать для выхода на рынок.Европейская комиссия обновила свой подход к передовым достижениям в области ИИ, сосредоточив внимание на ускорении инвестиций в ИИ-технологии и учёт новых вызовов, возникших, в частности, в связи с пандемией коронавируса. В рамках этого подхода планируется ввести новые правила, которые позволят адаптировать новое поколение ИИ-продуктов к требованиям безопасности и повысить доверие к ним со стороны пользователей.Комиссар по внутреннему рынку ЕС Тьерри Бретон в связи с этим отметил: "ИИ - это не самоцель, это инструмент, который используется на протяжении десятилетий. Но благодаря современным вычислительным мощностям у него появились совершенно новые возможности. Это открывает огромный потенциал в таких разных областях, как здравоохранение, транспорт, энергетика, сельское хозяйство, туризм и кибербезопасность. Однако ИИ-технологии также связаны с рисками. Новые правила Еврокомиссии направлены на укрепление позиций Европы как глобального центра разработки и продажи ИИ-продуктов "от лаборатории до рынка". Они также направлены на обеспечение соответствия ИИ европейским ценностям, а также призваны помочь раскрыть потенциал ИИ в направлении промышленного использования".Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.Европейский подходНовые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:
=========== Источник: habr.com =========== Похожие новости:
Законодательство в IT ), #_iskusstvennyj_intellekt ( Искусственный интеллект ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 02:31
Часовой пояс: UTC + 5