[Законодательство в IT, Искусственный интеллект] Первое масштабное регулирование европейского рынка интеллектуальных технологий: ИИ с человеческим лицом

Автор Сообщение
news_bot ®

Стаж: 6 лет 9 месяцев
Сообщений: 27286

Создавать темы news_bot ® написал(а)
04-Июл-2021 16:30


Системы, основанные на ИИ, начинают применяться во все большем количестве стран. Использование новых ИИ-технологий, однако, вызывает не только одобрение, но и критику.Основными лидерами по критике применения ИИ являются США и Китай. В 2010-2011 году более 206 учителей в штате Вашингтон были уволен на основании сомнительных результатов работы интеллектуальной системы IMPACT. В 2016 году при независимом анализе использующейся в США ИИ-системы прогноза криминального рецидива COMPAS было установлено, что в качестве входных параметров система учитывала расу: осужденным афроамериканского происхождения в результате анализа она рекомендовала назначить более длительные сроки наказания. В Китае ИИ-системы используются для контроля над поведением граждан.На фоне таких неоднозначных решений, Европа решила создать свой собственный тренд - ИИ с человеческим лицом. С этой целью в апреле Еврокомиссией был подготовлен Проект общеевропейского регулирования рынка ИИ.Основная цель"Европа должна стать мировым центром надежного ИИ" под этим девизом проходила работа Еврокомиссии. "В работе с ИИ доверие является обязательным условием. С помощью новых правил ЕС сможет выдвинуться на передовую в области разработки новых глобальных стандартов обеспечения надежности ИИ", - утверждает вице-председатель Еврокомиссии Маргрете Вестагер. Планируется запрет таких ИИ-продуктов, которые могут угрожать безопасности, имущественным интересам и правам людей. К системам ИИ с высокой степенью угрозы будут предъявляться строгие требования, которым они должны соответствовать для выхода на рынок.Европейская комиссия обновила свой подход к передовым достижениям в области ИИ, сосредоточив внимание на ускорении инвестиций в ИИ-технологии и учёт новых вызовов, возникших, в частности, в связи с пандемией коронавируса. В рамках этого подхода планируется ввести новые правила, которые позволят адаптировать новое поколение ИИ-продуктов к требованиям безопасности и повысить доверие к ним со стороны пользователей.Комиссар по внутреннему рынку ЕС Тьерри Бретон в связи с этим отметил: "ИИ - это не самоцель, это инструмент, который используется на протяжении десятилетий. Но благодаря современным вычислительным мощностям у него появились совершенно новые возможности. Это открывает огромный потенциал в таких разных областях, как здравоохранение, транспорт, энергетика, сельское хозяйство, туризм и кибербезопасность. Однако ИИ-технологии также связаны с рисками. Новые правила Еврокомиссии направлены на укрепление позиций Европы как глобального центра разработки и продажи ИИ-продуктов "от лаборатории до рынка". Они также направлены на обеспечение соответствия ИИ европейским ценностям, а также призваны помочь раскрыть потенциал ИИ в направлении промышленного использования".Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.Европейский подходНовые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:
  • Критическая инфраструктура (например, транспорт), где жизнь и здоровье людей могут быть подвергнуты чрезвычайному риску.
  • Образование или профессиональная подготовка, где технологиями может быть затронут доступ человека к образованию и профессиональной деятельности (например, оценка экзаменов).
  • Важные для безопасности компоненты других продуктов (например, ИИ для роботизированной хирургии).
  • Трудоустройство, управление человеческими ресурсами и самозанятость (например, программное обеспечение для оценки резюме соискателей при приеме на работу).
  • Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить кредит).
  • Правоохранительная деятельность, в рамках которой могут нарушаться основные права людей (например, оценка доказательств).
  • Миграция, предоставление убежища и пограничный контроль (например, проверка подлинности проездных документов).
  • Отправление правосудия и демократические процессы (например, правоприменительная деятельность).
ИИ с высокой степенью риска должны будут соответствовать строгим требованиям (в противном случае они не смогут выйти на рынок):
  • Адекватные системы оценки и снижения рисков.
  • Высокое качество наборов данных, используемых для обучения ИИ.
  • Протоколирование операций для обеспечения возможности отслеживания результатов обучения и работы ИИ.
  • Подробная техническая документация, содержащая всю необходимую информацию об ИИ и его назначении.
  • Четкая и адекватная информация для пользователей.
  • Адекватный контроль со стороны техподдержки для минимизации рисков.
  • Высокий уровень надежности, безопасности и точности.
В частности, все виды систем удаленной биометрической идентификации несут в себе высокий уровень риска, и к ним будут предъявляться повышенные требования. Их использование правоохранительными органами в режиме реального времени в общественных местах будет запрещено. Низкий риск. К данной группе относятся такие системы ИИ, как чат-боты. Пользователи должны понимать, что имеют дело с машиной, и иметь возможность принять взвешенное решение о том, стоит ли продолжать пользоваться приложением.Минимальный риск. К интеллектуальным технологиям с минимальным риском Еврокомиссия отнесла видеоигры и спам-фильтры, а также иные технологии, не вошедшие в другие группы риска. Правила предлагают не вмешиваться в регулирование данной сферы, так как такие технологии представляют минимальную опасность для гражданских свобод или безопасности.Проект Еврокомиссии направлен для обсуждения и утверждения в Европейский парламент. В случае утверждения, правила должны будут быть имплементированы в законодательство всех стран-участниц ЕС.
===========
Источник:
habr.com
===========

Похожие новости: Теги для поиска: #_zakonodatelstvo_v_it (Законодательство в IT), #_iskusstvennyj_intellekt (Искусственный интеллект), #_evropa (европа), #_evroparlament (европарламент), #_ii (ии), #_rynok (рынок), #_zakonodatelstvo (законодательство), #_zakonodatelstvo_v_it (
Законодательство в IT
)
, #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Профиль  ЛС 
Показать сообщения:     

Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

Текущее время: 22-Ноя 02:31
Часовой пояс: UTC + 5