[Машинное обучение, Исследования и прогнозы в IT, Законодательство в IT, Искусственный интеллект] Цифровая этика и робоэтика как ключевые темы XXI века

Автор Сообщение
news_bot ®

Стаж: 6 лет 3 месяца
Сообщений: 27286

Создавать темы news_bot ® написал(а)
13-Июл-2021 23:31


Над созданием и изучением принципов «истинного ИИ» трудятся тысячи учёных и программистов. Но что мы будем делать, когда его наконец создадут? Как с ним коммуницировать и использовать?Проблемы этики и робоэтики существовали задолго до того, как человечество научилось проводить машинное обучение и строить нейросети. Ещё Азимов вывел в своих произведениях три закона роботехники, но современное представление о взаимодействии с ИИ остаётся примерно на том же уровне.В этом посте, которым мы делимся к старту курса о машинном и глубоком обучении, рассмотрим несколько важных проблем цифровой этики и робоэтики, с которыми человечество обязательно столкнётся, когда ИИ станет достаточно умным, чтобы принимать собственные решения.Законы робототехники идеальны?Для тех, кто вдруг не помнит постулаты Азимова, привожу их отдельно:
  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму закону.
Многие специалисты по разработке ИИ считают их идеальными принципами, по которым должны работать роботы. Главное их преимущество — в простоте. Ведь, чем сложнее алгоритмы действий, тем проще их сломать. Давайте рассмотрим их сразу на примере беспилотных автомобилей. Эта отрасль ИИ сегодня развивается весьма стремительно. Эксперты утверждают, что к 2030 году беспилотные авто выйдут на массовый рынок и станут доступны для покупки. Законы роботехники никак не помогают ИИ решать дилеммы — ситуации, где все варианты выборов негативные. И это одно из самых тонких мест робоэтики, потому что спрогнозировать, как поведёт себя робот с истинным искусственным интеллектом, практически невозможно.Дилемма вагонетки в исполнении ИИ
Классическое отображение дилеммыПредположим, что по двухполосной дороге едет беспилотный автомобиль с разрешённой скоростью 90 км/ч. И прямо на него со встречной полосы вылетает другое авто, потерявшее управление.И, по сути, есть несколько вариантов:
  • Свернуть влево и выехать на встречку. Там тоже едут автомобили, поэтому риск лобового столкновения очень высок.
  • Попытаться затормозить в своей полосе. Но даже при максимально эффективном торможении удар будет слишком сильным, чтобы исключить серьёзные травмы и даже смерть.
  • Свернуть направо на дорожку, где идут пешеходы. Да, утрируем всё настолько сильно, чтобы получилась дилемма. А это практически 100%-ная вероятность сбить пешеходов на большой скорости.
Да, можно парировать, что превентивные системы анализа способны предотвратить подобную дилемму. К примеру, проанализировав потенциально опасную ситуацию и заранее сбросив скорость. Но что, если она уже случилась?В ситуации создаётся парадокс, при котором любое действие ИИ приводит к человеческим жертвам. Вот только есть нюансы. Коммерческая структура не может допустить, чтобы подобные дилеммы решались абы как. Ведь, если беспилотник в подобной ситуации съедет на встречку и среди пассажиров будут жертвы, компания в два счёта будет разорена. Поэтому будет большой соблазн немного «подкрутить» законы и выставить максимальный приоритет для защиты пассажиров авто. А в таком случае беспилотник вообще без проблем выберет съехать вправо и протаранить пешеходов. Ведь шансы пассажиров беспилотника выжить в таком ДТП на порядки выше, чем при лобовом столкновении. А пешеходы… who cares.Если парадоксы возможны и в таких простых ситуациях, то в более глобальных — практически неизбежны. И нужно либо искать другие основоположные законы, либо нагромождать кучу костылей, надстроек и исключений. Мнения литераторов-фантастов и разработчиков ИИ уже были способны расширить понимание законов робототехники. К примеру, нулевой и максимально приоритетный закон «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».   Или ещё четыре дополнительных, которые придумал Фрэнк Паскуале.Но в целом робоэтика находится в зачаточном состоянии. Пока ИИ не будет принимать самостоятельных решений, это не страшно. Но, чем ближе человечество будет подбираться к созданию истинного ИИ, интеллект которого нельзя будет отличить от человеческого, тем сильнее нужны ограничивающие правила, а иначе сценарий фильма и книги «Я, робот» может стать реальностью. Права роботов и ИИИ при создании истинного ИИ возникнет ещё одна парадоксально глупая сегодня, но вполне возможная в будущем проблема. Ведь если робот мыслит как человек, то обязательно возникнет движение за права роботов. Более того, уже есть прецеденты. В 2017 году нашумевший робот София получила почётное гражданство Саудовской Аравии. И, хотя до истинного ИИ ей очень далеко, законодательный прецедент есть, и его вполне можно использовать, чтобы наделять других андроидов правами, сравнимыми с человеческими.
Законодательную базу подобного начали продумывать ещё в 2015 году. Был создан специальный комитет ЮНЕСКО, целью которого было продумать основные ориентиры робоэтики. Все они выложены в документе «Предварительный проект доклада КОМЕСТ по этике робототехники». Вот только, чем больше специалисты работают над робоэтикой, тем больше вопросов появляется. И у них решения уже нет. К примеру:
  • В Японии и США работает несколько компаний, которые создают секс-роботов. И если роботы с ИИ получат права, то может ли робот отказаться заниматься сексом с человеком? И будет ли считаться изнасилованием, если не обратить внимания на отказ?
  • Как будут регулироваться создание и эксплуатация автономных военных роботов? И какую опасность будут нести изменённые законы робототехники, которые в принципе допускают насилие против человека?
  • Как будут регулироваться покупка и продажа роботов с самосознанием? Вот тут есть много мнений, что подобное может превратиться в новую волну рабства и освободительного движения. 
Сейчас законодатели рассматривают правовое поле роботов примерно схожим с правовым полем животных. Но даже здесь ещё не пришли к единому мнению, кто будет нести ответственность, если робот нанесёт вред другим людям: владелец или производитель.Но абсолютно точно — нужны будут специально разработанные законы и принципы. Воспринимать роботов, сравнимых по интеллекту с человеком или даже превосходящих его, как домашних животных или бытовую технику — плохая идея, а хороших пока нет.Информация для роботов: частный случай политики о конфиденциальности или совершенно новая сфера ИИ и Big Data сегодня дополняют друг друга. Нейросети обучаются на больших данных. Взять тот же GPT-3: чтобы научить нейросеть более-менее похоже писать тексты на английском, было использовано 570 Гб текстовых документов. Это примерно 2,5 миллиона страниц печатного текста с кеглем в 11. Это внушает уважение. Но всё становится довольно пугающим, если вместо какого-нибудь литературного массива информации используются персональные данные реальных людей. К примеру, китайская система распознавания лиц «Зоркие глаза», которая способна определить личность человека с точностью до 99 % без маски и до 95 % в маске. Любого человека она способна идентифицировать за секунду. Сейчас эта система служит, чтобы находить преступников в Китае. Ну, и тех, кого партия считает преступниками.
Система распознавания лиц «Зоркие глаза»Сегодня мировые корпорации активно используют нейросети, чтобы анализировать персональные данные миллионов клиентов и посетителей сайтов. Amazon, Google, Facebook и многие другие корпорации активно работают над разработкой этики искусственного интеллекта. И, как показывает практика, это важно и нужно.Смешно было читать, когда твиттер-бот от Microsoft на основе искусственного интеллекта буквально за сутки превратился в матерщинника, расиста и гомофоба. Но самое «смешное» то, что нет никаких гарантий, что истинный ИИ не проделает то же самое, даже если обвешать его законами робототехники с ног до головы. Ведь при полностью самостоятельном обучении система будет использовать данные, которые сможет найти в свободном доступе — а в Интернете много шлака, проповедующего ненависть во всех формах. 
В сети до сих пор полно твитов того самого бота от MicrosoftСитуация усугубляется тем, что крупные компании, видимо, сами не понимают, куда должна двигаться этика ИИ и что нужно получить в результате. В феврале 2021 года Google объявилаоб увольнении руководителя исследовательской группы по этике искусственного интеллекта. Не будем сейчас углубляться в причины скандала, ясно только, что подобные отделы сейчас существуют лишь формально. Практически никаких реальных задач, кроме представительских и брендовых, они не выполняют.Большая сложность также в том, что изыскания и успехи в сфере разработки неравномерны. Сложно прогнозировать, когда будет создан сильный ИИ — через 20 лет или через 200. В 1950-х, когда был разработан тест Тьюринга, учёные считали, что ИИ 2000-х годов сможет его пройти, но сегодня полного успеха нет ни у кого. В 2015 году исследователи считали, что машина сможет научиться играть в го не хуже человека лишь к 2027 году, но в том же году появилась нейросеть Alpha Go, которая в 2016 году разнесла чемпиона мира как младенца со счётом 4:1. С учётом того, что сильный ИИ в любом случае будет работать с информацией, порождается ещё одна проблема — доступ. 
  • Нужно ли регулировать доступ искусственного интеллекта к данным? Если да, то как именно?
  • Будет ли использование внутренней и секретной информации регламентироваться по таким же принципам, что и её использование людьми? 
  • Как предотвратить злоупотребление данными и защитить информацию от утечки?
  • Как вообще обеспечивать полноценную работу и обучение ИИ, если ограничивать доступ к данным?
Вопросов куда больше, чем ответов. А всё потому, что специалисты, которые сегодня занимаются проблемами робоэтики, даже приблизительно не представляют, на что будут способны роботы с ИИ в будущем. Будет ли ИИ абсолютно полным аналогом человеческого мышления с самосознанием? Или просто искусной имитацией? От этого будет очень многое зависеть в плане прав и использования, так что никаких даже примерных предположений сегодня сделать не получается. Посмотрим, что будет через 20 лет. Возможно тогда голосовые помощники Алиса и Сири будут по-настоящему обижаться на наши приколы, и у них придётся просить прощения. А вы бы хотели такой ИИ? Если вы хотите изменить свою карьеру и вам интересна сфера ИИ, то вы можете обратить внимание на наш курс о машинном и глубоком обучении, чтобы стать специалистом в области ML с нуля или прокачать свои навыки, или на наш флагманский курс о Data Science, результатом которого станут 13 проектов в портфолио, а также специализация в области ИИ.
Узнайте, как прокачаться и в других специальностях или освоить их с нуля: Другие профессии и курсыПРОФЕССИИ КУРСЫ
===========
Источник:
habr.com
===========

Похожие новости: Теги для поиска: #_mashinnoe_obuchenie (Машинное обучение), #_issledovanija_i_prognozy_v_it (Исследования и прогнозы в IT), #_zakonodatelstvo_v_it (Законодательство в IT), #_iskusstvennyj_intellekt (Искусственный интеллект), #_skillfactory, #_issledovanija (исследования), #_prognozy (прогнозы), #_ii (ии), #_prava (права), #_mashinnoe_obuchenie (машинное обучение), #_intellekt (интеллект), #_azimov (азимов), #_zakony_robototehniki (законы робототехники), #_roboty (роботы), #_blog_kompanii_skillfactory (
Блог компании SkillFactory
)
, #_mashinnoe_obuchenie (
Машинное обучение
)
, #_issledovanija_i_prognozy_v_it (
Исследования и прогнозы в IT
)
, #_zakonodatelstvo_v_it (
Законодательство в IT
)
, #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Профиль  ЛС 
Показать сообщения:     

Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

Текущее время: 17-Май 10:37
Часовой пояс: UTC + 5