[Машинное обучение, Исследования и прогнозы в IT, Законодательство в IT, Искусственный интеллект] Цифровая этика и робоэтика как ключевые темы XXI века
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Над созданием и изучением принципов «истинного ИИ» трудятся тысячи учёных и программистов. Но что мы будем делать, когда его наконец создадут? Как с ним коммуницировать и использовать?Проблемы этики и робоэтики существовали задолго до того, как человечество научилось проводить машинное обучение и строить нейросети. Ещё Азимов вывел в своих произведениях три закона роботехники, но современное представление о взаимодействии с ИИ остаётся примерно на том же уровне.В этом посте, которым мы делимся к старту курса о машинном и глубоком обучении, рассмотрим несколько важных проблем цифровой этики и робоэтики, с которыми человечество обязательно столкнётся, когда ИИ станет достаточно умным, чтобы принимать собственные решения.Законы робототехники идеальны?Для тех, кто вдруг не помнит постулаты Азимова, привожу их отдельно:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму закону.
Многие специалисты по разработке ИИ считают их идеальными принципами, по которым должны работать роботы. Главное их преимущество — в простоте. Ведь, чем сложнее алгоритмы действий, тем проще их сломать. Давайте рассмотрим их сразу на примере беспилотных автомобилей. Эта отрасль ИИ сегодня развивается весьма стремительно. Эксперты утверждают, что к 2030 году беспилотные авто выйдут на массовый рынок и станут доступны для покупки. Законы роботехники никак не помогают ИИ решать дилеммы — ситуации, где все варианты выборов негативные. И это одно из самых тонких мест робоэтики, потому что спрогнозировать, как поведёт себя робот с истинным искусственным интеллектом, практически невозможно.Дилемма вагонетки в исполнении ИИ
Классическое отображение дилеммыПредположим, что по двухполосной дороге едет беспилотный автомобиль с разрешённой скоростью 90 км/ч. И прямо на него со встречной полосы вылетает другое авто, потерявшее управление.И, по сути, есть несколько вариантов:
- Свернуть влево и выехать на встречку. Там тоже едут автомобили, поэтому риск лобового столкновения очень высок.
- Попытаться затормозить в своей полосе. Но даже при максимально эффективном торможении удар будет слишком сильным, чтобы исключить серьёзные травмы и даже смерть.
- Свернуть направо на дорожку, где идут пешеходы. Да, утрируем всё настолько сильно, чтобы получилась дилемма. А это практически 100%-ная вероятность сбить пешеходов на большой скорости.
Да, можно парировать, что превентивные системы анализа способны предотвратить подобную дилемму. К примеру, проанализировав потенциально опасную ситуацию и заранее сбросив скорость. Но что, если она уже случилась?В ситуации создаётся парадокс, при котором любое действие ИИ приводит к человеческим жертвам. Вот только есть нюансы. Коммерческая структура не может допустить, чтобы подобные дилеммы решались абы как. Ведь, если беспилотник в подобной ситуации съедет на встречку и среди пассажиров будут жертвы, компания в два счёта будет разорена. Поэтому будет большой соблазн немного «подкрутить» законы и выставить максимальный приоритет для защиты пассажиров авто. А в таком случае беспилотник вообще без проблем выберет съехать вправо и протаранить пешеходов. Ведь шансы пассажиров беспилотника выжить в таком ДТП на порядки выше, чем при лобовом столкновении. А пешеходы… who cares.Если парадоксы возможны и в таких простых ситуациях, то в более глобальных — практически неизбежны. И нужно либо искать другие основоположные законы, либо нагромождать кучу костылей, надстроек и исключений. Мнения литераторов-фантастов и разработчиков ИИ уже были способны расширить понимание законов робототехники. К примеру, нулевой и максимально приоритетный закон «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред». Или ещё четыре дополнительных, которые придумал Фрэнк Паскуале.Но в целом робоэтика находится в зачаточном состоянии. Пока ИИ не будет принимать самостоятельных решений, это не страшно. Но, чем ближе человечество будет подбираться к созданию истинного ИИ, интеллект которого нельзя будет отличить от человеческого, тем сильнее нужны ограничивающие правила, а иначе сценарий фильма и книги «Я, робот» может стать реальностью. Права роботов и ИИИ при создании истинного ИИ возникнет ещё одна парадоксально глупая сегодня, но вполне возможная в будущем проблема. Ведь если робот мыслит как человек, то обязательно возникнет движение за права роботов. Более того, уже есть прецеденты. В 2017 году нашумевший робот София получила почётное гражданство Саудовской Аравии. И, хотя до истинного ИИ ей очень далеко, законодательный прецедент есть, и его вполне можно использовать, чтобы наделять других андроидов правами, сравнимыми с человеческими.
Законодательную базу подобного начали продумывать ещё в 2015 году. Был создан специальный комитет ЮНЕСКО, целью которого было продумать основные ориентиры робоэтики. Все они выложены в документе «Предварительный проект доклада КОМЕСТ по этике робототехники». Вот только, чем больше специалисты работают над робоэтикой, тем больше вопросов появляется. И у них решения уже нет. К примеру:
- В Японии и США работает несколько компаний, которые создают секс-роботов. И если роботы с ИИ получат права, то может ли робот отказаться заниматься сексом с человеком? И будет ли считаться изнасилованием, если не обратить внимания на отказ?
- Как будут регулироваться создание и эксплуатация автономных военных роботов? И какую опасность будут нести изменённые законы робототехники, которые в принципе допускают насилие против человека?
- Как будут регулироваться покупка и продажа роботов с самосознанием? Вот тут есть много мнений, что подобное может превратиться в новую волну рабства и освободительного движения.
Сейчас законодатели рассматривают правовое поле роботов примерно схожим с правовым полем животных. Но даже здесь ещё не пришли к единому мнению, кто будет нести ответственность, если робот нанесёт вред другим людям: владелец или производитель.Но абсолютно точно — нужны будут специально разработанные законы и принципы. Воспринимать роботов, сравнимых по интеллекту с человеком или даже превосходящих его, как домашних животных или бытовую технику — плохая идея, а хороших пока нет.Информация для роботов: частный случай политики о конфиденциальности или совершенно новая сфера ИИ и Big Data сегодня дополняют друг друга. Нейросети обучаются на больших данных. Взять тот же GPT-3: чтобы научить нейросеть более-менее похоже писать тексты на английском, было использовано 570 Гб текстовых документов. Это примерно 2,5 миллиона страниц печатного текста с кеглем в 11. Это внушает уважение. Но всё становится довольно пугающим, если вместо какого-нибудь литературного массива информации используются персональные данные реальных людей. К примеру, китайская система распознавания лиц «Зоркие глаза», которая способна определить личность человека с точностью до 99 % без маски и до 95 % в маске. Любого человека она способна идентифицировать за секунду. Сейчас эта система служит, чтобы находить преступников в Китае. Ну, и тех, кого партия считает преступниками.
Система распознавания лиц «Зоркие глаза»Сегодня мировые корпорации активно используют нейросети, чтобы анализировать персональные данные миллионов клиентов и посетителей сайтов. Amazon, Google, Facebook и многие другие корпорации активно работают над разработкой этики искусственного интеллекта. И, как показывает практика, это важно и нужно.Смешно было читать, когда твиттер-бот от Microsoft на основе искусственного интеллекта буквально за сутки превратился в матерщинника, расиста и гомофоба. Но самое «смешное» то, что нет никаких гарантий, что истинный ИИ не проделает то же самое, даже если обвешать его законами робототехники с ног до головы. Ведь при полностью самостоятельном обучении система будет использовать данные, которые сможет найти в свободном доступе — а в Интернете много шлака, проповедующего ненависть во всех формах.
В сети до сих пор полно твитов того самого бота от MicrosoftСитуация усугубляется тем, что крупные компании, видимо, сами не понимают, куда должна двигаться этика ИИ и что нужно получить в результате. В феврале 2021 года Google объявилаоб увольнении руководителя исследовательской группы по этике искусственного интеллекта. Не будем сейчас углубляться в причины скандала, ясно только, что подобные отделы сейчас существуют лишь формально. Практически никаких реальных задач, кроме представительских и брендовых, они не выполняют.Большая сложность также в том, что изыскания и успехи в сфере разработки неравномерны. Сложно прогнозировать, когда будет создан сильный ИИ — через 20 лет или через 200. В 1950-х, когда был разработан тест Тьюринга, учёные считали, что ИИ 2000-х годов сможет его пройти, но сегодня полного успеха нет ни у кого. В 2015 году исследователи считали, что машина сможет научиться играть в го не хуже человека лишь к 2027 году, но в том же году появилась нейросеть Alpha Go, которая в 2016 году разнесла чемпиона мира как младенца со счётом 4:1. С учётом того, что сильный ИИ в любом случае будет работать с информацией, порождается ещё одна проблема — доступ.
- Нужно ли регулировать доступ искусственного интеллекта к данным? Если да, то как именно?
- Будет ли использование внутренней и секретной информации регламентироваться по таким же принципам, что и её использование людьми?
- Как предотвратить злоупотребление данными и защитить информацию от утечки?
- Как вообще обеспечивать полноценную работу и обучение ИИ, если ограничивать доступ к данным?
Вопросов куда больше, чем ответов. А всё потому, что специалисты, которые сегодня занимаются проблемами робоэтики, даже приблизительно не представляют, на что будут способны роботы с ИИ в будущем. Будет ли ИИ абсолютно полным аналогом человеческого мышления с самосознанием? Или просто искусной имитацией? От этого будет очень многое зависеть в плане прав и использования, так что никаких даже примерных предположений сегодня сделать не получается. Посмотрим, что будет через 20 лет. Возможно тогда голосовые помощники Алиса и Сири будут по-настоящему обижаться на наши приколы, и у них придётся просить прощения. А вы бы хотели такой ИИ? Если вы хотите изменить свою карьеру и вам интересна сфера ИИ, то вы можете обратить внимание на наш курс о машинном и глубоком обучении, чтобы стать специалистом в области ML с нуля или прокачать свои навыки, или на наш флагманский курс о Data Science, результатом которого станут 13 проектов в портфолио, а также специализация в области ИИ.
Узнайте, как прокачаться и в других специальностях или освоить их с нуля:
Другие профессии и курсыПРОФЕССИИ
- Профессия Fullstack-разработчик на Python
- Профессия Java-разработчик
- Профессия QA-инженер на JAVA
- Профессия Frontend-разработчик
- Профессия Этичный хакер
- Профессия C++ разработчик
- Профессия Разработчик игр на Unity
- Профессия Веб-разработчик
- Профессия iOS-разработчик с нуля
- Профессия Android-разработчик с нуля
КУРСЫ
- Курс по Machine Learning
- Курс «Machine Learning и Deep Learning»
- Курс «Математика для Data Science»
- Курс «Математика и Machine Learning для Data Science»
- Курс «Python для веб-разработки»
- Курс «Алгоритмы и структуры данных»
- Курс по аналитике данных
- Курс по DevOps
===========
Источник:
habr.com
===========
Похожие новости:
- [Изучение языков] Each и Every в английском: где который «каждый»
- [Управление проектами, Управление персоналом] Полноценное руководство по проведению встреч one-on-one для менеджеров (перевод)
- [Ненормальное программирование, Разработка веб-сайтов, Сетевые технологии, GitHub, Старое железо] Программист захостил сайт на калькуляторе
- [Высокая производительность, PostgreSQL, SQL, Администрирование баз данных] Борем deadlock при пакетном UPDATE
- [Карьера в IT-индустрии, Удалённая работа] EPAM Anywhere запускает Java Hiring Week для специалистов Middle+
- [CAD/CAM] Какой шрифт использовать в САПР?
- [Сетевые технологии] Технология программно-определяемых сетей для управления сетями ЦОД: обзор
- [Алгоритмы, Обработка изображений, Машинное обучение] Определение позы для нескольких людей с Mediapipe
- [Искусственный интеллект] На ПМЭФ-2021 включили чат-бот AutoFAQ
- [Научно-популярное, Космонавтика, Астрономия] «Роскосмос» начал отработку ускоренной одновитковой схемы полёта на МКС
Теги для поиска: #_mashinnoe_obuchenie (Машинное обучение), #_issledovanija_i_prognozy_v_it (Исследования и прогнозы в IT), #_zakonodatelstvo_v_it (Законодательство в IT), #_iskusstvennyj_intellekt (Искусственный интеллект), #_skillfactory, #_issledovanija (исследования), #_prognozy (прогнозы), #_ii (ии), #_prava (права), #_mashinnoe_obuchenie (машинное обучение), #_intellekt (интеллект), #_azimov (азимов), #_zakony_robototehniki (законы робототехники), #_roboty (роботы), #_blog_kompanii_skillfactory (
Блог компании SkillFactory
), #_mashinnoe_obuchenie (
Машинное обучение
), #_issledovanija_i_prognozy_v_it (
Исследования и прогнозы в IT
), #_zakonodatelstvo_v_it (
Законодательство в IT
), #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 08:02
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Над созданием и изучением принципов «истинного ИИ» трудятся тысячи учёных и программистов. Но что мы будем делать, когда его наконец создадут? Как с ним коммуницировать и использовать?Проблемы этики и робоэтики существовали задолго до того, как человечество научилось проводить машинное обучение и строить нейросети. Ещё Азимов вывел в своих произведениях три закона роботехники, но современное представление о взаимодействии с ИИ остаётся примерно на том же уровне.В этом посте, которым мы делимся к старту курса о машинном и глубоком обучении, рассмотрим несколько важных проблем цифровой этики и робоэтики, с которыми человечество обязательно столкнётся, когда ИИ станет достаточно умным, чтобы принимать собственные решения.Законы робототехники идеальны?Для тех, кто вдруг не помнит постулаты Азимова, привожу их отдельно:
Классическое отображение дилеммыПредположим, что по двухполосной дороге едет беспилотный автомобиль с разрешённой скоростью 90 км/ч. И прямо на него со встречной полосы вылетает другое авто, потерявшее управление.И, по сути, есть несколько вариантов:
Законодательную базу подобного начали продумывать ещё в 2015 году. Был создан специальный комитет ЮНЕСКО, целью которого было продумать основные ориентиры робоэтики. Все они выложены в документе «Предварительный проект доклада КОМЕСТ по этике робототехники». Вот только, чем больше специалисты работают над робоэтикой, тем больше вопросов появляется. И у них решения уже нет. К примеру:
Система распознавания лиц «Зоркие глаза»Сегодня мировые корпорации активно используют нейросети, чтобы анализировать персональные данные миллионов клиентов и посетителей сайтов. Amazon, Google, Facebook и многие другие корпорации активно работают над разработкой этики искусственного интеллекта. И, как показывает практика, это важно и нужно.Смешно было читать, когда твиттер-бот от Microsoft на основе искусственного интеллекта буквально за сутки превратился в матерщинника, расиста и гомофоба. Но самое «смешное» то, что нет никаких гарантий, что истинный ИИ не проделает то же самое, даже если обвешать его законами робототехники с ног до головы. Ведь при полностью самостоятельном обучении система будет использовать данные, которые сможет найти в свободном доступе — а в Интернете много шлака, проповедующего ненависть во всех формах. В сети до сих пор полно твитов того самого бота от MicrosoftСитуация усугубляется тем, что крупные компании, видимо, сами не понимают, куда должна двигаться этика ИИ и что нужно получить в результате. В феврале 2021 года Google объявилаоб увольнении руководителя исследовательской группы по этике искусственного интеллекта. Не будем сейчас углубляться в причины скандала, ясно только, что подобные отделы сейчас существуют лишь формально. Практически никаких реальных задач, кроме представительских и брендовых, они не выполняют.Большая сложность также в том, что изыскания и успехи в сфере разработки неравномерны. Сложно прогнозировать, когда будет создан сильный ИИ — через 20 лет или через 200. В 1950-х, когда был разработан тест Тьюринга, учёные считали, что ИИ 2000-х годов сможет его пройти, но сегодня полного успеха нет ни у кого. В 2015 году исследователи считали, что машина сможет научиться играть в го не хуже человека лишь к 2027 году, но в том же году появилась нейросеть Alpha Go, которая в 2016 году разнесла чемпиона мира как младенца со счётом 4:1. С учётом того, что сильный ИИ в любом случае будет работать с информацией, порождается ещё одна проблема — доступ.
Узнайте, как прокачаться и в других специальностях или освоить их с нуля: Другие профессии и курсыПРОФЕССИИ
=========== Источник: habr.com =========== Похожие новости:
Блог компании SkillFactory ), #_mashinnoe_obuchenie ( Машинное обучение ), #_issledovanija_i_prognozy_v_it ( Исследования и прогнозы в IT ), #_zakonodatelstvo_v_it ( Законодательство в IT ), #_iskusstvennyj_intellekt ( Искусственный интеллект ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 08:02
Часовой пояс: UTC + 5