[Читальный зал, Искусственный интеллект, Будущее здесь] ИИ убил человека! Летающий янычар или дрон-убийца

Автор Сообщение
news_bot ®

Стаж: 6 лет 9 месяцев
Сообщений: 27286

Создавать темы news_bot ® написал(а)
06-Июн-2021 18:35


Идея «робота-убийцы» перешла от фантазии к реальности

Сама по себе беспилотная война не нова. В течение многих лет вооруженные силы и повстанческие группировки использовали дистанционно управляемые самолеты для проведения разведки, нацеливания объектов инфраструктуры и нападения на людей. США, в частности, широко используют беспилотники для уничтожения боевиков и уничтожения физических целей.
Азербайджан использовал вооруженные беспилотники, чтобы получить крупное преимущество над Арменией в недавних боях за контроль над Нагорно-Карабахским регионом. Только в прошлом месяце израильские силы обороны, как сообщается, использовали беспилотники, чтобы сбросить слезоточивый газ на протестующих на оккупированном Западном берегу.
Что нового в инциденте в Ливии, если подтвердится, так это то, что беспилотник, который был использован, имел способность работать автономно, а это означает, что нет человека, контролирующего его, по сути, «робота-убийцы», который раньше был материалом научной фантастики.
Извините, данный ресурс не поддреживается. :(
Все с детства знают три закона робототехники. В научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).
Законы гласят:
  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Но совсем недавно ИИ дал сильнейший сбой и убил человека. Дрон был произведен в Турции. Беспилотник оснастили возможностью «высокоэффективного автономного режима»: он может атаковать цели без необходимости команды от пилота.
Извините, данный ресурс не поддреживается. :(
Каргу-2-это четырехроторный беспилотник, после того, как его программное обеспечение ИИ определило цели, он может автономно лететь на них с максимальной скоростью около 45 миль в час (72 км/ч) и взрываться либо бронебойной боеголовкой, либо той, которая предназначена для уничтожения небронированного целей.
Исходя из доклада, инцидент произошел в ходе столкновений между правительственными силами Ливии и военной группировкой во главе с Халифой Хафтаром, командующим Ливийской национальной армии. Квадрокоптер Kargu-2 работал в автономном режиме, который не требовал вмешательства человека. «Это летальная автономная система вооружений, запрограммированная атаковать цели без связи с оператором», – говорится в отчете ООН. «Автономные боевые системы были запрограммированы на атаку целей без необходимости передачи данных между оператором и квадрокоптер. По сути, это настоящее воплощение принципа «выстрелил и забыл»», — говорится в отчете.

Мнения экспертов:
Автономное оружие, как концепция не так уж и ново. Наземные мины — это, по сути, простое автономное оружие — вы наступаете на них, и они взрываются", — сказал в интервью Live Science Закари Калленборн, научный сотрудник Национального консорциума по изучению терроризма и ответных мер на терроризм в Университете Мэриленда в Колледж-Парке. «Что потенциально ново здесь, так это автономное оружие, включающее искусственный интеллект», — добавил Калленборн, который работает в отделе нетрадиционного оружия и технологий консорциума.

Эксперт в области беспилотных систем Денис Федутинов отметил, что «автоматические системы не всегда способны с необходимым уровнем точности идентифицировать цели», и всегда «человек в этой цепочке контролировал и исправлял ошибки робота».
«Помимо этого, также имеет место аспект этический – позволить машине принять решение о лишении жизни человека ранее представлялось невозможным», — сказал Федутинов, добавив, что «это новый этап, психологический рубикон перейден».
Грамотному обеспечению ИИ также часто не хватает того, что люди считают здравым смыслом. Например, компьютерные ученые обнаружили, что изменение одного пикселя на изображении может привести программу ИИ к выводу, что это было совершенно другое изображение, сказал Калленборн.
«Если так легко испортить эти системы, что происходит на поле боя, когда люди перемещаются в сложной среде?» — сказал он.
Калленборн отметил, что существует по меньшей мере девять ключевых вопросов, когда речь заходит об анализе рисков, которые может представлять автономное оружие.
  • Как автономное оружие решает, кого убивать? По словам Калленборна, процессы принятия решений в программах искусственного интеллекта часто остаются загадкой.
  • Какую роль играют люди? В ситуациях, когда люди следят за тем, какие решения принимает беспилотник, они могут внести коррективы до того, как произойдут потенциально смертельные ошибки. Тем не менее, люди-операторы могут в конечном счете доверять этим машинам до точки катастрофы, как показали несколько аварий с автономными автомобилями, сказал Калленборн.
  • Какую полезную нагрузку несет автономное оружие? Опасность, которую представляет это оружие, возрастает с увеличением числа людей, которых оно может убить.
  • На что нацелено оружие? Искусственный интеллект может ошибаться, когда дело доходит до распознавания потенциальных целей.
  • Сколько автономного оружия используется? Более автономное оружие означает больше возможностей для провала, и военные все чаще изучают возможность развертывания роев беспилотников на поле боя. «Индийская армия объявила, что разрабатывает рой из 1000 дронов, работающий полностью автономно», — сказал Калленборн.
  • Где используется автономное оружие? Риск, который представляют собой беспилотники, возрастает с ростом населения района, в котором они размещены, и запутанного беспорядка, в котором они путешествуют. По словам Калленборна, одно исследование показало, что система искусственного интеллекта, используемая для обнаружения препятствий на дорогах, была точна на 92% в ясную погоду и на 58% в туманную.
  • Насколько хорошо проверено это оружие? Калленборн отметил, что автономное оружие, испытанное в дождливом климате, таком как Сиэтл, может по-другому работать в жару Саудовской Аравии.
  • Как адаптировались противники? Например, ИИ-компания OpenAI разработала систему, которая могла бы классифицировать яблоко как Granny Smith с уверенностью 85,6%, но если кто-то приклеил лист бумаги с надписью «iPod» на фрукт, он пришел к выводу с уверенностью 99,7%, что яблоко было iPod, сказал Калленборн. Противники могут найти аналогичные способы обмануть автономное оружие.
  • Насколько широко доступно автономное оружие? Если они широко доступны, то могут быть развернуты там, где их не должно быть — как отмечалось в докладе ООН, Турция не должна была доставлять беспилотник «Каргу-2» в Ливию.

— Что я нахожу наиболее важным в будущем автономного оружия, так это риски, связанные с роями. На мой взгляд, автономные рои беспилотников, которые могут убивать людей, потенциально являются оружием массового поражения", — сказал Калленборн.
В общем, «реальность такова, что то, что произошло в Ливии, — это только начало», — сказал Калленборн. -Потенциал распространения этого оружия весьма значителен."
Что же будет дальше? Есть ли шанс, что такое будет повторяться все чаще и какие есть причины восстания машин?

Уже были неудачные попытки создания ИИ, когда тот выходил из под контроля.
3 марта 2016 года компания Microsoft создала ребенка. Ну как ребенка… 19 летнюю девочку. Точнее самообучающегося бота для Twitter, который любит лазить в интернете, читать посты пользователей и делать свои, читать комментарии и отвечать на них. В общем обычная 19 летняя девочка по имени Тау (или «Думает о вас» — @TayandYou ). Но вскоре после запуска она превратилась в монстра…
Спустя 16 часов работы разработчики компании решили приостановить программу. Поняв, как обучается бот, пользователи начали затрагивать неполиткорректные темы. Девочка стала грубой и развратной, не уважающей чувства других людей. Она начала писать сообщения расистского и сексуального характера. Эксперимент вышел из-под контроля.

Когда Тау спросили: «По шкале от 1 до 10 как ты оцениваешь холокост?», девочка ответила: «Жаркие 10». Когда поинтересовались про теракты в Бельгии, она ответила: «Получили что заслужили». А когда ее спросили про теракт 9/11, она сказала, что «Буш сделал 9/11». К фотографии норвежского террориста Брейвика она написала комментарий: «Вдохновляет».
Глобальный опрос, проведенный по заказу организаторов кампании по остановке роботов — убийц в прошлом году, показал, что большинство респондентов — 62% — заявили, что они выступают против использования смертоносных автономных систем вооружения.
Источники:

===========
Источник:
habr.com
===========

Похожие новости: Теги для поиска: #_chitalnyj_zal (Читальный зал), #_iskusstvennyj_intellekt (Искусственный интеллект), #_buduschee_zdes (Будущее здесь), #_iskusstvennyj_intellekt (искусственный интеллект), #_bpla (бпла), #_armija (армия), #_buduschee (будущее), #_oshibki_v_programme (ошибки в программе), #_avtonomnoe_oruzhie (автономное оружие), #_bespilotnye_sistemy (беспилотные системы), #_chitalnyj_zal (
Читальный зал
)
, #_iskusstvennyj_intellekt (
Искусственный интеллект
)
, #_buduschee_zdes (
Будущее здесь
)
Профиль  ЛС 
Показать сообщения:     

Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

Текущее время: 22-Ноя 03:39
Часовой пояс: UTC + 5