Призрак машинного убийцы продолжается. Во что верит президент Путин
Технологии

Призрак машинного убийцы продолжается. Во что верит президент Путин

Сторонники военных роботов (1) утверждают, что автоматизированное оружие дает больше возможностей для защиты человеческой жизни. Машины умеют подбираться к противнику ближе, чем солдаты, и правильно оценивать угрозу. А эмоции иногда парализуют способность принимать правильные решения.

Многие сторонники использования роботов-убийц твердо убеждены, что они сделают войны менее кровопролитными, потому что погибнет меньше солдат. Они отмечают, что роботы, хотя и не испытывают жалости, невосприимчивы к негативным человеческим эмоциям, таким как паника, гнев и месть, которые часто приводят к военным преступлениям.

Правозащитники также используют аргумент, что военные привели к огромному сокращению гражданских потерь за последние полвека, а роботизация армии позволяет внедрить механизм более строгого соблюдения законов войны. Они утверждают, что машины станут этичными, когда они будут оснащены программным обеспечением, которое заставит их соблюдать законы войны.

Конечно, огромное количество людей, в том числе очень известных, годами не разделяют этого мнения. В апреле 2013 года была запущена международная кампания под слоганом (2). В его рамках неправительственные организации требуют полного запрета на использование автономного оружия. Специалисты из многих стран впервые сели обсуждать эту тему на конференции ООН по разоружению в Женеве в мае 2014 года. В опубликованном через несколько месяцев докладе Хьюман Райтс Вотч и ученых из Гарвардского университета говорится, что автономные будут слишком опасны – они сами выбирали себе цели и убивали людей. При этом не очень понятно, кого привлекать к ответственности.

2. Демонстрация в рамках акции «Стоп роботы-убийцы»

На что способен рой маленьких дронов

Споры вокруг роботов-убийц (РОУ) ведутся годами и не угасают. Последние месяцы принесли новые попытки остановить военных роботов и волну сообщений о новых проектах этого типа, некоторые из которых даже проходят испытания в реальных боевых условиях.

В ноябре 2017 года видео, показывающее смертоносные рои мини-дронов ., в ужасающем действии. Зрители увидели, что нам больше не нужны тяжелые боевые машины, танки или ракеты, брошенные Хищниками, чтобы убивать массово и автоматом. Ведущий режиссер Стюарт Рассел, профессор искусственного интеллекта в Беркли, говорит:

Последняя весна пятьдесят профессоров Ведущие университеты мира подписали обращение к Корейскому институту передовых наук и технологий (KAIST) и его партнеру Hanwha Systems. они объявили, что не будут сотрудничать с университетом и принимать гостей KAIST. Причиной стало строительство «автономного оружия», осуществляемое обоими учреждениями. KAIST опроверг сообщения СМИ.

Вскоре после этого в США более 3 Сотрудники Google протестовали против работы компании на воен. Они были обеспокоены тем, что Google является партнером правительственного проекта под кодовым названием Maven, целью которого является использование ИИ для распознавания объектов и лиц на видео с военных дронов. Руководство компании говорит, что цель Maven — спасать жизни и избавлять людей от утомительной работы, а не агрессии. Протестующих это не убедило.

Следующей частью битвы стало заявление специалисты в области искусственного интеллекта, вкл. работает над проектом Google и Элона Муска. Обещают не разрабатывать роботов. Они также призывают правительства активизировать усилия по регулированию и ограничению этого оружия.

В заявлении, в частности, говорится, что «решение о лишении человека жизни никогда не должно приниматься машиной». Хотя армии мира оснащены множеством автоматических устройств, иногда обладающих высокой степенью автономности, многие эксперты опасаются, что в будущем эта технология может стать полностью автономной, позволяющей убивать без какого-либо участия человека-оператора и командира.

Эксперты также предупреждают, что автономные машины для убийств могут быть даже более опасными, чем «ядерное, химическое и биологическое оружие», потому что они могут легко выйти из-под контроля. Всего в июле прошлого года письмо под эгидой Института будущего жизни (ФЖИ) подписали 170 организаций и 2464 физических лица. В первые месяцы 2019 года группа ученых-медиков, связанных с FLI, снова призвала к новому письму, запрещающему разработку оружия, управляемого искусственным интеллектом (ИИ).

Прошлогоднее августовское совещание ООН в Гнево по возможному правовому регулированию военных «роботов-убийц» завершилось успехом… машин. Группа стран, в том числе США, Россия и Израиль, заблокировала дальнейшую работу по введению международного запрета на это оружие (проект Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, КНО). Неслучайно это страны, известные своими работами над перспективными системами автономного и роботизированного вооружения.

Россия делает упор на боевых роботов

Часто цитируются слова президента Владимира Путина о военных системах искусственного интеллекта и боевых роботах:

-.

открыто говорит о разработке автономного оружия. Начальник Генерального штаба ее вооруженных сил генерал Валерий Герасимов недавно заявил агентству военных новостей «Интерфакс-АВН», что использование роботов станет одной из главных особенностей будущих войн. Он добавил, что Россия пытается полностью автоматизировать поле боя. С аналогичными комментариями выступили вице-премьер Дмитрий Рогозин и министр обороны Сергей Шойгу. Председатель комитета Совета Федерации по обороне и безопасности Виктор Бондарев заявил, что Россия стремится развивать Технологии «роджуэто позволило бы сетям дронов функционировать как единое целое.

Это неудивительно, если вспомнить, что первые телетанки были разработаны в Советском Союзе в 30-х годах. Они использовались в начале Второй мировой войны. Сегодня Россия также создает роботы-танки становиться все более автономным.

Государство Путина недавно отправило своих в Сирию Беспилотная боевая машина Уран-9 (3). аппарат терял связь с наземными пунктами управления, имел проблемы с системой подвески, а его вооружение функционировало не идеально и не поражало движущиеся цели. Звучит не очень серьезно, но многие считают сирийский вайп хорошим боевым испытанием, которое позволит русским усовершенствовать машину.

Роскосмос утвердил предварительный план отправки двух роботов на Международную космическую станцию ​​к августу этого года. Федор (4) в беспилотном Союзе. Не как груз, а. Как и в фильме «Робокоп», Федор владеет оружием и демонстрирует убийственную меткость во время упражнений по стрельбе.

Спрашивается, зачем роботу в космосе быть вооруженным? Есть подозрения, что дело не только в наземных применениях. Тем временем на Земле российский производитель оружия Калашников показал визуализацию робот Игорекчто хоть и вызвало много смеха, но сигнализирует о том, что компания серьезно работает над автономными боевыми машинами. В июле 2018 года Калашников объявил, что создает оружие, которое он использует для принятия решений «стрелять — не стрелять».

К этой информации следует добавить сообщения о том, что российский оружейник Дигтярев разработал небольшой автономный танк Нерехт который может самостоятельно бесшумно перемещаться к своей цели, а затем взорваться с мощной силой, чтобы разрушить другие или целые здания. А также Танк Т14 Армата , гордость российских вооруженных сил, был рассчитан на возможное дистанционное управление и беспилотное вождение. Sputnik утверждает, что российские военные инженеры работают над тем, чтобы сделать Т-14 полностью автономной бронированной машиной.

Директива о возражениях

Сами военные США наложили достаточно четкое ограничение на уровень автономности своего оружия. В 2012 году Министерство обороны США издало директиву 3000.09, в которой говорится, что люди должны иметь право возражать против действий вооруженных роботов. (хотя могут быть некоторые исключения). Эта директива остается в силе. Нынешняя политика Пентагона заключается в том, что решающим фактором в применении оружия всегда должен быть человек, и что такое суждение должно быть. соответствует законам войны.

Хотя американцы уже несколько десятков лет используют летающие, Хищники, Жнецы и многие другие супермашины, они не были и не являются автономными моделями. Ими управляют операторы дистанционно, иногда с расстояния в несколько тысяч километров. Острая дискуссия об автономности машин такого типа началась с премьеры прототипа. дрона X-47B (5), который не только летал самостоятельно, но и мог взлетать с авианосца, садиться на него и дозаправляться в воздухе. По смыслу – тоже стрелять или бомбить без участия человека. Тем не менее, проект все еще находится в стадии тестирования и рассмотрения.

5. Испытания беспилотного X-47B на американском авианосце

В 2003 году Министерство обороны начало эксперименты с небольшим танкоподобным роботом. ШПАГИ , оснащенный пулеметом. В 2007 году его отправили в Ирак. однако программа завершилась после того, как робот начал вести себя непредсказуемо, хаотично двигая винтовкой. В результате американские военные на долгие годы отказались от исследований вооруженных наземных роботов.

В то же время армия США увеличила свои расходы на работы с 20 млн долларов США в 2014 году до 156 млн долларов США в 2018 году. В 2019 году этот бюджет уже подскочил до 327 млн ​​долларов США. Это совокупный рост на 1823% всего за несколько лет. Эксперты говорят, что уже в 2025 году у вооруженных сил США может появиться поле боя роботов-солдат больше, чем людей.

В последнее время много споров вызвало и объявлено армией США проект АТЛАС () – автоматический. В СМИ это расценили как нарушение вышеупомянутой директивы 3000.09. Однако американские военные отрицают и уверяют, что об исключении человека из цикла принятия решений не может быть и речи.

ИИ распознает акул и мирных жителей

Однако у защитников автономного оружия появились и новые аргументы. проф. Рональд Аркин, робототехник из Технологического института Джорджии, утверждает в своих публикациях, что В современной войне интеллектуальное оружие необходимо, чтобы избежать жертв среди гражданского населения, поскольку методы машинного обучения могут эффективно помочь различать комбатантов и гражданских лиц, а также важные и неважные цели.

Примером таких навыков ИИ является патрулирование австралийских пляжей. дрони Маленький Потрошитель, оснащенный системой SharkSpotter, разработанной Сиднейским технологическим университетом. Эта система автоматически сканирует воду на наличие акул и предупреждает оператора, когда видит что-то небезопасное. (6) Он может идентифицировать людей, дельфинов, лодки, доски для серфинга и объекты в воде, чтобы отличить их от акул. Он может обнаруживать и идентифицировать около шестнадцати различных видов с высокой точностью.

6. Распознанные акулы в системе SharkSpotter

Эти передовые методы машинного обучения повышают точность воздушной разведки более чем на 90%. Для сравнения, человек-оператор в аналогичной ситуации точно распознает 20-30% объектов на аэрофотоснимках. Кроме того, идентификация по-прежнему проверяется человеком до подачи сигнала тревоги.

На поле боя оператор, видя изображение на экране, может с трудом определить, являются ли люди на земле бойцами с АК-47 в руках или, например, фермерами с пиками. Аркин отмечает, что люди склонны «видеть то, что хотят видеть», особенно в стрессовых ситуациях. Этот эффект способствовал случайному сбитию иранского самолета авианосцем «Винсеннес» в 1987 году. Конечно, по его мнению, оружие, управляемое ИИ, было бы лучше, чем нынешние «умные бомбы», которые на самом деле не разумны. В августе прошлого года саудовская ракета с лазерным наведением попала в автобус, полный школьников в Йемене, в результате чего погибло сорок детей.

«Если школьный автобус имеет правильную маркировку, его идентификация в автономной системе может быть относительно легкой», — утверждает Аркин в Popular Mechanics.

Однако эти доводы, похоже, не убеждают участников кампании против автоматических убийц. Помимо угрозы роботов-убийц, необходимо учитывать еще одно важное обстоятельство. Даже «хорошая» и «внимательная» система может быть взломана и захвачена очень плохими людьми. Тогда все аргументы в защиту военной техники теряют силу.

Добавить комментарий