Война алгоритмов
Технологии

Война алгоритмов

Когда дело доходит до использования искусственного интеллекта в вооруженных силах, тут же просыпается кошмар научной фантастики, мятежный и смертоносный ИИ, который восстает против человечества, чтобы его уничтожить. К сожалению, опасения военных и руководителей, что «враг нас догонит», столь же сильны при разработке алгоритмов ведения войны.

Алгоритмическая войнакоторые, по мнению многих, могли бы коренным образом изменить облик поля боя в том виде, в каком мы его знаем, главным образом потому, что военные действия стали бы быстрее, намного опережали бы способность людей принимать решения. американский генерал Джек Шанахан (1), глава Объединенного центра искусственного интеллекта США, подчеркивает, однако, что, прежде чем внедрять искусственный интеллект в арсеналы, мы должны убедиться, что эти системы все еще находятся под контролем человека и не начнут вести войны самостоятельно.

«Если у противника есть машины и алгоритмы, мы проиграем этот конфликт»

Возможность вождения алгоритмическая война базируется на использовании достижений компьютерной техники по трем основным направлениям. Первый десятилетия экспоненциального роста вычислительной мощностиэто позволило значительно улучшить производительность машинного обучения. Второй быстрый рост ресурсов «Большие данные», то есть огромные, обычно автоматизированные, управляемые и на постоянной основе создаваемые наборы данных, пригодные для обучения машин. Третье касается быстрое развитие технологий облачных вычислений, благодаря которому компьютеры могут легко получать доступ к ресурсам данных и обрабатывать их для решения задач.

Алгоритм войныкак это определено экспертами, это должно быть сначала выражено с помощью компьютерный код. Во-вторых, она должна быть результатом работы платформы, способной как собирать информацию, так и делать выбор, принимать решения, которые, по крайней мере в теории, не требуют вмешательство человека. В-третьих, что кажется очевидным, но не обязательно так, ибо только в действии выясняется, может ли техника, предназначенная для чего-то другого, быть полезной в войне и наоборот, она должна быть способна работать в условиях. вооруженный конфликт.

Анализ вышеперечисленных направлений и их взаимодействия показывает, что алгоритмическая война это не отдельная технология, такая как, например. энергетическое оружие или гиперзвуковые ракеты. Его последствия широкомасштабны и постепенно становятся повсеместными в военных действиях. В первый раз военные машины они становятся разумными, потенциально делая силы обороны, которые их внедряют, более эффективными и действенными. Такие интеллектуальные машины имеют четкие ограничения, которые необходимо хорошо понимать.

«» — сказал Шэнахан прошлой осенью в интервью бывшему генеральному директору Google Эрику Шмидту и вице-президенту Google по международным делам Кенту Уокеру. «».

В проекте доклада Совета национальной безопасности США по ИИ более 50 раз говорится о Китае, подчеркивая официально провозглашенную цель руководства Китая стать к 2030 году мировым лидером в области ИИ (смотрите также: ).

Эти слова прозвучали в Вашингтоне на специальной конференции, которая состоялась после того, как вышеупомянутый Шанаханский центр представил Конгрессу свой предварительный отчет, подготовленный в сотрудничестве с известными экспертами в области искусственного интеллекта, в том числе Директор по исследованиям Microsoft Эрик Хорвиц, генеральный директор AWS Энди Джасса и главный исследователь Google Cloud Эндрю Мур. Окончательный отчет будет опубликован в октябре 2020 года.

Сотрудники Google протестуют

Несколько лет назад к делу подключился Пентагон. алгоритмическая война и ряд связанных с ИИ проектов в рамках проекта Maven, основанного на сотрудничестве с технологическими компаниями, в том числе Google и такие стартапы, как Clarifai. В основном это касалось работы над искусственный разумдля облегчения идентификации объектов на.

Когда весной 2018 года стало известно об участии Google в проекте, тысячи сотрудников гиганта Маунтин-Вью подписали открытое письмо, протестуя против участия компании в военных действиях. После месяцев трудовых беспорядков Google принял собственный свод правил ИИчто включает в себя запрет на участие в мероприятиях.

Google также обязалась завершить контракт Project Maven к концу 2019 года. Выход Google не положил конец Project Maven. Его приобрел Palantir Питера Тиля. ВВС и Корпус морской пехоты США планируют использовать в рамках проекта Maven специальные беспилотные летательные аппараты, такие как Global Hawk, каждый из которых должен вести визуальный контроль до 100 квадратных километров.

По случаю происходящего вокруг Project Maven стало понятно, что американским военным срочно нужно собственное облако. Это то, что Шанахан сказал во время конференции. Это было очевидно, когда видеозаписи и обновления системы приходилось перевозить грузовиками на военные объекты, разбросанные по всему полю. В создании единые облачные вычисления, который поможет решить задачи такого типа, в рамках проекта единой ИТ-инфраструктуры для армии джедаев, Microsoft, Amazon, Oracle и IBM. Google не из-за своих этических кодексов.

Из заявления Шанахана ясно, что великая революция ИИ в вооруженных силах только начинается. И роль его центра в вооруженных силах США возрастает. Это хорошо видно в предполагаемом бюджете JAIC. В 2019 году он составил чуть менее 90 миллионов долларов. В 2020 году он уже должен составить 414 миллионов долларов, или около 10 процентов от бюджета ИИ, оцениваемого Пентагоном в 4 миллиарда долларов.

Машина распознает сдавшегося солдата

Войска США уже оснащены такими системами, как «Фаланга» (2), которая представляет собой тип автономного оружия, используемого на кораблях ВМС США для атаки приближающихся ракет. При обнаружении ракеты он включается автоматически и уничтожает все на своем пути. По словам Форда, он может атаковать четырьмя или пятью ракетами за полсекунды без необходимости проходить сквозь каждую цель и смотреть на нее.

Другим примером является полуавтономная Harpy (3), серийная беспилотная система. Гарпия используется для уничтожения вражеских радаров. Например, в 2003 году, когда США нанесли удар по Ираку, имевшему самолетные системы радиолокационного перехвата, беспилотники израильского производства помогли их найти и уничтожить, чтобы американцы могли безопасно лететь в иракское воздушное пространство.

3. Запуск беспилотника системы IAI Harpy

Еще одним известным примером автономного оружия является Корейская система Samsung SGR-1, расположенный в демилитаризованной зоне между Северной и Южной Кореей, предназначенный для выявления и обстрела нарушителей на расстоянии до четырех километров. Согласно описанию, система «может различать человека, который сдается, и человека, который не сдается» на основе положения их рук или распознавания положения оружия в их руках.

4. Демонстрация обнаружения сдающегося солдата системой Samsung SGR-1

Американцы боятся остаться позади

В настоящее время не менее 30 стран мира используют автоматическое оружие с разным уровнем развития и использования ИИ. Китай, Россия и США рассматривают искусственный интеллект как незаменимый элемент построения своего будущего положения в мире. «Тот, кто победит в гонке ИИ, будет править миром», — сказал президент России Владимир Путин студентам в августе 2017 года. Президент Китайской Народной Республики Си Цзиньпин не делал столь громких заявлений в СМИ, но он является основным двигателем директивы, призывающей Китай к 2030 году стать доминирующей силой в области ИИ.

В США растет обеспокоенность по поводу «эффекта спутника», который показал, что Соединенные Штаты крайне плохо подготовлены для решения новых задач, связанных с искусственным интеллектом. И это может быть опасно для мира хотя бы потому, что страна, которой угрожает господство, может захотеть ликвидировать стратегическое преимущество противника иным путем, то есть путем войны.

Хотя первоначальная задача проекта Maven заключалась в том, чтобы помочь найти боевиков исламского ИГИЛ, его значение для дальнейшего развития военных систем искусственного интеллекта огромно. Электронная, основанная на самописцах, мониторах и сенсорах (в том числе мобильных, летающих) война связана с огромным количеством разнородных потоков данных, эффективно использовать которые можно только с помощью алгоритмов ИИ.

Гибридное поле битвы стало военная версия IoT, богатая важной информацией для оценки тактических и стратегических угроз и возможностей. Возможность управлять этими данными в режиме реального времени имеет большие преимущества, но неспособность извлечь уроки из этой информации может обернуться катастрофой. Способность быстро обрабатывать поток информации с различных платформ, работающих в нескольких областях, дает два основных военных преимущества: скорость i досягаемость. Искусственный интеллект позволяет анализировать динамические условия поля боя в режиме реального времени и наносить удары быстро и оптимально, минимизируя при этом риск для собственных сил.

Это новое поле битвы также является вездесущим и. ИИ лежит в основе так называемого рои дронов, которым в последние годы уделяется большое внимание. с помощью вездесущих датчиков не только позволяет беспилотным аппаратам перемещаться по враждебной местности, но и в конечном итоге может позволить формировать сложные соединения различных типов беспилотных летательных аппаратов, действующих во многих районах, с дополнительным вооружением, позволяющим использовать изощренную тактику боя, немедленно адаптируясь к противнику. маневры, чтобы использовать возможности полей сражений и сообщать об изменении условий.

Достижения в области целеуказания и навигации с помощью ИИ также улучшают перспективы эффективности в широком спектре тактических и стратегических систем обороны, особенно противоракетной, за счет улучшения методов обнаружения, отслеживания и идентификации целей.

постоянно увеличивает мощность симуляций и игровых инструментов, используемых для исследования ядерного и обычного оружия. Массовое моделирование и симуляция будут иметь важное значение для разработки всеобъемлющей многодоменной системы целевых систем для боевого управления и выполнения сложных задач. ИИ также обогащает взаимодействие с несколькими участниками (5). ИИ позволяет игрокам добавлять и изменять игровые переменные, чтобы исследовать, как динамические условия (вооружение, участие союзников, дополнительные войска и т. д.) могут повлиять на производительность и принятие решений.

Для военных идентификация объектов является естественной отправной точкой для ИИ. Во-первых, необходим комплексный и быстрый анализ растущего числа изображений и информации, собираемой со спутников и беспилотников, чтобы найти объекты военного значения, такие как ракеты, передвижения войск и другие данные, имеющие отношение к разведке. Сегодня поле боя охватывает все ландшафты — море, сушу, воздух, космос и киберпространство — в глобальном масштабе.

Киберпространствокак по своей сути цифровой домен, он, естественно, подходит для приложений ИИ. С наступательной стороны ИИ может помочь найти и нацелить отдельные сетевые узлы или отдельные учетные записи для сбора, нарушения или дезинформации. Кибератаки на внутреннюю инфраструктуру и командные сети могут иметь катастрофические последствия. Что касается обороны, ИИ может помочь обнаружить такие вторжения и найти разрушительные аномалии в гражданских и военных операционных системах.

Ожидаемая и опасная скорость

Однако быстрое принятие решений и оперативное исполнение могут не сослужить вам хорошую службу. в целях эффективного антикризисного управления. Преимущества искусственного интеллекта и автономных систем на поле боя могут не дать времени для дипломатии, которая, как мы знаем из истории, часто оказывалась успешной как средство предотвращения кризиса или управления им. На практике замедление, пауза и время для переговоров могут быть ключом к победе или, по крайней мере, предотвращению катастрофы, особенно когда на карту поставлено ядерное оружие.

Решения о войне и мире нельзя оставлять на усмотрение предиктивной аналитики. Существуют фундаментальные различия в том, как данные используются в научных, экономических, логистических и прогнозных целях. человеческое поведение.

Некоторые могут воспринимать ИИ как силу, которая ослабляет взаимную стратегическую чувствительность и, таким образом, увеличивает риск войны. Случайно или преднамеренно искаженные данные могут побудить системы ИИ совершать непреднамеренные действия, например, неправильно идентифицировать и преследовать неправильные цели. Скорость действий, постулируемая в случае разработки алгоритмов войны, может означать преждевременную или даже ненужную эскалацию, препятствующую рациональному управлению кризисом. С другой стороны, алгоритмы тоже не будут ждать и объяснять, потому что от них тоже ждут скорости.

Тревожный аспект функционирование алгоритмов искусственного интеллекта также представлен нами недавно в МТ. Даже специалисты не знают точно, как ИИ приводит к результатам, которые мы видим на выходе.

В случае алгоритмов войны мы не можем позволить себе такое невежество в отношении природы и того, как они их «думают». Мы не хотим просыпаться посреди ночи среди ядерных вспышек, потому что «наш» или «их» искусственный интеллект решил, что пришло время окончательно урегулировать игру.

Добавить комментарий