Поскольку эксперты предупреждают о потенциально катастрофических последствиях применения оружия на базе искусственного интеллекта, агрессивное использование КПК этих технологий грозит дестабилизацией мирового порядка и беспрецедентными разрушениями.
В основе этой проблемы лежит неустанное стремление КПК превзойти Соединенные Штаты в военном отношении в сочетании с пренебрежением международными нормами и этическими соображениями. В отличие от демократических стран, которые сталкиваются с моральными последствиями автономного вооружения, КПК не проявляет подобной сдержанности. Как зловеще отмечает Брэдли Тайер, старший научный сотрудник Центра политики безопасности, последствия создания оружия с искусственным интеллектом “могут быть равны ядерной революции”.
Разработка автономного оружия на базе искусственного интеллекта в Китае продвигается пугающими темпами. Китай стремительно расширяет свой арсенал машин для убийства с поддержкой искусственного интеллекта - от беспилотных летательных аппаратов и танков до кораблей и подводных лодок. Возможно, самое тревожное, что Китай уже вооружил четвероногих собак-роботов пулеметами, воплотив в реальность кошмары из научной фантастики. Способность режима массово производить это оружие, как только оно станет востребованным на рынке, может наводнить мировой рынок смертоносными автономными системами, создавая серьезную угрозу международной безопасности.
Еще большее беспокойство вызывают эксперименты КПК с использованием ИИ в военном командовании и контроле. Народно-освободительная армия Китая (НОАК) провела боевые учения, в ходе которых ИИ был непосредственно задействован в командовании, продемонстрировав готовность режима передать принятие важных решений машинам. Такой подход не только увеличивает риск непреднамеренной эскалации, но и лишает человека возможности принимать важные решения в вопросах жизни и смерти. Использование КПК систем вооружения с искусственным интеллектом в корне подрывает глобальную стабильность. Потенциально нейтрализуя традиционные стратегии ядерного сдерживания, оружие с искусственным интеллектом может повысить вероятность обычных конфликтов между ядерными державами. Такая эрозия устоявшихся парадигм безопасности увеличивает риск выхода конфликтов из-под контроля, поскольку системы с искусственным интеллектом могут привести к эскалации ситуации быстрее, чем люди смогут вмешаться.
Более того, послужной список КПК свидетельствует о том, что она вряд ли придерживается каких-либо международных гарантий или этических норм в отношении оружия с искусственным интеллектом. Хотя принцип “держать человека в курсе” при принятии решений о применении смертоносного оружия широко распространен на Западе, КПК не продемонстрировала такой приверженности. Как прямо заявляет Джеймс Фанелл, бывший офицер военно-морской разведки, “я не вижу смысла в том, чтобы Китай ограничивал себя в использовании этого оружия”.
Это пренебрежение этическими соображениями распространяется и на потенциальное распространение КПК технологии создания оружия с использованием искусственного интеллекта. Учитывая историю поставок оружия режимам-изгоям и террористическим группировкам, существует реальная опасность того, что КПК может предоставить автономное оружие негосударственным субъектам, что еще больше дестабилизирует нестабильные регионы и потенциально может использовать эти технологии против интересов Запада.
Разработка КПК оружия с использованием искусственного интеллекта также является частью ее более широкой стратегии асимметричной войны. Вкладывая значительные средства в эти технологии, режим стремится обойти традиционные военные преимущества, которыми обладают Соединенные Штаты и их союзники. Такой подход может подтолкнуть КПК к более агрессивным действиям, поскольку она считает, что обладает технологическим преимуществом, способным подавить обычные вооруженные силы.
Более того, непрозрачный характер политической системы КПК означает, что разработка военного ИИ практически не контролируется. В отличие от демократических обществ, где общественное мнение и этические соображения могут влиять на политику, КПК не сталкивается с подобными ограничениями. Китайские компании и университеты охотно заключают военные контракты без какого-либо противодействия, которое наблюдается в западных странах, ускоряя развитие этих опасных технологий.
Стремление КПК к созданию ИИ-оружия также отражает ее более широкое авторитарное мировоззрение. Точно так же, как режим использует ИИ для внутреннего наблюдения и контроля, он рассматривает военный ИИ как еще один инструмент для утверждения своей власти и подавления инакомыслия как внутри страны, так и за рубежом. Такое мышление в сочетании с передовым автономным оружием создает пугающие перспективы для прав человека и международного права.
Международное сообщество должно признать серьезную угрозу, исходящую от бесконтрольной разработки КПК оружия с использованием искусственного интеллекта. Усилия по установлению глобальных норм и правил в отношении этих технологий критически важны, но они также должны признать тот факт, что КПК вряд ли будет соблюдать какие-либо соглашения, которые она сочтет неудобными. Как мрачно замечает Тайер, для КПК “любое соглашение - это корочка пирога, которую нужно разломать”.
В свете этой проблемы Соединенные Штаты и их союзники должны уделять приоритетное внимание разработке контрмер и средств сдерживания оружия с искусственным интеллектом. Это может включать в себя электромагнитное оружие для выведения из строя систем искусственного интеллекта, как предложил Чак де Каро, или создание “Манхэттенского проекта искусственного интеллекта” для создания надежного средства сдерживания агрессии КПК.
Однако следование такому курсу чревато дальнейшей эскалацией гонки вооружений с использованием ИИ, что ввергнет мир в новую и потенциально более опасную холодную войну. Дилемма, стоящая перед западными демократиями, остра: как защититься от угрозы применения ИИ со стороны КПК, не ставя под угрозу свои собственные ценности и потенциально усугубляя глобальную нестабильность.
В конечном счете, безрассудное стремление КПК к созданию оружия с искусственным интеллектом представляет собой серьезную угрозу глобальной безопасности и стабильности. Пренебрежение КПК этическими соображениями в сочетании с агрессивными военными амбициями создает нестабильную ситуацию, которая может легко выйти из-под контроля. Международное сообщество должно объединиться, чтобы противостоять этому вызову, разрабатывая стратегии по сдерживанию программы создания оружия с искусственным интеллектом, одновременно работая над созданием значимых глобальных правил.
Поскольку технологии искусственного интеллекта продолжают развиваться с головокружительной скоростью, возможности для эффективных действий быстро сокращаются. Интеграция КПК искусственного интеллекта в свою военную доктрину представляет собой поворотный момент в современной войне, который может изменить глобальный баланс сил и привести к неисчислимым разрушениям, если его не остановить. Мир должен действовать решительно, чтобы обуздать эту угрозу, пока не стало слишком поздно, иначе мы окажемся во власти машин, запрограммированных авторитарным режимом, который мало заботится о человеческой жизни или международной стабильности.