Искусственный интеллект к 2040 году может подорвать ядерную стабильность и нивелировать стратегию ядерного сдерживания.
К такому выводу пришли специалисты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского стратегического исследовательского центра RAND Corporation.
По мнению некоторых специалистов, для нарушения равновесия даже не потребуется встраивания искусственного интеллекта в ядерное оружие; само его существование может спровоцировать того или иного члена ядерного клуба к нанесению первого удара.
Власти стран — членов ядерного клуба полагают наличие у них ядерного оружия гарантией безопасности. Считается, что наличие такого оружия защищает от нападения других стран, которые могут опасаться нанесения ядерного удара по своей территории. Это описывается стратегией ядерного сдерживания. Кроме того, существует понятие ядерного паритета (или ядерной стабильности), согласно которому ядерные державы вероятнее всего не будут наносить удары друг по другу, опасаясь взаимного уничтожения.
Естественно понятия ядерной стабильности и ядерного сдерживания более сложны и носят скорее умозрительный характер, поскольку реальных военных конфликтов с применением ядерного оружия в мире не было со времен бомбардировки японских городов Хиросима и Нагасаки (вскоре после бомбардировки правительство Японии капитулировало). Описанные понятия усложняются гибридной войной, развитием высокоточного ядерного оружия, формированием ядерной триады (баллистические ракеты, подводные лодки с баллистическими ракетами и бомбардировщики) и созданием новых систем противоракетной обороны.
Эксперты, опрошенные исследователями RAND Corporation, разделились на несколько лагерей. Умеренные предположили, что искусственный интеллект позволит лишь усовершенствовать имеющиеся системы ядерного вооружения, но никак не повлияет на стратегию ядерного сдерживания и ядерный паритет. При этом они пришли к умозаключению, что к 2040 году для искусственного интеллекта все еще будет серьезной проблемой сбор и обработка разведывательных данных о подготовке противника к применению ядерного оружия, а также к приоритизации целей противника.
В свою очередь алармисты заявили, что искусственный интеллект в любом случае представляет опасность для ядерной стабильности. По мнению этого лагеря экспертов, одной из ядерных держав достаточно будет просто решить (неважно, истинно или ложно), что искусственный интеллект в системах защиты противника может свести на нет ответный удар в случае ядерного конфликта, чтобы эта держава отказалась от тактики второго удара и переключилась на стратегию превентивного удара, попутно начав наращивать ядерный арсенал.
Еще одна группа экспертов объявила, что искусственный интеллект в системах ядерного вооружения может быть применен, и это может как упрочить ядерную стабильность, так и разрушить ее. С одной стороны, страны с «умным» ядерным оружием и системами защиты от него могут решить, что применение такого вооружения приведет к гарантированному взаимоуничтожению. Это может оказаться сдерживающим фактором. С другой стороны, «умные» системы могут дать правительствам ощущение технологического превосходства, гарантирующего победу в возможной войне. В этом случае ядерная война станет реальнее.
При этом все эксперты, опрошенные RAND Corporation, пришли к выводу, что к 2040 году ни одна из стран — членов ядерного клуба не сможет создать машину судного дня с искусственным интеллектом. Гипотетическая машина судного дня рассматривается теоретиками как некая боевая система, способная инициировать ответный ядерный удар даже в том случае, если все руководство страны будет уничтожено ядерным ударом противника. Подобная машина обычно рассматривается в рамках стратегии гарантированного взаимного уничтожения.
В июле 2015 года Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые, бизнесмены, знаменитости, исследователи и специалисты в области робототехники и искусственного интеллекта подписали открытое письмо, предостерегающее производителей оружия от создания боевых систем с искусственным интеллектом. В письме говорится, что до создания полностью автономных боевых систем, способных самостоятельно принимать решение об открытии огня, остались считанные годы.
При этом авторы текста опасаются, что если кто-либо начнет углубленное производство автономных боевых систем, то новой эпохи гонки вооружений избежать не удастся. «Когда подобные устройства появятся на черном рынке, — это только вопрос времени — они попадут в руки террористов, диктаторов, желающих лучше контролировать свой народ, полевых командиров, которые используют их для этнических чисток и так далее. Автономное оружие идеально для заказных убийств, разрушения наций, подавления восстаний и зачисток по этническим признакам».
Источник: N+1
Подписывайтесь на канал «Хвилі» в Telegram, страницу «Хвилі» в Facebook.