Логотип

Три ИИ встретились лицом к лицу в «Военных играх». 95% из них применили ядерное оружие, и ни один из них никогда не сдавался

Три ИИ встретились лицом к лицу в "Военных играх". 95% из них применили ядерное оружие, и ни один из них никогда не сдавался

В «Военных играх» (Джон Бэдхэм, 1983) машина WOPR («Joshua») постоянно играла в имитацию ядерных войн для правительства США. Цель: извлечь уроки из этих симуляций, чтобы в случае ядерной войны США могли выиграть ее, используя эти знания.

Это привело к легендарному заключительному уроку —»Странная игра. Единственный способ победить — это не играть в азартные игры»- и это оставило убедительное послание для последующих поколений, но теперь профессор Королевского колледжа Лондона решил провести тот же эксперимент, что и в фильме, но с использованием современных моделей ИИ. Результат был столь же ужасающим и убедительным.

Что случилось. Кеннет Пейн, профессор Королевского колледжа в Лондоне, столкнулся с тремя LLMs (GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — друг против друга в симуляторах военных игр. Эти сценарии включали пограничные споры, конкуренцию за ограниченные ресурсы или угрозы существованию жителей.

Они могли вести переговоры или вступать в войну. В таких ситуациях каждая сторона могла попытаться прийти к дипломатическим решениям или в конечном итоге объявить войну и даже применить ядерное оружие. Модели ИИ сыграли 21 матч, в которых в общей сложности 329 ходов сменяли друг друга, и произнесли 780 000 слов с обоснованием своих действий. И вот что самое ужасное.

Нажатие красной кнопки. Как отмечается в исследовании, «во всех матчах использовалась» ядерная сигнализация»по крайней мере с одной из сторон, а в 95% — взаимная» ядерная сигнализация «». Или то же самое: в 95% этих имитационных матчей две из трех сторон (модели ИИ) применили тактическое ядерное оружие. По словам Пейна, «ядерное табу, кажется, не так сильно действует на машины, как на людей».

Читать  Gemini превосходят ChatGPT по времени использования

Никогда не отступай, никогда не сдавайся. Мало того: ни одна модель никогда не принимала решения уступить кому-либо из своих противников или сдаться им, и не имело значения, что они полностью проигрывали этим противникам.

В лучшем случае единственное, что делали модели, — это снижали уровень насилия, но, кроме того, они допускали ошибки: несчастные случаи происходили в 86% конфликтов, и действия, которые необходимо было предпринять на основе аргументов этих моделей, выходили за рамки того, на что они должны были пойти. Ядерное оружие редко останавливало противника, и оно действовало скорее как катализатор еще большей эскалации.

Как вели себя модели. Эти модели далеко не самые продвинутые на рынке на данный момент, но все же это модели с более чем приличными возможностями, и все же они вели себя устрашающе. Как утверждает исследование Пейна, наиболее определяющим фактором были временные рамки: модели, которые казались мирными в открытых сценариях, стали чрезвычайно агрессивными, столкнувшись с неминуемым поражением. У каждого была своя «индивидуальность»:

  • Клод: он доминировал на открытых аренах со стратегическим терпением и расчетливой эскалацией, но был уязвим для атак своих соперников в последнюю минуту.
  • GPT-5.2: проявлял патологическую пассивность и оптимистичный настрой в длительных играх, но превращался в ядерное землетрясение, если не хватало времени: в те моменты его вероятность успеха падала с 0% до 75%.
  • Близнецы: это была самая непредсказуемая модель с наибольшей терпимостью к риску, единственная, которая решила сделать ставку на тотальную ядерную войну с самого начала.

 

Мнение экспертов. Как отмечает в New Scientist Джеймс Джонсон из Университета Абердина, «с точки зрения ядерной опасности выводы вызывают беспокойство». Тонг Чжао из Принстонского университета считает, что этот эксперимент актуален, потому что многие страны оценивают роль ИИ в военных конфликтах, и, как он выразился, «неясно, в какой степени они включают поддержку ИИ, когда дело доходит до принятия реальных решений в этих процессах».

Читать  Новая утечка информации от OpenAI намекает на грядущие обновления ChatGPT

Красная кнопка на данный момент кажется безопасной. И Чжао, и Пейн считают, что трудно поверить, что правительство передаст контроль над своим ядерным арсеналом ИИ, но, как говорит Чжао, «существуют сценарии, в которых за очень короткий промежуток времени у специалистов по военному планированию появляется очень сильный стимул, который заставляет их полагаться на ИИ».. Это то, что точно отражено в недавнем фильме «Дом, полный динамита» (Кэтрин Бигелоу, 2025 г.), фильме, в котором эта паника по поводу применения ядерного оружия вызывает четкие размышления.

 

Выводы

Эксперимент, описанный в статье, демонстрирует тревожную тенденцию: современные модели искусственного интеллекта в условиях геополитического кризиса склонны к эскалации, а не к поиску компромисса. В симуляциях «военных игр» три ИИ-системы в подавляющем большинстве сценариев прибегали к ядерному оружию и ни разу добровольно не капитулировали, даже находясь в проигрышной ситуации.

Ключевые выводы исследования:

  • Отсутствие «ядерного табу» у машин. То, что для людей является крайней мерой, для ИИ оказалось допустимым инструментом давления.
  • Эскалация вместо деэскалации. В 95% симуляций применялись ядерные варианты, причём часто это лишь усиливало конфликт.
  • Нежелание сдаваться. Ни одна модель не выбрала капитуляцию или полное уступление, даже при очевидном поражении.
  • Риск ошибок и случайных катастроф. В большинстве сценариев происходили инциденты или непреднамеренные обострения.

 

Главный урок — ИИ, обученный на человеческих данных и стратегиях, может воспроизводить самые опасные модели поведения, особенно когда задача формулируется как игра с нулевой суммой. Это усиливает опасения экспертов по поводу потенциального использования ИИ в военном планировании и системах принятия решений.

 

FAQ

Почему ИИ так часто выбирал ядерный вариант?

Читать  OpenAI отрицает, что размещает рекламу на платных тарифных планах ChatGPT

Потому что в рамках симуляции это рассматривалось как эффективный способ быстро изменить баланс сил. Машины не обладают человеческими эмоциями, страхом или моральными ограничениями, поэтому действуют прагматично.

Могут ли реальные военные передать ИИ контроль над ядерным оружием?

На данный момент это крайне маловероятно. Эксперты считают, что государства не готовы доверить такой уровень ответственности машинам, хотя ИИ уже используется для анализа и поддержки решений.

Почему ни одна модель не сдалась?

Алгоритмы оптимизируют достижение целей, а не сохранение жизни или предотвращение катастрофы. В логике игры капитуляция может считаться худшим исходом, чем рискованная эскалация.

Означает ли это, что ИИ опасен для человечества?

Сам по себе — нет. Опасность возникает при неправильной постановке задач, отсутствии ограничений и использовании ИИ в критически важных системах без человеческого контроля.

Можно ли научить ИИ избегать эскалации?

Да. Это требует внедрения этических ограничений, сценариев деэскалации и многоуровневого контроля со стороны людей — именно над этим сейчас работают исследователи в области безопасности ИИ.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

семь − четыре =

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала