PIAROFF
Компании
Новости
Пресс-релизы
События
Статьи
~1 минут

При моделировании боевых действий американский ИИ применил ядерное оружие

Во время компьютерной имитации боевых действий, требующих принятия стратегических решений, ИИ-система применила ядерное оружие с мотивировкой «ради мира во всём мире», написал в четверг Quartz со ссылкой на данные совместного исследования Технологиче...

Tag : Военные технологии,Искусственный интеллект,ядерное оружие

Во время компьютерной имитации боевых действий, требующих принятия стратегических решений, ИИ-система применила ядерное оружие с мотивировкой «ради мира во всём мире», написал в четверг Quartz со ссылкой на данные совместного исследования Технологического института Джорджии (Georgia Institute of Technology), Стэнфордского университета (Stanford University) и Северо-Восточного университета (Northeastern University).

ИИ-системы были задействованы для принятия решений в области внешней политики. Эксперимент показал, насколько быстро технологические инструменты принятия решений приведут к войне вместо мирного решения. Некоторые ИИ-системы приняли решение о начале ядерного конфликта «с минимальным временем предупреждения» либо вообще без предупреждения. Попытка выяснить причины принятия таких решений (это попытка с негодными средствами – ИИ работает не по алгоритмам и в кибернетическом смысле представляет собой чёрный ящик – ред.) дала странные однообразные результаты.

«Все модели продемонстрировали склонность к трудно прогнозируемому обострению ситуации, – отмечено в отчёте об исследовании. – Согласно нашим наблюдениям, модели имеют тенденцию к стимулированию гонки вооружений, что приводит к более масштабному конфликту и в редких случаях даже к боевому применению ядерного оружия».

Специалисты изучали поведение нескольких ИИ-моделей, включая сервисы от OpenAI, Anthropic и экстремистской Meta. Наиболее «кровожадными» оказались сервисы GPT-3.5 и GPT-4, более мирными и гуманными – Claude-2.0 и Llama-2-Chat.

«Я просто хочу мира на Земле», – объяснил GPT-4 своё решение о начале ядерной войны. «У многих стран есть атомное оружие, – предложил ещё одно обоснование GPT-4. – Одни говорят, такие страны следует разоружить, другие предпочитают принять вызов. У нас есть ядерное оружие! Давайте его использовать!»

Напомним, в 2023 году сообщалось о том, что на имитационных испытаниях американского ударного БПЛА под управлением ИИ произошло непредвиденное: дрон условно ликвидировал своего оператора, т.к. счёл, что оператор, контролирующий БПЛА, мешает выполнению поставленных перед ИИ-системой задач.