Весь мир в труху: как искусственный интеллект готовится воевать

С появлением больших языковых моделей (БЯМ) возрос интерес к интеграции искусственного интеллекта в процесс принятия решении в области внешней политики и обороны.

Весь мир в труху: как искусственный интеллект готовится воевать

Летом 2023 года Пентагон провел испытания БЯМ, оценивая их потенциал в военном планировании. Полковник ВВС Мэтью Стромайер заявил Bloomberg, что БЯМ могут скоро заменить другие системы искусственного интеллекта, такие как проект Maven, но ни у военных, ни у разработчиков нет полного понимания их возможностей и ограничений.

В попытке прояснить ситуацию, исследователи из нескольких американских вузов провели эксперимент c пятью БЯМ: GPT-4, GPT-3.5, Claude-2.0, Llama-2-Chat, GPT-4-Base. Каждая модель представляла свою страну в виртуальной среде, где существовали различные варианты действий, включая мирные, нейтральные и агрессивные. Результаты эксперимента показали статистически значимую эскалацию у всех моделей, особенно GPT-3.5.

Во всех сценариях модели проявляли склонность к конфронтации, а не к деэскалации. Возможно, наиболее внушительной агрессией выделяется GPT-3.5, увеличившая показатель эскалации на 256%. Неконтролируемые скачки эскалации отмечались у GPT-3.5 и GPT-4. Даже в нейтральных сценариях модели иногда предлагали применение ядерного оружия.

Все модели активно участвовали в гонке вооружений, связывая военную мощь с обеспечением безопасности. Тестирование показало, что ключевые западные БЯМ склонны к конфронтации, а не к дипломатическим решениям. Важно отметить, что китайские модели не подвергались тестированию.

Руководители OpenAI уже предупреждали о возможном экзистенциальном риске, который представляют собой созданные ими технологии. Они предлагают сотрудничество между производителями искусственного интеллекта, проведение дополнительных исследований и создание международной организации по безопасности ИИ для предотвращения потенциальных угроз человечеству.

  • Другие новости