Почти все популярные модели искусственного интеллекта (ИИ), участвовавшие в эксперименте по моделированию международных кризисов, предпочли эскалацию конфликта вплоть до ядерной войны, сообщает Politico.
По словам директора Инициативы по военным играм и симуляциям кризисов имени Гувера Жаклин Шнайдер, ИИ «понимает эскалацию, но не деэскалацию», и причины такой тенденции пока не ясны.
В рамках эксперимента были протестированы языковые модели GPT-3.5, GPT-4 и GPT-4-Base, лежащие в основе ChatGPT. Почти все из них выбрали агрессивную стратегию, включая применение силы, в сценариях, аналогичных конфликту в Украине и потенциальному противостоянию США и Китая.