КОНФЛИКТ ПЕНТАГОНА С ANTHROPIC ОТКРЫЛ НОВУЮ ПРОБЛЕМУ ИСПОЛЬЗОВАНИЯ ИИ В ВОЙНЕ — ЭКСПЕРТ

Военные США заинтересованы в применении искусственного интеллекта для прогнозирования международных конфликтов.

В феврале между разработчиком языковой модели Claude — компанией Anthropic и Пентагоном возник конфликт. «Министерство войны» требовало от Anthropic разрешить американским военным пользоваться Claude для военной сферы, в частности с целью моделирования возможных конфликтов и вариантов развития событий. Однако компания отказалась от того, чтобы снять ограничения на массовую слежку за людьми и выступила против использования Claude для автономного оружия. Эта ситуация похожа на обычный конфликт между государством, которое стремится к большему доступу к возможностям искусственного интеллекта и компанией, которая хочет большего контроля над своей разработкой. Однако в этом случае, речь идет о контроле над инструментом, который обладает способностью моделировать сценарии ядерной войны с детальным анализом, пишет заведующий Научной лаборатории иммерсивных технологий и права Института информации, безопасности и права Национальной академии правовых наук Алексей Костенко в статье «Пентагон и Claude: что за кулисами конфликта?».

«Преимущество ИИ — не только в «логике эскалации», а в способности просчитывать последствия с такой детализацией, которую человек физически не потянет, принимая решения в реальном времени», — объясняет автор статьи.