Военная разработка ИИ: начался второй этап
Вторая фаза внедрения ИИ в армию США: генеративный ИИ анализирует разведданные. Возникают опасения по поводу безопасности и этики использования таких технологий в условиях высоких геополитических ставок. Затронуты вопросы точности, предотвращения жертв среди мирного населения и роли человека в принятии решений.

Вторая фаза военного ИИ: новые вызовы
Недавние учения с участием морских пехотинцев США продемонстрировали новую фазу внедрения ИИ в армию. Впервые использовался генеративный ИИ для анализа разведывательных данных через интерфейс, подобный ChatGPT.
Это стало логичным продолжением развития, начавшегося в 2017 году с применения более простых систем ИИ, таких как компьютерное зрение для анализа изображений с беспилотников.
Ускорение развития и связанные риски
Активное продвижение ИИ со стороны Илона Маска и министра обороны усилило стремление к его внедрению в вооруженные силы. Однако, это вызывает опасения у экспертов по безопасности.
Существует обеспокоенность по поводу способности больших языковых моделей адекватно анализировать сложные разведывательные данные в условиях высокой геополитической напряженности. Кроме того, возникают этические дилеммы, связанные с возможным участием ИИ в принятии решений о нанесении ударов.
"Человек в контуре": реальная эффективность
Часто употребляемый термин "человек в контуре" подразумевает, что ИИ выполняет задачи, а человек контролирует и проверяет результаты. Это должно предотвращать как катастрофические ошибки, так и мелкие неточности.
Однако, сложность современных ИИ-систем, обрабатывающих огромные объемы данных, делает человеческий контроль крайне затруднительным. Специалисты отмечают сложность проверки результатов работы таких систем.
Классификация информации в эпоху больших данных
В прошлом информация классифицировалась вручную и хранилась в строгом порядке. Появление больших данных и генеративного ИИ кардинально меняет ситуацию.
Возникает проблема "классификации путем компиляции". Несекретные документы, содержащие разрозненные сведения о военных системах, могут быть объединены ИИ для получения секретной информации.
Это ставит перед нами новые вызовы в области защиты информации. Раньше подобное было невозможно, но современные ИИ-системы способны решать такие задачи, что существенно усложняет классификацию данных.
Ответственность за классификацию данных
Неправильная классификация данных представляет собой серьезную угрозу безопасности. Одновременно с этим, Пентагон часто критикуют за излишнюю секретность.
Компании, такие как Palantir, предлагают свои инструменты ИИ для помощи в классификации данных и сотрудничают с Microsoft в разработке моделей ИИ, обучаемых на секретных данных.
Дальнейшее развитие военного ИИ
Внедрение ИИ в американских вооруженных силах во многом повторяет тенденции в потребительском секторе. Развитие ИИ в военных целях идёт от простых систем компьютерного зрения к сложным моделям, способным анализировать данные и предлагать решения.
Следующим этапом может стать использование агентивного ИИ, способного не только анализировать информацию, но и самостоятельно действовать. Это также предполагает использование персонализированного ИИ, обучающегося на индивидуальных данных.
Перспективы
Отчеты указывают на растущее использование ИИ в армии для поддержки принятия решений на оперативном уровне. Администрация Байдена приняла национальный меморандум по безопасности ИИ, но вопрос о контроле над ИИ в военных целях остается открытым.
ИИ все активнее используется не только для рутинных задач, но и для принятия критически важных решений. Это вызывает множество вопросов, требующих пристального внимания и обсуждения.