logo

Военная разработка ИИ: начался второй этап

Вторая фаза внедрения ИИ в армию США: генеративный ИИ анализирует разведданные. Возникают опасения по поводу безопасности и этики использования таких технологий в условиях высоких геополитических ставок. Затронуты вопросы точности, предотвращения жертв среди мирного населения и роли человека в принятии решений.

Военная разработка ИИ: начался второй этап
Вторая фаза внедрения ИИ в армию США: генеративный ИИ анализирует разведданные. Возникают опасения по поводу безопасности и этики использования таких технологий в условиях высоких геополитических ставок. Затронуты вопросы точности, предотвращения жертв среди мирного населения и роли человека в принятии решений.

Вторая фаза военного ИИ: новые вызовы

Недавние учения с участием морских пехотинцев США продемонстрировали новую фазу внедрения ИИ в армию. Впервые использовался генеративный ИИ для анализа разведывательных данных через интерфейс, подобный ChatGPT.

Это стало логичным продолжением развития, начавшегося в 2017 году с применения более простых систем ИИ, таких как компьютерное зрение для анализа изображений с беспилотников.

Ускорение развития и связанные риски

Активное продвижение ИИ со стороны Илона Маска и министра обороны усилило стремление к его внедрению в вооруженные силы. Однако, это вызывает опасения у экспертов по безопасности.

Существует обеспокоенность по поводу способности больших языковых моделей адекватно анализировать сложные разведывательные данные в условиях высокой геополитической напряженности. Кроме того, возникают этические дилеммы, связанные с возможным участием ИИ в принятии решений о нанесении ударов.

"Человек в контуре": реальная эффективность

Часто употребляемый термин "человек в контуре" подразумевает, что ИИ выполняет задачи, а человек контролирует и проверяет результаты. Это должно предотвращать как катастрофические ошибки, так и мелкие неточности.

Однако, сложность современных ИИ-систем, обрабатывающих огромные объемы данных, делает человеческий контроль крайне затруднительным. Специалисты отмечают сложность проверки результатов работы таких систем.

Классификация информации в эпоху больших данных

В прошлом информация классифицировалась вручную и хранилась в строгом порядке. Появление больших данных и генеративного ИИ кардинально меняет ситуацию.

Возникает проблема "классификации путем компиляции". Несекретные документы, содержащие разрозненные сведения о военных системах, могут быть объединены ИИ для получения секретной информации.

Это ставит перед нами новые вызовы в области защиты информации. Раньше подобное было невозможно, но современные ИИ-системы способны решать такие задачи, что существенно усложняет классификацию данных.

Ответственность за классификацию данных

Неправильная классификация данных представляет собой серьезную угрозу безопасности. Одновременно с этим, Пентагон часто критикуют за излишнюю секретность.

Компании, такие как Palantir, предлагают свои инструменты ИИ для помощи в классификации данных и сотрудничают с Microsoft в разработке моделей ИИ, обучаемых на секретных данных.

Дальнейшее развитие военного ИИ

Внедрение ИИ в американских вооруженных силах во многом повторяет тенденции в потребительском секторе. Развитие ИИ в военных целях идёт от простых систем компьютерного зрения к сложным моделям, способным анализировать данные и предлагать решения.

Следующим этапом может стать использование агентивного ИИ, способного не только анализировать информацию, но и самостоятельно действовать. Это также предполагает использование персонализированного ИИ, обучающегося на индивидуальных данных.

Перспективы

Отчеты указывают на растущее использование ИИ в армии для поддержки принятия решений на оперативном уровне. Администрация Байдена приняла национальный меморандум по безопасности ИИ, но вопрос о контроле над ИИ в военных целях остается открытым.

ИИ все активнее используется не только для рутинных задач, но и для принятия критически важных решений. Это вызывает множество вопросов, требующих пристального внимания и обсуждения.