Генеративный ИИ: новый шпион Пентагона?
Генеративный ИИ помогает американской морской пехоте собирать и анализировать разведывательные данные в режиме реального времени, значительно ускоряя процесс. Узнайте, как искусственный интеллект революционизирует военную разведку.

Эксперимент в Тихом океане
В ходе учений 15-й экспедиционной группы морской пехоты США в водах Южной Кореи, Филиппин, Индии и Индонезии (около 2500 военнослужащих) проводился эксперимент по использованию генеративного ИИ в анализе разведывательной информации. Подразделение, отвечающее за выявление потенциальных угроз, впервые применило передовой инструмент ИИ, разработанный при финансировании Пентагона. Система помогла обработать тысячи источников открытой информации – статьи, отчеты, изображения и видео – значительно быстрее, чем при ручном методе.
Например, капитан Кристин Энзенауэр использовала большие языковые модели для перевода и резюмирования иностранных новостных источников, а капитан Уилл Лоудон – для составления разведывательных отчетов. Несмотря на необходимость проверки источников, командование высоко оценило повышение эффективности в динамичной обстановке.
Технологии Vannevar Labs
Инструменты генеративного ИИ были разработаны компанией Vannevar Labs, получившей контракт от Пентагона на сумму до 99 миллионов долларов. Основанная ветеранами ЦРУ и американского разведывательного сообщества, компания присоединилась к таким компаниям, как Palantir, Anduril и Scale AI, получающим значительные средства от военных США на разработку ИИ-технологий, включая программное обеспечение для анализа данных.
Использование генеративного ИИ, способного к диалогу, подобно ChatGPT, представляет собой новый этап в применении ИИ в военной сфере. Vannevar Labs использует существующие большие языковые модели (OpenAI, Microsoft) и собственные разработки для анализа терабайтов данных на 80 языках из 180 стран ежедневно. Компания утверждает о возможности анализа профилей в социальных сетях, обхода файерволов и использования данных физических датчиков для обнаружения незаконной деятельности.
Vannevar Labs создает модели ИИ для перевода информации, обнаружения угроз и анализа политических настроений, предоставляя результаты через интерфейс чат-бота. Цель – предоставление критически важной информации о различных темах, от международных цепочек поставок наркотиков до деятельности Китая по обеспечению редкоземельными минералами.
Решение проблемы избытка данных
Этот подход привлекателен для разведывательных служб США, сталкивающихся с переизбытком данных. Vannevar Labs предложила использовать большие языковые модели для решения этой проблемы, обеспечивая не только сбор данных, но и интерактивное обсуждение анализа с пользователем.
Инструменты Vannevar Labs оказались полезными в Тихоокеанском регионе. Хотя проверка работы ИИ была обязательной, значительных неточностей обнаружено не было. Капитан Энзенауэр использовала инструмент для отслеживания зарубежных новостных сообщений, проведения анализа настроений и определения отношения иностранных СМИ к подразделению. Это значительно упростило и ускорило процесс, ранее выполнявшийся вручную.
Несмотря на успехи, были и сбои, связанные в основном с нестабильным интернет-соединением на кораблях. Тем не менее, командование планирует расширить использование генеративного ИИ, рассматривая проведенный эксперимент как «верхушку айсберга».
Пентагон планирует потратить 100 миллионов долларов на пилотные проекты по применению генеративного ИИ в ближайшие два года, сотрудничая с компаниями, такими как Microsoft и Palantir. Однако, многие эксперты предупреждают о потенциальных рисках, связанных с неточностью больших языковых моделей и их использованием в критически важных решениях.
Особенно вызывает опасения анализ настроений, который является субъективной метрикой и может быть неточно интерпретирован ИИ. Неверная оценка ситуации может привести к необоснованному обострению конфликта. Кроме того, использование открытых источников данных повышает уязвимость к дезинформации и манипуляциям. Главный вопрос – будет ли ИИ просто инструментом для аналитиков или станет основой для принятия решений.
Несмотря на доступность и простоту использования моделей ИИ, необходимо учитывать их ограничения и потенциальные ошибки. Вопрос о допустимом уровне неточностей в обмен на повышение эффективности остается открытым.