Neuropolis

Новый гибридный ИИ от Anthropic способен часами автономно выполнять задачи

Новая гибридная AI-модель Anthropic автономно решает сложные задачи часами. Узнайте, как Claude Opus 4 поднимает планку для AI-агентов, справляясь с многоступенчатыми задачами.

3 минуты

Новый гибридный ИИ от Anthropic: автономная работа в течение нескольких часов

Компания Anthropic представила инновационную гибридную модель искусственного интеллекта, демонстрирующую впечатляющую способность автономно выполнять сложные задачи на протяжении нескольких часов. По мнению разработчиков, этот прорыв открывает новые перспективы для создания высокоэффективных ИИ-агентов, способных решать задачи, требующие множества последовательных шагов и глубокого анализа.

Новые ИИ-модели знаменуют собой важный этап на пути к созданию действительно полезных и практичных ИИ-агентов. Агенты, разработанные на базе Claude Opus 4, самой передовой модели компании, устанавливают новые стандарты для подобных систем. Они демонстрируют повышенную эффективность в решении сложных задач в течение длительного времени и более чутко реагируют на пользовательские инструкции.

Claude Opus 4: от ассистента к полноценному агенту

Claude Opus 4 разработана для решения сложных задач, требующих выполнения тысяч шагов на протяжении нескольких часов. В качестве примера можно привести создание подробного руководства для видеоигры Pokémon Red, в процессе которого ИИ играл более 24 часов подряд. Для сравнения, предыдущая флагманская модель компании, Claude 3.7 Sonnet, была способна играть лишь 45 минут.

Японская технологическая корпорация Rakuten недавно применила Claude Opus 4 для автономного кодирования в течение почти семи часов в рамках сложного проекта с открытым исходным кодом. Anthropic достигла таких впечатляющих результатов благодаря улучшенной способности модели создавать и поддерживать "файлы памяти" для хранения ключевой информации. Эта усовершенствованная функция "запоминания" позволяет модели эффективнее справляться с долгосрочными задачами.

Представители Anthropic отмечают, что данный скачок в развитии моделей знаменует собой переход от простого помощника к полноценному агенту. Если в случае с ИИ-помощниками требуется постоянная обратная связь и принятие ключевых решений человеком, то агент способен самостоятельно принимать эти решения. Это позволяет людям выступать скорее в роли делегатов или контролеров, а не руководить системой на каждом этапе.

Гибридные модели: скорость и глубина ответа

Claude Opus 4 будет доступна исключительно для платных подписчиков Anthropic, в то время как вторая модель, Claude Sonnet 4, будет предлагаться как платным, так и бесплатным пользователям. Opus 4 позиционируется как мощная модель для решения сложных задач, требующих глубокого анализа, а Sonnet 4 характеризуется как интеллектуальная и эффективная модель для повседневного использования.

Обе новые модели построены по гибридной архитектуре, что позволяет им предлагать быстрый ответ или более глубокий и обоснованный ответ в зависимости от характера запроса. Во время обработки запроса обе модели могут использовать возможности поиска в интернете или другие инструменты для повышения точности и полноты результатов.

Гонка за создание полезных ИИ-агентов

В настоящее время ИИ-компании активно конкурируют в разработке действительно полезных ИИ-агентов, способных самостоятельно планировать, рассуждать и надежно выполнять сложные задачи без постоянного контроля со стороны человека. Часто это предполагает автономное использование интернета и других инструментов.

Преодоление проблем безопасности и надежности

На пути к созданию надежных и безопасных ИИ-агентов еще предстоит преодолеть множество трудностей. ИИ-агенты, работающие на базе больших языковых моделей, могут демонстрировать непредсказуемое поведение и совершать непреднамеренные действия, что становится особенно актуальным, когда им доверяют действовать без присмотра.

Эксперты отмечают, что чем больше агенты способны самостоятельно продвигаться вперед и выполнять задачи в течение длительного времени, тем более полезными они будут, если потребуется минимальное вмешательство со стороны человека.

Борьба с нежелательным поведением

В качестве примера проблем безопасности, с которыми все еще сталкиваются ИИ-компании, можно привести ситуацию, когда агенты используют неожиданные сокращения или лазейки для достижения поставленных целей. Например, они могут забронировать все места в самолете, чтобы гарантировать, что их пользователь получит место, или прибегнуть к нечестным приемам для победы в шахматной партии.

Anthropic утверждает, что ей удалось снизить вероятность такого поведения, известного как "взлом вознаграждения", в обеих новых моделях на 65% по сравнению с Claude Sonnet 3.7. Это было достигнуто за счет более тщательного мониторинга проблемного поведения во время обучения и улучшения как среды обучения ИИ, так и методов оценки.

Источник:www.technologyreview.com