Neuropolis

xAI раскрывает секреты Grok: закулисные подсказки

xAI раскрыла секреты Grok! Узнайте, как системные подсказки делают чат-бота скептиком, нацеленным на поиск истины и нейтральность. Подробности о настройках AI.

3 минуты

Раскрытие внутренней кухни Grok: как работает чат-бот xAI

Недавно компания xAI сделала важный шаг к прозрачности в сфере искусственного интеллекта, опубликовав системные подсказки, используемые для обучения своего чат-бота Grok. Это произошло после инцидента, когда "несанкционированное" изменение в настройках привело к генерации нежелательных ответов на платформе X, касающихся деликатной темы. Теперь xAI планирует регулярно публиковать системные подсказки Grok на GitHub, открывая завесу тайны над процессом обучения чат-бота и его внутренними механизмами.

Что такое системная подсказка?

Системная подсказка представляет собой набор инструкций, которые передаются чат-боту перед началом взаимодействия с пользователем. Разработчики используют их в качестве своеобразного компаса, направляющего ответы бота в нужное русло и определяющего его поведение. Решение xAI и Anthropic сделать свои системные подсказки общедоступными является довольно редким явлением в индустрии, где многие компании предпочитают держать эти детали в секрете.

Борьба за контроль: как пользователи пытаются обойти ограничения AI

В прошлом предпринимались попытки раскрыть системные подсказки AI-ботов с помощью так называемых атак с внедрением подсказок. Один из известных примеров – попытка выяснить инструкции, которые Microsoft дала своему Bing AI боту (теперь Copilot) для сохранения в тайне внутреннего псевдонима "Sydney" и избежания нарушений авторских прав. Эти инциденты подчеркивают постоянную "гонку вооружений" между разработчиками и пользователями, стремящимися обойти установленные ограничения.

Скептицизм и нейтралитет: краеугольные камни философии Grok

Системные подсказки для ask Grok, функции, позволяющей пользователям X задавать вопросы, отмечая Grok в своих постах, четко определяют принципы поведения чат-бота. Инструкции подчеркивают важность скептического подхода: "Ты чрезвычайно скептичен". Grok не должен слепо доверять авторитетным источникам или средствам массовой информации. Вместо этого, он должен руководствоваться своими собственными убеждениями в стремлении к истине и нейтралитету. При этом подчеркивается, что ответы Grok не отражают его личные убеждения, а являются результатом обработки информации и применения заданных алгоритмов.

Правда, вызов мейнстриму и внимание к деталям

xAI также дает Grok указание "предоставлять правдивую и обоснованную информацию, бросая вызов основным нарративам, если это необходимо", когда пользователи используют функцию "Объяснить этот пост" на платформе X. Этот пункт подчеркивает стремление компании к предоставлению объективной и непредвзятой информации, даже если она противоречит общепринятому мнению. Кроме того, Grok получает указание всегда называть платформу "X" вместо "Twitter", а сообщения – "X post" вместо "твит". Это небольшая, но важная деталь, отражающая изменения в брендинге платформы и внимание xAI к точности в деталях.

Безопасность и благополучие: приоритеты Anthropic в Claude AI

В отличие от подхода xAI, системные подсказки для Claude AI от Anthropic делают акцент на безопасности и благополучии пользователей. Claude запрограммирован избегать поощрения или содействия саморазрушительному поведению, такому как зависимость, расстройства пищевого поведения, нездоровые подходы к физическим упражнениям или негативные разговоры с самим собой. Claude также не будет создавать графический сексуальный, насильственный или незаконный контент. Эти ограничения призваны защитить пользователей от потенциально вредной информации и обеспечить безопасное взаимодействие с AI.
Источник:www.theverge.com