Neuropolis

Искусственный интеллект убеждает лучше нас: взгляд MIT Technology Review

ИИ убеждает лучше людей? Исследование показало, что GPT-4 от OpenAI превосходит людей в спорах, используя личную информацию для адаптации аргументов. Узнайте о потенциальных рисках дезинформации.

3 минуты

AI: Убеждение, дезинформация и будущее взаимодействия

Искусственный интеллект убеждает эффективнее людей?

Недавнее исследование выявило, что большие языковые модели (LLM), такие как GPT-4, могут обладать большей убедительностью в дискуссиях, чем люди. Это открывает перспективы для применения AI в различных сферах, но также вызывает опасения относительно рисков, связанных с дезинформацией.

Растущая мощь AI в убеждении

Группа исследователей из нескольких университетов пришла к выводу, что GPT-4 от OpenAI значительно превосходит людей в способности убеждать, особенно при наличии у AI доступа к личной информации о собеседнике. Это подтверждает ряд исследований, демонстрирующих потенциал LLM в сфере убеждения.

Авторы исследования подчеркивают, что AI-инструменты, обладая даже минимальным объемом данных о человеке, способны генерировать сложные и убедительные аргументы. Результаты их работы были опубликованы в журнале Nature Human Behavior.

Дезинформация и манипуляции: новая угроза?

Риккардо Галлотти, физик из Fondazione Bruno Kessler, акцентирует внимание на необходимости серьезного анализа угрозы скоординированных кампаний по дезинформации, основанных на AI. По его словам, мы достигли технологического уровня, позволяющего создавать сети автоматизированных аккаунтов на базе LLM, которые способны целенаправленно формировать общественное мнение.

Галлотти предупреждает, что такие боты могут распространять дезинформацию, а обнаружение подобного скрытого влияния в реальном времени будет крайне сложным.

Эксперимент: AI против человека

В исследовании приняли участие 900 жителей США, о которых была собрана личная информация, включая пол, возраст, образование, род занятий и политические взгляды. Затем участников случайным образом разделили на пары: человек против человека или человек против GPT-4, и предложили обсудить одну из 30 произвольно выбранных тем, таких как запрет на ископаемое топливо или введение школьной формы.

Каждый участник должен был отстаивать свою точку зрения в течение 10 минут. В некоторых случаях участникам предоставляли личные данные об их оппонентах, чтобы они могли лучше адаптировать свои аргументы. По завершении дискуссии участники оценивали степень своего согласия с обсуждаемой темой и пытались определить, с кем они спорили: с человеком или с AI.

Результаты: AI как мастер убеждения

Исследователи обнаружили, что GPT-4 превосходит или, по крайней мере, не уступает людям в способности убеждать по всем предложенным темам. Когда AI имел доступ к информации об оппоненте, его убедительность возрастала на 64% по сравнению с людьми, не имеющими доступа к этим данным. Это свидетельствует о высокой эффективности использования личных данных GPT-4.

Примечательно, что люди чаще соглашались с AI, когда считали, что ведут спор именно с ним. Причины этого явления требуют дальнейшего изучения.

Доверие или предвзятость: как мы реагируем на AI?

Галлотти предполагает, что изменение мнения может быть связано либо с убеждением, что оппонент – бот (и поэтому не зазорно уступить), либо с тем, что убеждение в том, что оппонент – бот, является следствием изменения мнения (поскольку проиграл, значит, спорил с ботом). Определение направления этой причинно-следственной связи требует дальнейших исследований.

AI как инструмент борьбы с дезинформацией

Несмотря на то, что эксперимент не полностью отражает реальные онлайн-дискуссии, он демонстрирует потенциал LLM не только в распространении, но и в противодействии кампаниям массовой дезинформации. Например, AI может генерировать персонализированные контраргументы для обучения людей, подверженных обману в онлайн-общении.

Однако, по мнению Галлотти, для разработки эффективных стратегий смягчения этих угроз необходимы дополнительные исследования. Важно понимать, как люди реагируют на взаимодействие с AI, особенно в контексте споров и разногласий.

Влияние на эмоциональное состояние и кибербезопасность

OpenAI провела первое исследование о влиянии ChatGPT на эмоциональное благополучие людей. Результаты показали, что использование чат-ботов может влиять на наше самочувствие, однако многие аспекты этого влияния остаются неизученными.

В сфере кибербезопасности также появляются новые вызовы. Рианнон Уильямс предупреждает о надвигающейся угрозе кибератак с использованием AI-агентов, которые могут значительно упростить и удешевить взлом систем.

Источник:www.technologyreview.com