Neuropolis

Как искусственный интеллект вносит ошибки в судебные залы

Искусственный интеллект в суде: как AI-галлюцинации вводят судей в заблуждение. Юридические ошибки, сгенерированные ИИ, приводят к штрафам и ставят под сомнение будущее правосудия.

5 минут

Искусственный интеллект и правосудие: Цена ошибки

Судебные процессы становятся все более зависимыми от искусственного интеллекта, но вместе с тем растет и риск ошибок. Так называемые "галлюцинации" AI, когда система генерирует ложную информацию, вызывают все большее возмущение у судей и юристов. Эксперты предупреждают, что эта проблема будет только усугубляться, поскольку AI становится все более распространенным инструментом в юридической практике.

Недавние случаи, связанные с использованием AI в судах, выявили серьезные недостатки. Например, использование AI-аватара погибшего в ДТП для заявления в суде вызвало споры об этичности и достоверности подобных представлений. Однако, по мнению многих юристов, наиболее острой проблемой является именно появление сгенерированных AI-моделями "галлюцинаций" в юридических документах.

Растущее недовольство в судебной системе

Судьи все чаще выражают недовольство неточностями, вызванными использованием AI в юридической документации. Чтобы понять масштаб проблемы, рассмотрим несколько показательных примеров.

Судья из Калифорнии, Майкл Уилнер, столкнулся с проблемой, когда попытался проверить аргументы, представленные юристами в одном из дел. Ссылки на статьи, указанные в документе, оказались несуществующими. Запросив у юридической фирмы дополнительную информацию, судья получил еще один документ, содержащий еще больше ошибок.

В результате Уилнер обязал адвокатов дать показания под присягой, чтобы объяснить происхождение этих ошибок. Выяснилось, что один из адвокатов использовал Google Gemini и специализированные юридические AI-модели для составления документа, который сгенерировал ложную информацию. Суд оштрафовал фирму на 31 000 долларов за предоставление недостоверных сведений.

Новые прецеденты ошибок AI

Другой случай произошел, когда калифорнийский судья обнаружил "галлюцинацию" в судебном документе, представленном AI-компанией Anthropic. В рамках судебного иска, поданного звукозаписывающими компаниями из-за проблем с авторским правом, юрист Anthropic попросил AI-модель Claude создать цитату для юридической статьи. Claude предоставил цитату с неправильным названием и автором.

Представитель Anthropic признал, что ошибку не заметили при проверке документа. Аналогичный случай произошел в Израиле, где прокуроры, запрашивая разрешение на хранение телефона задержанного за отмывание денег, сослались на несуществующие законы. Этот инцидент вызвал обвинения в использовании AI-галлюцинаций, и прокуроры получили выговор от судьи.

Серьезные последствия AI-ошибок

Эти случаи подчеркивают серьезную проблему. Суды полагаются на точность документов, подкрепленных ссылками на достоверные источники. Однако AI-модели часто не соответствуют этим требованиям. Несмотря на то, что многие ошибки выявляются, существует риск того, что в будущем решения судей могут быть основаны на полностью сфабрикованной AI информации, что останется незамеченным.

Маура Гроссман, преподаватель Школы компьютерных наук Университета Ватерлоо и юридической школы Osgoode Hall Law School, одной из первых обратила внимание на проблемы, которые создает генеративный AI для судов. Она подчеркнула, что существующие правила, обязывающие юристов проверять предоставляемые документы, не предотвратили проблему "галлюцинаций", а, скорее, ускорили ее распространение.

Почему юристы допускают ошибки AI?

Тот факт, что даже крупные юридические фирмы допускают подобные ошибки, вызывает серьезные опасения. Эта проблема касается и документов, составленных не юристами, таких как экспертные заключения. Юристы, как правило, очень внимательны к выбору слов. Почему же так много из них становятся жертвами ошибок, сгенерированных AI?

По мнению Гроссман, юристы делятся на две категории: те, кто опасается использовать AI, и те, кто стремятся внедрять новые технологии, особенно в условиях сжатых сроков. Последние полагаются на AI для составления документов, но не всегда тщательно проверяют его работу.

Тот факт, что опытные юристы, чья профессия требует внимательного отношения к языку, допускают такие ошибки, свидетельствует о том, как большинство из нас относится к этой технологии. Нам постоянно говорят о возможности ошибок AI, но языковые модели кажутся чем-то волшебным. Мы задаем сложный вопрос и получаем ответ, который звучит убедительно и разумно. Со временем модели AI приобретают видимость авторитета, и мы начинаем им доверять.

По словам Гроссман, "мы предполагаем, что, поскольку эти большие языковые модели так хорошо владеют языком, это также означает, что они точны. Мы все как бы впадаем в этот режим доверия, потому что это звучит авторитетно". Адвокаты привыкли проверять работу младших коллег и стажеров, но по какой-то причине, по словам Гроссман, не применяют тот же уровень скептицизма к AI.

Проблема "галлюцинаций" известна с момента запуска ChatGPT почти три года назад, но рекомендованное решение остается прежним: не доверять всему, что читаете, и тщательно проверять информацию, предоставляемую AI-моделями. По мере того, как AI внедряется во все большее число инструментов, которыми мы пользуемся, становится очевидным, что это неудовлетворительный ответ на один из самых фундаментальных недостатков AI. "Галлюцинации" являются неотъемлемой частью принципа работы больших языковых моделей.

Проблемы доверия и ответственности

Несмотря на это, компании продолжают продавать инструменты генеративного AI, разработанные специально для юристов, утверждая, что они обеспечивают высокую точность. Например, веб-сайт Westlaw Precision обещает "уверенность в точности и полноте исследований", а CoCounsel утверждает, что их AI "подкреплен авторитетным контентом". Однако это не помешало одному из клиентов этих компаний, Ellis George, быть оштрафованным на 31 000 долларов.

Все чаще возникает сочувствие к людям, которые доверяют AI больше, чем следовало бы. В конце концов, мы живем в эпоху, когда создатели этой технологии предупреждают, что AI настолько мощен, что к нему следует относиться как к ядерному оружию. Модели AI обучены на огромном количестве текстовых данных, и они проникают во все сферы нашей онлайн-жизни. Если людям не следует доверять всему, что говорят модели AI, компаниям, разрабатывающим эти модели, следует чаще напоминать об этом.

Источник:www.technologyreview.com