Anthropic обвиняет Claude AI в досадной ошибке в судебном документе
Claude AI от Anthropic допустил "непреднамеренную ошибку" в юридическом документе! Чат-бот исказил цитату, создав впечатление, что статья не существует. Подробности инцидента.
Юридический казус: Anthropic обвиняет Claude AI в ошибке в документах
Компания Anthropic оказалась в центре внимания из-за ошибки, допущенной ее чат-ботом Claude AI при подготовке юридического документа. Инцидент, который компания назвала "неловкой и непреднамеренной ошибкой", привел к включению в документ некорректных цитат, создавая впечатление, что упомянутая статья не существует в действительности.
Реакция Anthropic последовала после обвинений в использовании сфабрикованного источника в рамках судебного разбирательства с музыкальными издателями. Компания утверждает, что Claude AI совершил "честную ошибку в цитировании". Некорректная цитата появилась в документе, представленном научным сотрудником Anthropic Оливией Чен. Документ был частью защиты компании от обвинений в использовании защищенных авторским правом текстов песен для обучения Claude.
Судебные разбирательства и последствия ошибки
На слушаниях адвокат, представляющий Universal Music Group, ABKCO и Concord, заявил, что источники, на которые ссылалась Чен, являются "полной фабрикацией". Он предположил, что они были сгенерированы AI-инструментом Anthropic. В ответном заявлении, поданном адвокатом Anthropic Иваной Дуканович, утверждалось, что подвергнутый сомнению источник был подлинным, и что Claude действительно использовался для форматирования юридических цитат в документе.
Несмотря на то, что некорректные номера тома и страниц, сгенерированные чат-ботом, были обнаружены и исправлены в процессе "ручной проверки цитат", Anthropic признает, что ошибки в формулировках остались незамеченными.
Признание вины и извинения от Anthropic
По словам Дуканович, "К сожалению, хотя было предоставлено правильное название публикации, год публикации и ссылка на предоставленный источник, возвращенная цитата включала неточное название и некорректных авторов". Она подчеркнула, что это не было "фабрикацией авторитета". Компания принесла извинения за неточность и путаницу, вызванную ошибкой в цитировании, назвав ее "неловкой и непреднамеренной ошибкой". Этот инцидент подчеркивает необходимость тщательной проверки информации, предоставляемой AI, особенно в юридической сфере.
AI и юридические документы: Растущая проблема
Случай с Anthropic – лишь один из многих примеров, иллюстрирующих растущую проблему использования AI-инструментов для создания юридических документов. Использование AI для юридических цитат вызывает все больше проблем в судах.
Например, в недавнем инциденте калифорнийский судья выразил недовольство в отношении двух юридических фирм, которые не сообщили об использовании AI для создания документа, содержащего "фальшивые" материалы. По словам судьи, этих материалов "не существовало". Эксперт по дезинформации также признал, что ChatGPT сгенерировал ложные цитаты в юридическом документе, который он представил в декабре. Эти случаи подчеркивают необходимость критической оценки информации, предоставляемой AI, и осознания потенциальных рисков, связанных с ее использованием в юридической практике.