Честно говоря, кто не ожидал, что это произойдет? Юридические эксперты говорят, что это станет хуже.
Крупные языковые модели теперь используются для мошенничества в школе и для распространения дезинформации в новостях. Теперь они также въезжают в суды, питая фальшивые заявления о том, что судьи сталкиваются на фоне высокой рабочей нагрузки, что приводит к новым рискам для правовой системы, которая уже загружена.
В недавнем отчете ARS Technica описывается подробное решение Апелляционного суда Грузии, в котором подчеркивается растущий риск для правовой системы США: генерируемые галлюцинациями искусственного интеллекта, которые пробираются в судебные дела и даже влияют на решения судаВ разведенном споре адвокат супруга представил проект распоряжения, заключенного с цитатами не существующих случаев — вероятно, изобретенных генеративными инструментами, такими как CHATGPT. Первоначально суд подписал документ и впоследствии вынес решение в пользу супруга.
Только после того, как жена понравилась, выявили ли сфабрикованные цитаты. Апелляционный суд, возглавляемый судьей Джеффом Уоткинсом, аннулировал постановление, отметив, что ложные дела подорвали способность суда пересмотреть решение. Уоткинс не спас свои слова, назвав цитаты возможными галлюцинациями генеративного искусственного интеллекта. Суд оштрафовал адвоката супруга на 2500 долларов СШАС
Это может звучать как один случай, но в феврале в аналогичных обстоятельствах Другой адвокат был оштрафован на 15 000 долларовS юридические эксперты предупреждают, что это, вероятно, признак предстоящих изменений. Поколение и инструменты известны тем, что склонны к изготовлению информации с убедительной уверенностью — поведение, называемое «галлюцинацией». Поскольку ИИ становится все более доступным как для перегруженных юристов, так и для автономных сторон, эксперты говорят, что судьи будут все чаще сталкиваться с документами, заполненными ложными делами, призрачными прецедентами и искаженными юридическими рассуждениями, скрытыми таким образом, что они выглядят законными.
Проблема осложняется правовой системой, которая уже была перегружена. Во многих юрисдикциях судьи регулярно отмечают приказы, подготовленные адвокатами. Однако использование искусственного интеллекта повышает ставки.
«Я могу представить аналогичный сценарий в любом случае, когда судья по этому делу имеет большую работу», — говорит Джон Браунинг, бывший апелляционный судья из Техаса и юрист, который написал много статей искусственного интеллекта.
Браунинг сказал Ars Technica, что, по его мнению, «пугающе», что такие ошибки станут более частыми. Он и другие эксперты предупреждают, что суды, особенно на более низких уровнях, плохо подготовлены к тому, чтобы справиться с этим притоком чушь, вызванной ИИ.