Адвокаты изобрели весь ассортимент «оправдания» для фальшивых цитат искусственного интеллекта в своих документах. До сих пор ни один из них не помог сбежать.
В Калифорнии Апелляционный суд вынес показательное решение против адвоката, который подал документы с поддельными цитатами, созданными с использованием CATGPT, Claude, Gemini и Grok. Суд установил, что почти все цитаты в его жалобе были изобретены, и наложил штраф в размере 10 000 долларов США, что является рекордной суммой для таких случаев. Причины решения подчеркивают, что это предложение должно быть предупреждением для адвокатов: они сами несут ответственность за использование генеративного ИИ и способность использовать «галлюцинирующие» системы, нельзя пренебрегать.
Адвокат объяснил, что он не знал о нейронных сетях, чтобы изобретать источники И он не проверял материалы вручную. Он признал себя виновным, добавив, что он уже прошел обучение, чтобы исключить такие ошибки в будущем. Тем не менее, судьи отметили, что искусственный интеллект вездесущий в юридической профессии и, когда используется небрежно, ложное прецедентное право и ложные цитаты наводят судебную власть по всей стране.
404 СМИ провели месяцы в изучении судебных документов и обнаружили десятки подобных историй. В анализе использовалась база данных исследователя Дамиана Шарлоттена, которая уже была собрана более 410 случаев по всему миру, в том числе 269 в Соединенных Штатах. Как правило, такие базы данных сами регистрируют санкции, но журналисты сосредоточились на оправданиях адвокатов. С этой целью им приходилось искать тяжелые федеральные и американские архивы, приобрести копии документов и искать объяснения в «ответах на судебные запросы».
Оправдания, которые дают адвокаты, разнообразны. Некоторые обвиняют короткое время и перегрузку в случаях, другие относятся к болезням или семейным трагедиям. Есть также те, кто передает вину помощникам и фрилансерам. Существуют также более экзотические аргументы-«Эксперименты по искусственному интеллекту» в отношении ссылок на коллапсы системы, перерывы в Интернете или инфекцию с вредоносными программами.
Распространенная вещь между всеми этими историями заключается в том, что адвокаты все чаще находятся в ситуации, когда они одновременно оказывают давление на работу быстрее, принимают больше случаев и оправдывают ожидания клиентов, которые требуют немедленных результатов.
Однако ничто из этого не оправдывает их никому. Каждый профессиональный адвокат должен быть осторожным, чтобы проверить факты и убедиться, что формулировка является точной. Теперь многие адвокаты часто более случайны, чем их клиенты, доверяя важным документам машине, даже не удосужившись проверить дважды.
Более того, генеративные услуги искусственного интеллекта постепенно становятся не только вспомогательным инструментом, но и ежедневной частью юридической процедурыS они уже встроены в известные базы данных и справочные системы, доступны в качестве готовых решений из разных стартапов и воспринимаются как должное. Но чем более естественно они, по -видимому, являются, тем больше риск ошибок нейронных сетей, чтобы проникнуть незамеченным в процессе, подорвать уверенность в самой профессии и подвергать сомнению качество юридической работы.
В дополнение к CHATGPT, CLAUDE и GEMINI, адвокаты упоминают GROK, NERPLEXITY и даже встроенные возможности Westlaw и Lexisnexis. На рынке есть десятки стартапов, которые предлагают автоматизированные адвокаты. Но статистика Дэмиена Шарлоттена показывает: Именно использование общих систем без инспекции чаще всего приводит к катастрофическим последствиям из-за санкций на карьеру, угрожающие последствиям.
На прошлой неделе исследователь зарегистрировал одиннадцать новых случаев. Ситуация меняется так быстро, что даже опытные адвокаты не имеют времени следовать новым скандалам. Прецедентное право США уже сформировано в среде, в которой использование генеративного искусственного интеллекта больше не является исключением, и любой небрежный шаг становится риском для репутации и лицензии.

