Искусственный интеллект в суде: как фальшивые цитаты из нейросетей опустошают карманы юристов
Алгоритмы всё чаще заменяют юристам интуицию и сборники судебных решений. Результат налицо: в 2026 году документы, поданные в суды США, массово содержат вымышленные прецеденты, сгенерированные искусственным интеллектом. Судьи, уставшие от обмана, перешли от предупреждений к жёстким санкциям. Только за первый квартал сумма штрафов перевалила за 145 тысяч долларов, и это, по мнению экспертов, лишь начало.
Яркий пример — дело о винограднике в Орегоне. Адвокат Стивен Бриганди подал иск, напичканный 15 несуществующими делами и восемью фиктивными ссылками. Судья Марк Кларк назвал это «вопиющим случаем» и отклонил иск, обязав юриста выплатить 15,5 тысяч долларов штрафа и 80,5 тысяч — на покрытие судебных издержек противной стороны. Его коллега из Портленда также был оштрафован. Общая сумма составила 110 тысяч. Судья прямо заявил, что адвокат пытался не исправить ошибку, а замести следы.
Эта история — не единичный инцидент. База данных исследователя Дэмиена Шарлотена насчитывает уже 1317 подобных случаев по всему миру, сотни из которых — в США. В апреле 2026 года суды выносили решения одно за другим: в Индиане, Флориде, Иллинойсе. В деле United States v. Farris адвоката не только оштрафовали и лишили гонорара, но и отстранили от работы, передав дело в дисциплинарную коллегию.
Под удар попадают даже известные юристы. Роджер Руте, защитник «Короля тигров» Джо Мадонадо, был оштрафован на 1500 долларов за иск, полный выдуманных цитат. Суд отклонил его заявление, а самого Руте направил на дисциплинарное разбирательство.
Апелляционные суды также ужесточают позицию. Пятый окружной суд оштрафовал адвоката на 2500 долларов за 21 фальшивую ссылку в документе, созданном с помощью ИИ-инструментов. Судья отметила, что проблема только нарастает. В Огайо двух юристов оштрафовали на 7500 долларов и признали виновными в неуважении к суду, назвав их поведение самым вопиющим за всю практику.
Причина бума — в погоне за скоростью. Нейросети вроде ChatGPT или специализированных юридических ассистентов выдают убедительно сформулированный, но абсолютно ложный текст. Ошибки, которые система генерирует с уверенностью, называют «галлюцинациями». В одном из дел судью насторожило название файла в материалах — «Результаты работы CoCounsel». Оказалось, адвокат поручил помощнику создать черновик через ИИ и подал его, даже не проверив.
Ответ судов — эскалация наказаний. За повторные нарушения следуют более крупные штрафы, отстранения от дел и даже приостановка лицензии. Крупные фирмы нанимают специалистов по ИИ, а частнопрактикующие юристы с опаской смотрят на дорогие подписки, зная о высоком проценте ошибок. Ключевым остаётся правило: любой документ, созданный с помощью алгоритма, должен проходить тщательную проверку человеком. Судьи ясно дают понять — игнорируешь это правило, платишь по счетам. И с каждым месяцем эти счета становятся всё дороже.

