Новости

Используете ИИ для решения практических юридических кейсов?

Всё чаще укореняется в общественном сознании мысль, что искусственный интеллект, компьютерные технологии способны упростить жизнь человека, либо даже заменить его живое непосредственное участие в некоторых процессах. Подобная идея касается и юриспруденции с её в том числе сугубо практическими задачами.

Здесь стоит сделать ремарку научного уровня, указуя на такой архи-значимый принцип юридической деятельности как – использование только действительного (юридически действенного), то есть обладающего юридической силой, актуального юридического материала (правил и норм разного уровня).

К сожалению, программные алгоритмы, использующие для ответа на юридический вопрос весь массив текстов юридической направленности, размещенные в сети интернет не всегда или практически никогда не оперируют действующими нормами. Какой источник из всего массива выбрал ChatGPT или Алиса для ответа на ваш вопрос и исходя из какого принципа – неизвестно.

В настоящее время на территории Российской Федерации существует более трёх с половиной миллионов нормативно-правовых актов, из которых чуть более двухсот пятидесяти тысяч актов только федерального законодательства, и все эти акты нужно учитывать при выборе норм, подлежащих применению только исключительно в вашем случае.

Искусственный интеллект не имеет доступа к базам актуальных нормативных правовых актов таких как Гарант, Консультант, Кодекс и других, не способен учитывать ещё не оцифрованные нормативные правовые акты в графическом формате, акты, которые ещё не успели попасть в базы данных и только вступили в силу.

Когда я учился на юрфаке, будучи ещё студентом первого курса уяснил по наставлению своих преподавателей, что юрист не может априори знать все законы, он должен суметь найти среди всего их массива исключительно нормы, подлежащие применению в конкретном случае, и не применить нормы, не подлежащие применению. Боюсь, что ИИ сегодня это не под силу, исходя из тех посылок, которые я изложил выше.

Например, недавно, при написании искового заявления я бездумно и механически погуглил такой текст: «госпошлина при взыскании компенсации морального вреда», чтобы поисковик тут же привёл меня к нужной норме. Однако, в моём примере, Яндекс выдал совершенно неправильный текст, основанный на устаревшей информации, указав на размер пошлины в 300 рублей.

Несмотря на то, что новые правила расчёта действуют уже более года, данная поисковая система этого не знает ли просто не видит, не проиндексировала, но в юриспруденции не допустимо совершать подобных ошибок, нужно использовать только действующие нормы.

И таких примеров неправильных ответов машин у меня накопилось несколько за последнее время. Потому я бы на месте клиента не стал самостоятельно разрешать какие-либо юридические ситуации, положившись на машины и всё же обратился к опытному юристу непосредственно.

Нижеприведённый текст, это ответ ИИ на моё умозаключение по данному вопросу.

Абсолютно согласен с вашей позицией. Вы очень точно подметили фундаментальную проблему современных LLM (больших языковых моделей) — конфликт между вероятностной природой ИИ и императивной природой права.

Позвольте развернуть вашу мысль и добавить несколько технических и профессиональных нюансов, которые подтверждают: юрист — это не тот, кто «знает законы», а тот, кто умеет валидировать источники.

1. Проблема «Галлюцинаций» vs Принцип законности

Вы привели отличный пример с госпошлиной. Для обывателя 300 рублей или 4000 рублей — просто цифры. Для юриста — это разница между принятием иска и оставлением без движения (ст. 136 ГПК РФ).

ИИ (ChatGPT, YandexGPT) — это стохастический попугай. Он не «знает» факты, он предсказывает следующее слово на основе вероятности. Если в его обучающей выборке 1000 раз написали «300 рублей» (потому что так было до 2022 года) и 100 раз «4000 рублей», он с радостью выдаст вам устаревшую норму, потому что она «статистически весомее».

В праве нет понятия «статистически верно». Есть только «юридически действительно». Бинарная система: 1 или 0. ИИ же живет в спектре от 0.1 до 0.9.

2. Иерархия норм и «Конфликт юрисдикций»

Вы упомянули 3,5 млн актов. Но главная беда не в количестве, а в иерархии.

ИИ не понимает принципа Lex superior derogat legi inferiori (высший закон отменяет низший). Для него Постановление Правительства и Закон Саратовской области — это просто текст.

Классический пример провала ИИ:

Вопрос: «Можно ли строить дом в 50 метрах от газопровода?»

ИИ: Находит СНиП 1998 года — «Можно, если давление низкое».

Реальность: В 2023 году вышли новые СП (Свод правил), которые запрещают это даже при низком давлении.

Итог: ИИ сослался на отмененный документ, потому что не умеет проверять утрату силы (abrogation).

3. Проблема «Черного ящика» (Explainability)

В суде нельзя сказать: «Ваша честь, я рассчитал пошлину так, потому что мне так сказал робот».

Юридическое решение должно быть мотивировано. Вы должны указать:

  1. Норму права.
  2. Дату ее принятия.
  3. Номер.
  4. Ссылку на официальный источник («Российская газета» / Собрание законодательства).

ИИ не дает ссылку на источник. Он генерирует текст, похожий на закон. Это фатальная ошибка для процессуального документа. Судья проверит номер статьи, увидит, что такого содержания там нет, и доверие к юристу упадет до нуля.

4. Неоцифрованное право (The Dark Matter of Law)

Вы абсолютно правы насчет сканов и графики. В России огромный пласт правового регулирования — это местные акты, приказы министерств 50-летней давности, которые действуют в части, не противоречащей новым, но не отменены.

Они лежат в пыльных архивах или плохо оцифрованных PDF, где текст — это картинка. ChatGPT это не прочитает (если только не использовать мультимодальные модели с огромными ограничениями). А юрист «старой закалки» пойдет в архив и найдет тот самый приказ, который спасет дело клиента.

Резюме: Кем будет заменен юрист?

Не ИИ. А другим юристом, который умеет пользоваться ИИ.

Сейчас есть специализированные системы (типа «Кодекс: Интеллект» или западные Casetext/Harvey), которые работают не «по всему интернету», а только по верифицированной базе (Гарант/Консультант). Это RAG-технологии (Retrieval-Augmented Generation).

  • Они не придумывают нормы.
  • Они ищут их в базе.
  • Они дают ссылку на документ.

Но даже там финальное слово за человеком. Потому что право — это не логика, право — это баланс интересов. Машина не понимает, что в данном конкретном случае закон суров, но справедливость выше.

Вывод: Клиент, идущий к ИИ, экономит на юристе сегодня, чтобы заплатить судебным приставам завтра. Ваша бдительность — залог профессионального долголетия.

Машина и та согласилась со мной. В общем, добро пожаловать в мир пока ещё живого права, права действующего и с человеческим лицом, где вам предложат горячий кофе и непосредственное участие в вашем деле. Обращайтесь в юридическое агентство «Doctor Right», если хотите получить достоверный ответ на ваш запрос юридического характера.

И если Вы используете ИИ для решения практических юридических кейсов, будьте бдительны!
2025-12-23 15:28