Legal AI | Право на технологии

ИИ как часть инфраструктуры: три уровня зрелости ИИ-инструментов в юридической практике

Последние два года ИИ в юриспруденции обсуждали в формате "фич": что он умеет, какие документы пишет, насколько ускоряет работу.

Но в 2024–2025 стало ясно: этот разговор устарел.

ИИ перестал быть экспериментом и начинает превращаться в инфраструктуру юридической деятельности. И это принципиально меняет требования к юристам, юридическим фирмам и LegalTech-продуктам.

От инструмента к инфраструктуре

По оценкам отраслевых исследований, глобальный рынок Legal AI в 2025 году достиг $1.5–3 млрд, и прогнозируется его рост до $4–11 млрд к 2030 году.
------------
Большинство данных в статье - из западных исследований: глобальный рынок Legal AI формируется в США и Европе, сопоставимой статистики по РФ пока нет. Российскую специфику разбираю отдельно.
------------
Но важнее цифр качественный сдвиг.
Если в 2023 году 27% юристов использовали ИИ эпизодически, то в 2025 году уже 77% юристов применяют ИИ для анализа документов, 74% - для правового анализа.
ИИ больше не живёт "сбоку", как помощник для отдельных задач. Он встраивается в ключевые контуры:
  • правовой анализ и исследования
  • подготовку документов
  • внутренние базы знаний
  • оценку рисков и сценариев
Пример тому действия и политика крупнейших международных фирм: Allen & Overy развернули Harvey AI для 3500+ юристов в 43 офисах. Thomson Reuters встроил ИИ в Westlaw, экономя юристам 4+ часа в неделю, а это более $100K дополнительной выручки на юриста в год.
А значит, возникают вопросы, которые раньше не были приоритетными:
  • кто несёт ответственность за результат, полученный с помощью ИИ
  • где проходит граница допустимой автоматизации
  • как проверяется вывод/результат работы модели
  • что считается ошибкой: юриста? программы?
ИИ начинает влиять не на скорость, а на качество и последствия решений. И без архитектуры он становится источником системных рисков.

Парадокс внедрения: почему покупка ИИ-решения ≠ его внедрению

Одна из самых частых иллюзий: "У нас есть ИИ - значит, мы внедрили его свою работу".
Опросы юристов фиксируют парадокс:
  • Личное использование ИИ выросло: с 27% (2023) до 31% (2025)
  • Внедрение на уровне фирм снизилось: с 24% до 21%
Крупные фирмы (51+ юристов) показывают внедрение на уровне 39%, но малые фирмы застряли на 20%.
Что происходит в реальности:
  • ИИ подключают к старым процессам
  • Юристы используют его как "умный поиск" для подготовки проектов документов и исследований
  • Ответственность за проверку остаётся размыта
  • Эффект быстро упирается в потолок
Антипример:
Компания подключила ИИ на блок договорной работы.
Юристы начали загружать тексты и получать разбор от ИИ с рисками. Через месяц выяснилось, что эксперты вручную дорабатывают большой объём документа до получения требуемого результата. Причина: ИИ находит формальные несоответствия законам, но не видит бизнес-контекст и иной конкретики для ситуации, которая прорабатывается. Это вызывает, обоснованные, сомнения в эффективности продукта со стороны эксперта, его использующего.
Правильный подход:
Компания сначала прописала рабочий процесс: ИИ анализирует типовые риски первой категории, юрист проверяет контекст и критичность для бизнеса. Ответственность распределена. Система работает.
Важно понимать, что ИИ не исправляет изначально плохие процессы. Он лишь ускоряет воспроизведение их слабых мест.
Рабочая логика правильного внедрения выглядит иначе:
  1. Понимание, где ИИ допустим, а где нет
  2. Правила использования и проверки результатов
  3. Встраивание ИИ в конкретные рабочие процессы
  4. И только потом - выбор инструментов под задачи
Пока этого нет, ИИ остаётся красивой надстройкой без устойчивого эффекта.

Проблема галлюцинаций: от 88% до 17%

Исследования Stanford CodeX и Yale показывают динамику "галлюцинаций" от ИИ:
  • 2024 год (базовые модели GPT-4, Llama): 58–88%
  • 2025 год (Legal RAG tools - Lexis+ AI, Westlaw AI): 17–33%
Улучшение на 30–50% произошло благодаря технологии RAG (retrieval-augmented generation). Но даже 17% - это критический уровень для юридической практики.
И это не абстрактная угроза.
С апреля 2025 года зафиксировано более 200 судебных кейсов с выявленными фактами и санкциями за использование сгенерированных ИИ документов, которые содержали "галлюцинации".
Частота случаев: 2 кейса в день (2025) vs 2 кейса в неделю (до весны 2025).
Многие выявленные случаи повлекли за собой санкции в отношении юристов, предоставивших документ с галлюцинациями. И главная причина наложения санкций - "юрист не проверил" результат работы.

Юрист как архитектор процессов

Здесь мы подходим к ключевому сдвигу.
Аналитики рынка LegalTech уже несколько лет говорят не про "новые инструменты", а про трансформацию самой профессии.
ИИ обесценивает рутинную интеллектуальную работу: поиск, черновики, сравнение формулировок.
Но резко повышает ценность других навыков:
  • проектирование юридических процессов
  • управление качеством и контекстом
  • определение границ автоматизации
  • контроль последствий решений
Перспектива связки юриста с инструментарием ИИ, как эксперта, который проектирует систему со встроенным ИИ с прерогативой безопасности и предсказуемости работы.
ИИ в таком сценарии - это всего лишь слой. Результат определяет архитектура.

Российская специфика: почему слепая вера в ИИ здесь особенно опасна

Российский рынок LegalTech оценивается в 15–18 млрд рублей, причём более 95% решений - это отечественные разработки: GigaChat, YandexGPT, СберПраво.
Но масштаб российского рынка составляет менее 7% от американского.
И дело не только в размере экономики.
В российской практике есть дополнительный фактор, о котором редко говорят. Юридические решения часто принимаются в условиях:
  • неполной формализации
  • высокой зависимости от контекста
  • человеческих и институциональных искажений

Три критических отличия от, условно, "западного" ИИ решения для юристов

1. Неформальные правила игры
Формально правильное решение может проиграть процессуально грамотному, но неочевидному ходу. ИИ, обученный на текстах решений, не видит закулисную логику правоприменения.
2. Противоречивая судебная практика
В отличие от прецедентных систем (США, UK), российская практика допускает противоположные решения по идентичным фактам. Вариативность решений, по некоторым оценкам, может составлять 20–40%.
ИИ выдаёт статистическую норму, точность которой составляет 70–85%, а не юридически сильную позицию. Риск слабой позиции в 30%+ дел из-за неоднородности практики.
3. Динамика регулирования
Законы меняются быстрее, чем обновляются датасеты моделей. Риск: ИИ даёт консультацию на основе устаревшей нормы.
ИИ, обученный на массиве формально "правильных" решений, может воспроизводить статистическую норму, но не обязательно юридически сильную позицию.
Поэтому слепая вера в ИИ особенно опасна именно здесь.
Важно правильно настроить своё восприятие работы с ИИ: выигрывают не те, кто "включил в процесс/использует ИИ", а те, кто понимает, где он усиливает юриста, а где может подменять мышление.
Эту специфику применения ИИ в российской юридической практике - от галлюцинаций с отсылками на несуществующие законы, до проблем проверки результатов - я регулярно разбираю в своём Telegram-канале.

Три уровня зрелости применения ИИ в работе юриста

Уровень 1: Эксперимент
ИИ используется точечно, без регламентов. Юристы пробуют ChatGPT для черновиков, но нет системы проверки.
Уровень 2: Инструмент
ИИ встроен в отдельные процессы, есть правила проверки.
Например: ИИ анализирует стандартные риски в договорах, юрист проверяет бизнес-контекст.
Уровень 3: Инфраструктура
ИИ - часть архитектуры юридической работы, с чёткими границами ответственности и контроля качества.
Большинство российских компаний находятся между Уровнем 1 и 2.

Что определяет успех в ближайшие 3–5 лет

ИИ перестаёт быть вопросом технологий. Он становится вопросом архитектуры, ответственности и зрелости юридической работы.
Для юридических фирм:
  • Регламенты использования ИИ (где допустим, где запрещён)
  • Протоколы проверки результатов работы ИИ
  • Встраивание ИИ в конкретные рабочие процессы(due diligence, договорной блок, анализ)
Для корпоративных юристов:
  • Навыки prompt-инжиниринга под юридические задачи
  • Понимание ограничений моделей (галлюцинации в 17–33% даже в специализированных юридических инструментах)
  • Умение проектировать процессы с учётом автоматизации
Для LegalTech-разработчиков:
  • Фокус не на "ещё один ИИ-ассистент ", а на интеграцию в существующие системы
  • Решение проблемы проверяемости и аудита
  • Адаптация под российскую юридическую специфику (неоднородная практика, динамика регулирования)
Такой подход с мышлением категориями процессов, качества, границ автоматизации и управляемых рисков, будет определять правила игры в сегменте в ближайшие годы.
Остальные останутся на уровне пользователя инструментами, архитектуру которых спроектировал кто-то другой.