Legal AI | Право на технологии

Deloitte ответил деньгами за ошибки в отчёте, допущенные ИИ

В начале октября австралийские СМИ сообщили, что Deloitte согласилась вернуть часть средств по госконтракту после обнаружения ошибок в отчёте, подготовленном с использованием искусственного интеллекта.
Стоимость работы составила около 440 000 долларов. Ошибки выявлены не просто технические: в документе нашли вымышленные ссылки на академические исследования, ложные цитаты из судебных решений и несуществующие рекомендации профессоров.
Компания признала, что в отчёте применялась генеративная модель Azure OpenAI GPT-4o, и что результат был частично сгенерирован с её помощью. По сути, это первый крупный случай, когда консалтинговая фирма признаёт ответственность за ошибку, вызванную использованием ИИ.

Что произошло

Отчёт был заказан Министерством занятости и трудовых отношений Австралии. После публикации специалисты заметили несоответствия и начали проверку. В результате выяснилось, что часть документа была подготовлена с применением генеративного ИИ без должной проверки человеком.
Deloitte заявила, что"выводы отчёта остались корректными", но согласилась переработать документ и вернуть клиенту часть средств.
Этот случай вызвал бурное обсуждение в профессиональной среде: насколько допустимо использование ИИ при подготовке аналитических или юридических материалов и кто несёт ответственность, если инструмент ошибается.

Почему это важно

История с Deloitte не единичная. Уже есть и другие примеры, пусть менее масштабные, но отражающие тенденцию появления ответственности за ошибки ИИ.

Mata v. Avianca (США).

В этом деле адвокаты использовали ChatGPT для поиска судебных прецедентов. Модель «сочинила» несуществующие решения, а юристы включили их в иск.
Суд оштрафовал адвокатов на 5000 долларов и отдельно указал, что проверка достоверности источников - профессиональная обязанность юриста, которую нельзя делегировать алгоритму.

Morgan & Morgan (США).

Юристы крупнейшей американской фирмы подали судебные документы с недостоверными ссылками прецеденты, "выдуманные" ИИ.
Суд указал, что факт использования ИИ без проверки экспертом усугубляет нарушение профессиональных стандартов.

Какие выводы можно сделать из истории

🔹 ИИ не снимает ответственности с эксперта.
Даже если текст подготовлен искусственным интеллектом, ответственность за его достоверность несёт человек.
🔹 Ошибки ИИ = риски клиента.
В юридической или консалтинговой практике ошибка модели способна не только привести к убыткам, но и испортить отношения с заказчиком.
🔹 Регуляторы уже реагируют.
После кейса Deloitte в Австралии и уже не единичных случаев подобных ошибок в США начались обсуждения необходимости стандартов аудита и отчётности при применении ИИ-систем в консалтинге.
В США аналогичные инициативы рассматриваются профессиональными ассоциациями юристов и аудиторов.
Как избежать подобных ошибок в своей практике? Галлюцинации ИИ, подмена фактов, проверка источников и другие критические ошибки, а также способы их предотвращения в статье «Семь ошибок юриста при работе с ИИ».

В заключение

ИИ постепенно выходит за рамки "экспериментов" и становится частью реальных проектов, где цена ошибки измеряется не мегабайтами, а деньгами и репутацией.
Каждый новый случай, подобный истории с Deloitte, напоминает: искусственный интеллект не отменяет человеческую ответственность.
Можно использовать самые передовые модели, но если результат не проходит проверку эксперта, последствия будут самыми обычными — финансовыми, юридическими и репутационными.

Обсуждаем практику применения ИИ для решения юридических задач в моём Telegram-канале для юристов Legal AI | Право на технологии, в котором также публикую:
✔️ шаблоны промптов;
✔️ разбор и тесты инструментов на базе ИИ;
✔️ обмен опытом и новости в сфере LegalAI.

👉 Перейти и подписаться на канал