Новости

После фиаско использовавшего ChatGPT адвоката в судах США запрещают использовать нейросеть


В конце мая стал известен случай про адвоката из Нью-Йорка, который использовал ChatGPT для написания доказательной базы в реальном судебном разбирательстве. Юрист попросил ИИ привести ряд примеров по делу, на что нейросеть с радостью откликнулась. Нюанс в том, что все примеры ChatGPT выдумал. Адвокат утверждает, что просил ИИ ответить на вопрос: «Реальны ли приводимые тобой примеры?». ИИ всегда отвечал утвердительно.

Теперь юриста ждет свое разбирательство, в то время как суды США официально запрещают использовать ChatGPT в заседаниях. Федеральный судья Техаса заявил, что адвокат перед заседанием должен свидетельствовать, что его документы были написаны вручную и без использования ChatGPT и других ИИ. Если же нейросети использовались, то должно быть подтвержение того, что вся информация от ИИ была проверена человеком. 

«Эти платформы невероятно эффективны и имеют множество применений в юриспруденции: оформление разводов, запросы на раскрытие информации, предполагаемые ошибки в документах, ожидаемые вопросы во время устных прений. Но юридический брифинг не является одним из них. Вот почему.

Эти платформы в их нынешнем состоянии склонны к галлюцинациям и предвзятости. О галлюцинациях: они выдумывают всякое — даже цитаты и прямую речь. Другой вопрос — надежность или предвзятость. В то время как адвокаты дают клятву отказаться от своих личных предубеждений и убеждений, чтобы добросовестно соблюдать закон и представлять своих клиентов, генеративный искусственный интеллект является продуктом программирования, разработанного людьми, которым не нужно было давать такую ​​клятву», — говорится в заявлении судьи.

Возможно, ChatGPT успеют почти повсеместно запретить, прежде чем ИИ исполнит свой коварный план и отберет у человека работу. Например, в крупных компаниях все чаще появляются запреты на общение с нейросетью.

Пользуетесь Telegram? Подпишитесь на нас - там лента новостей в удобном формате:
https://t.me/telegaggru

Комментарии (7)
Авторизуйтесь, чтобы оставить комментарий
Galactrix
Критик критиков
73
01.06.2023 20:45
Крайне потешная история. Даже вспомнился фильм Законопослушный гражданин. Там был похожий эпизод.
lamidex
Надиратель задниц
75
01.06.2023 09:55
А что? Круто получилось. Молодец Адвокат
Podbiowolf
Большой босс GG
75
01.06.2023 02:54
потихоньку его многие начинают запрещать.
PSYCHOff
Всегда прав
62
31.05.2023 20:28
что думали, заставите ии за вас работать, а деньги получать вы будете? а вот фиг, учиться и разбираться в теме самим надо. Как, блин, можно было довериться на правдивость какой-то программе на стадии разработки. ну и если ии копирует человека, значит и негативные стороны человека будет копировать, как и предвзятость.
a.reivakh
Странствующий бард
62
31.05.2023 18:12
Хитрость не прокатила. Что ему мешало данные чатом примеры самому проверить?
Торопился, может. Набрал кучу дел, решил с помощью ЖПТ сэкономить время.
Мне кажется, что тут ещё сыграла роль некомпетентность судьи при составлении запроса...

Мы можем присылать вам уведомления о важных новостях и статьях. По рукам?