В конце мая стал известен случай про адвоката из Нью-Йорка, который использовал ChatGPT для написания доказательной базы в реальном судебном разбирательстве. Юрист попросил ИИ привести ряд примеров по делу, на что нейросеть с радостью откликнулась. Нюанс в том, что все примеры ChatGPT выдумал. Адвокат утверждает, что просил ИИ ответить на вопрос: «Реальны ли приводимые тобой примеры?». ИИ всегда отвечал утвердительно.
Теперь юриста ждет свое разбирательство, в то время как суды США официально запрещают использовать ChatGPT в заседаниях. Федеральный судья Техаса заявил, что адвокат перед заседанием должен свидетельствовать, что его документы были написаны вручную и без использования ChatGPT и других ИИ. Если же нейросети использовались, то должно быть подтвержение того, что вся информация от ИИ была проверена человеком.
«Эти платформы невероятно эффективны и имеют множество применений в юриспруденции: оформление разводов, запросы на раскрытие информации, предполагаемые ошибки в документах, ожидаемые вопросы во время устных прений. Но юридический брифинг не является одним из них. Вот почему.
Эти платформы в их нынешнем состоянии склонны к галлюцинациям и предвзятости. О галлюцинациях: они выдумывают всякое — даже цитаты и прямую речь. Другой вопрос — надежность или предвзятость. В то время как адвокаты дают клятву отказаться от своих личных предубеждений и убеждений, чтобы добросовестно соблюдать закон и представлять своих клиентов, генеративный искусственный интеллект является продуктом программирования, разработанного людьми, которым не нужно было давать такую клятву», — говорится в заявлении судьи.
Возможно, ChatGPT успеют почти повсеместно запретить, прежде чем ИИ исполнит свой коварный план и отберет у человека работу. Например, в крупных компаниях все чаще появляются запреты на общение с нейросетью.