Американский адвокат Стивен Шварц воспользовался чат-ботом ChatGPT при подаче иска против колумбийской авиакомпании
Как пишет CNN, Роберто Мата подал иск на авиакомпанию Avianca о травмах, которые, по его словам, он получил от тележки обслуживания во время полета в 2019 году, указывая на небрежность со стороны сотрудника. Шварц, адвокат из фирмы Levidow, Levidow & Oberman, имеющий лицензию в Нью-Йорке более трех десятилетий, представлял интересы Маты.
В результате этого дела выяснилось, что по меньшей мере шесть прошлых дел Шварца «являются поддельными судебными решениями с поддельными цитатами и поддельными внутренними ссылками», заявил судья Кевин Кастел из Южного округа Нью-Йорка. В списке таких дел значатся крупные авиакомпании: China South Airlines, Delta Airlines, EgyptAir, Iran Air, United Airlines и KLM Royal Dutch Airlines.
Судья также заявил, что некоторых дел, о которых упоминал Шварц, вовсе не существовало. Кроме того, был случай, когда номер дела в одном исковом документе был перепутан с другим судебным исковым заявлением.
Сам же Шварц заявил, что никогда раньше не использовал ChatGPT в юридических делах до этого момента и «не был осведомлен о возможности его ложного содержимого». Однако он все же признал, что ответственность за использование ложных сведений лежит на нем. Юрист заявил, что «сожалеет о том, что использовал генеративный искусственный интеллект для дополнения юридических исследований». Он пообещал никогда не делать подобного снова.
Популярность ChatGPT привела к тому, что многие начали использовать чат-бота там, где не следовало. Например, американские студент использовали ChatGPT для написания эссе, однако в результате едва не лишились дипломов. Позднее студенты признались, что использовали ИИ при выполнении работы. Это привело к тому, что им отказали в выдаче дипломов.
Однако чат-бот вряд ли может состязаться с человеком в интеллектуальных способностях. В российском вузе нейросети сдали на «тройку» экзамен по истории. По словам принимающего преподавателя, чат-боты с легкостью справляются с экзаменами, где необходимо дать однозначный ответ на вопрос. Кроме того, ChatGPT одобрил для листинга высокорисковые токены, поэтому не смог достичь необходимого уровня точности анализа активов.
The post Юрист воспользовался ChatGPT в суде и пожалел об этом appeared first on BeInCrypto.