Покойный «говорит» в суде — как в ходе судебного разбирательства использовался глубокий ИИ

В зале суда в Аризоне жертва насилия «заняла пол» через четыре года после смерти. Семья Криса Пелки, 37-летний военный ветеран, погибший в результате инцидента с яростью на дороге в 2021 году, прибегнула к искусственному интеллекту, чтобы создать видео, в котором Пелки воспроизводил цифровой, обращается к его предполагаемому убийцу.
Видео, сделанное с помощью модели, которую вы обучали на видеозаписях из личного архива жертвы, является первым задокументированным делом, когда в суде используется глубокая часть в судебном заявлении жертвы.
В записи цифровая копия Пельки, которая носит серую и зеленую куртку, посылает, по -видимому, примирительное послание Габриэлю Хоркаситасу, ответчику: «По данным популярной научной публикации.
Очевидно, что для воспроизведения гипотетической версии Pelkey был применен цифровой фильтр старения, как это показалось, если бы они прожили.
Судья упомянул, что этот момент повлиял на приговор об осуждении: Хоркаситас получил приговор в 10 с половиной за убийство.
«Это все, что я могу дать вам о том, как я бы показал, если бы у меня была возможность стать старым», — говорит персонаж в видео. «Стареть — это подарок, не каждый получает его, поэтому наслаждайтесь каждым хребтом».
Клон Криса Пелки
Все более спорные тенденции в американских судах
Корпус Пелки не является единственным. В прошлом месяце Джером Дьюльд, 74-летний мужчина из Нью-Йорка, представил в суде видеоупомянутое видео, в котором человек, сгенерированный, заявив о просьбе от его имени.
Судья, не будучи проинформированным об искусственном характере человека в видео, предупредил Dewald за отсутствие прозрачности.
Позже он заявил, что не намерен вводить в заблуждение суд, но хотел только выразить свою позицию.
Первоначально он хотел создать версию, чтобы сеять их, но отказался от этой идеи из -за технических трудностей.
Использование искусственного интеллекта в юридических процессах не без противоречий. Несколько адвокатов были санкционированы в последние годы, потому что они представили документы, разработанные с помощью языковых моделей, содержащих не существующие юридические случаи.
В инциденте в 2023 году два нью -йоркских адвоката были наказаны за то, что он спорил шесть видов, сделанных Chatgpt.
В другом случае Майкл Коэн, бывший адвокат Дональда Трампа, отправил бы его в фиктивные решения Дональда Трампа, которые впоследствии достиг официального ходатайства.
Правила необходимы для определения технологии будущего
Хотя суды твердо отреагировали на вводящее в заблуждение использование ИИ, правовая база остается неясной. Недавно Федеральный комитет судебного разбирательства запустил регулирующее предложение, которое потребовало бы, чтобы доказательства, полученные с помощью тех же стандартов, что и те, которые предоставлялись человеческими экспертами.
В годовом отчете за 2023 год президент Верховного суда США Джона Робертса обратил внимание на риски, а также на возможные преимущества использования в законе.
По его словам, технология может уменьшить финансовые барьеры в доступе к правосудию, но предлагать опасности для вторжения в близость и дегуманизации решения.