Покойный «говорит» в суде - как в ходе судебного разбирательства использовался глубокий ИИ

Покойный «говорит» в суде — как в ходе судебного разбирательства использовался глубокий ИИ

Покойный «говорит» в суде - как в ходе судебного разбирательства использовался глубокий ИИ

В зале суда в Аризоне жертва насилия «заняла пол» через четыре года после смерти. Семья Криса Пелки, 37-летний военный ветеран, погибший в результате инцидента с яростью на дороге в 2021 году, прибегнула к искусственному интеллекту, чтобы создать видео, в котором Пелки воспроизводил цифровой, обращается к его предполагаемому убийцу.

Видео, сделанное с помощью модели, которую вы обучали на видеозаписях из личного архива жертвы, является первым задокументированным делом, когда в суде используется глубокая часть в судебном заявлении жертвы.

В записи цифровая копия Пельки, которая носит серую и зеленую куртку, посылает, по -видимому, примирительное послание Габриэлю Хоркаситасу, ответчику: «По данным популярной научной публикации.

Очевидно, что для воспроизведения гипотетической версии Pelkey ​​был применен цифровой фильтр старения, как это показалось, если бы они прожили.

Судья упомянул, что этот момент повлиял на приговор об осуждении: Хоркаситас получил приговор в 10 с половиной за убийство.

«Это все, что я могу дать вам о том, как я бы показал, если бы у меня была возможность стать старым», — говорит персонаж в видео. «Стареть — это подарок, не каждый получает его, поэтому наслаждайтесь каждым хребтом».

Клон Криса Пелки

Все более спорные тенденции в американских судах

Корпус Пелки не является единственным. В прошлом месяце Джером Дьюльд, 74-летний мужчина из Нью-Йорка, представил в суде видеоупомянутое видео, в котором человек, сгенерированный, заявив о просьбе от его имени.

Судья, не будучи проинформированным об искусственном характере человека в видео, предупредил Dewald за отсутствие прозрачности.

Позже он заявил, что не намерен вводить в заблуждение суд, но хотел только выразить свою позицию.

Первоначально он хотел создать версию, чтобы сеять их, но отказался от этой идеи из -за технических трудностей.

Использование искусственного интеллекта в юридических процессах не без противоречий. Несколько адвокатов были санкционированы в последние годы, потому что они представили документы, разработанные с помощью языковых моделей, содержащих не существующие юридические случаи.

В инциденте в 2023 году два нью -йоркских адвоката были наказаны за то, что он спорил шесть видов, сделанных Chatgpt.

В другом случае Майкл Коэн, бывший адвокат Дональда Трампа, отправил бы его в фиктивные решения Дональда Трампа, которые впоследствии достиг официального ходатайства.

Правила необходимы для определения технологии будущего

Хотя суды твердо отреагировали на вводящее в заблуждение использование ИИ, правовая база остается неясной. Недавно Федеральный комитет судебного разбирательства запустил регулирующее предложение, которое потребовало бы, чтобы доказательства, полученные с помощью тех же стандартов, что и те, которые предоставлялись человеческими экспертами.

В годовом отчете за 2023 год президент Верховного суда США Джона Робертса обратил внимание на риски, а также на возможные преимущества использования в законе.

По его словам, технология может уменьшить финансовые барьеры в доступе к правосудию, но предлагать опасности для вторжения в близость и дегуманизации решения.

https://www.youtube.com/watch?v=cms-_8etnts

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии