Они продали свое лицо и голос искусственного интеллекта, но они не предвидели то, что грядет: «Политические сообщения, ложные новости, чудесные средства правовой защиты и чая»

В погоне за быстрыми и, по -видимому, без усилий денег, все больше и больше людей продают образ и голос специализированных компаний в искусственном интеллекте, не зная, что связаны с тем, что связаны с этими контрактами. Результат? Их лица появляются в ложных видеороликах, продвигая сомнительные продукты, ошибочную информацию или даже политические сообщения, в некоторых случаях без какой -либо возможности вывода или контроля, пишет, пишет АФППолем
Человеческие аватары, минимальные затраты, основные риски
Глубокие явления и генерация контента с реальными лицами, но полностью изготовленными сообщениями становятся больше. Компании и платформы цифрового маркетинга теперь используют реальные человеческие деятели — более убедительные и дешевые, чем платные актеры — для создания рекламы, демонстраций продуктов или вирусного содержания. Процесс прост: несколько часов съемок на зеленом фоне, с различными эмоциональными интерпретациями, за которыми следует цифровая обработка и интеграция голоса, генерируемого на любом языке.
По словам Соленены Вассер, эксперта по цифровой коммуникации, эта практика позволяет компаниям выглядеть современными и адаптированными к новым технологиям. А для тех, кто отказывается от своего имиджа, полученная сумма может варьироваться от нескольких сотен до нескольких тысяч евро. Проблема? Очень немногие действительно понимают, что они подписали.
От рекламы до пропаганды
Саймон Ли, южнокорейский актер и модель, узнал со своим цифровым аватаром для продвижения сомнительных «лекарств» на Tiktok и Instagram — От чая для потери веса до холодных анти-а-acne ваннПолем «Если бы это была серьезная реклама, у меня не было бы проблем, но так … ясно, что мошенничество«Он сказал за АФППолем И все же, его контракт позволяет использовать изображение третьими лицами.
Другой пример приходит от нью -йоркского актера Адама Кой, который отказался от права на лицо и голос в течение одного года, в обмен на 1000 долларовПолем Несколько месяцев спустя мать ее подруги увидела его в клипе, в котором она заявила, что «будущий посланник» приходят, что приходят глобальные бедствия. Никакая статья в контракте не запрещает такое использование, если она не связана с сексуальным содержанием, алкоголем или табаком.
Непрозрачная и полная индустрия расширения
В 2022 году британский Коннор Йейтс Он подписал трехлетний контракт с Синтезией на 4600 евроПолем В то время он спал на диване друга. Позже он обнаружил, что его изображение использовалось в пропагандистских видео для лидера Буркинабия Ибрагима Траоре, который пришел к власти через переворот. Позже компания признала, что ее система не была готова отфильтровать поляризационный политический контент.
Между тем, появились новые платформы, с более расслабленными правилами. Журналист АФП Он продемонстрировал, как легко можно генерировать клипы, в которых аватар говорит, что борьбы без какой -либо проверки.
Несбалансированные контракты и отсутствие правил
«Многие люди не понимают, что на самом деле включает в себя подписание этих соглашений«Согревает адвокат Алиссы Малчиоди. Контракты часто включают оскорбительные предложения: глобальные, вечные, безвозвратные, без возможности отказа».Мы говорим не о изобретенных лицах, а о реальных людях, которые ИИ не удаляет, а раскрывает«, Она указывает.
В отсутствие четких правил использование реальных изображений и голосов в контенте, генерируемом для превращения обычных людей в принудительных субъектов коммерческих, обманчивых или даже опасных сообщений. И как только контракт подписан, возврат практически невозможна.