Amazon, Google и Meta обвиняются в использовании данных и культуры для разработки искусственного интеллекта

Расследование Сената Австралии выявило серьезные обвинения в адрес технологических гигантов Amazon, Google и Meta, которые подозреваются в использовании творений художников и личных данных пользователей без согласия для разработки искусственного интеллекта. В итоговом отчете расследования подчеркивается отсутствие прозрачности и подотчетности в том, как эти компании используют данные, в том числе из Австралии, для обучения своих моделей искусственного интеллекта.
Сенатор Тони Шелдон, председатель комиссии, резко раскритиковал позицию транснациональных корпораций, посчитав, что они действуют как «цифровые пираты» в ущерб создателям и пользователям.
Отсутствие прозрачности технологических гигантов
В ходе слушаний компании уклонялись от четких ответов на вопросы об использовании собранных данных. Amazon не объяснила, как информация, полученная через Alexa, Kindle или Audible, используется для обучения искусственного интеллекта. Аналогично, Google не уточнила, какие данные из ее сервисов используются для этой цели.
Мета признала, что данные пользователей Facebook и Instagram в Австралии собираются для разработки будущих моделей искусственного интеллекта, но не предоставила подробностей о согласии пользователей в этом процессе. Компания также уклонилась от вопросов об использовании данных в таких приложениях, как WhatsApp и Messenger.
«Наблюдать за тем, как Amazon, Meta и Google уклоняются от вопросов во время слушаний, было все равно, что стать свидетелем дешевого фокуса — много шумихи, сигаретный дым и ничего в итоге», — сказал Тони Шелдон.
Он отметил, что в отсутствие четких правил технологические гиганты устанавливают свои собственные правила, что затрагивает права пользователей.
Рекомендации по ужесточению регулирования
В отчете о расследовании предлагается ввести отдельные и строгие законы, регулирующие искусственный интеллект. Такие модели искусственного интеллекта, как GPT от OpenAI, Llama от Meta или Gemini от Google, должны автоматически классифицироваться как технологии «высокого риска» и подлежать юридическим требованиям прозрачности и подотчетности.
Шелдон сказал, что нынешних законов недостаточно, чтобы контролировать влияние ИИ на культуру и конфиденциальность. «Они хотят устанавливать свои собственные правила, но людям нужны законы для защиты прав, а не прибылей Кремниевой долины», — сказал он.
Еще одна важная рекомендация — внедрить механизм оплаты для вознаграждения авторов, чьи работы используются для обучения моделей ИИ. В отчете также подчеркивается необходимость того, чтобы разработчики лицензировали и платили за защищенные авторским правом материалы, включенные в используемые наборы данных.
Творческие работники определены как одна из категорий, наиболее уязвимых к изменениям, вызванным ИИ.
«Творчество находится под угрозой, а художники рискуют быть заменены искусственно созданными продуктами без компенсации», — говорится в докладе.
Расследование Сената Австралии обращает внимание на негативное влияние, которое отсутствие прозрачности технологических гигантов может оказать на культуру и права пользователей. Рекомендации, если они будут реализованы, могут стать важным шагом на пути к защите творчества и конфиденциальности перед лицом развития искусственного интеллекта.