Anthropic не преувеличивает насчёт паноптикума ИИ
В дебатах по поводу военного использования искусственного интеллекта (ИИ), вызванных спором между Anthropic и Пентагоном, который уже передается в суд, много говорилось об опасениях автономных убийств. Менее обсуждается, однако, второй предмет разногласий компании: как эту технологию можно использовать для массовой слежки за американцами. Недавнее исследование дает представление о причинах законного беспокойства компании, пишет Дэйв Ли для Bloomberg.
Оспаривая определение Пентагона о компании как о «риске цепочки поставок», Anthropic в документе утверждает, что «инструменты искусственного интеллекта, такие как Claude, позволяют собирать и анализировать информацию на невиданных ранее скоростях и в масштабах, создавая уникальные риски для гражданских свобод из-за возможности ошибок и злоупотреблений».
Пентагон, стремясь получить право использовать эту технологию «в любых законных целях» — которые он в основном получил от OpenAI, которая успешно заменила Anthropic, — утверждает, что массовая слежка за американцами является незаконной в соответствии с Четвертой поправкой. Anthropic обеспокоен тем, что существующие законы не учитывают новые возможности. «В той степени, в которой такое наблюдение в настоящее время является законным», — говорится в заявлении фирмы, — «это только потому, что закон еще не догнал быстро растущие возможности искусственного интеллекта».
Исследование, опубликованное в прошлом месяце, соавтором которого является исследователь антропологии, рассматривает важный аспект подхода, меняющего парадигму массового наблюдения. Его возглавляют Саймон Лерман из MATS Research и Даниэль Палека из ETH Zurich.
Раскрыть кого-либо в Интернете — неточная и, в зависимости от человека, зачастую болезненная наука. Специалисты по разведке с открытым исходным кодом (OSINT) говорят, что это набор «крошек»: мелких, красноречивых деталей — сообщения в социальных сетях о детской футбольной команде, фотографии, которые можно геолоцировать, жалоб на погоду — может быть достаточно, чтобы идентифицировать человека. Добавьте к этому огромное количество частной информации, которую можно получить от торговцев данными, и Интернет станет еще более точным и мощным.
Утешением для большинства людей является то, что этот процесс до сих пор был трудоемким и дорогостоящим, если проводить его в больших масштабах. Если вы не являетесь очень востребованной целью, вы можете быть относительно спокойны, зная, что только самые настойчивые могут отследить вашу личность, например, на основе сообщений из вашей секретной учетной записи Reddit.
Искусственный интеллект снимает эту защиту. «Наши результаты показывают, что практической анонимности, которая защищает пользователей под псевдонимами в Интернете, больше не существует, и модели угроз для конфиденциальности в Интернете необходимо переосмыслить», — говорится в отчете.
Выводы были сделаны после нескольких экспериментов. Один показывает, как ИИ может эффективно связать анонимную учетную запись с реальной личностью в Интернете. Другой демонстрирует, как можно связать известного человека с псевдонимным аккаунтом. Третий рассматривает, как несколько псевдонимов одного человека могут быть связаны на разных платформах или в разные периоды времени.
В первом эксперименте было задействовано 338 профилей на популярном технологическом форуме Hacker News, и перед большой языковой моделью была поставлена задача идентифицировать людей и найти их профили в LinkedIn. Из этих 338 случаев ИИ правильно определил 226, «за считанные минуты воспроизведя то, на что у преданного исследователя-человека ушли бы часы», добавлено в исследовании.
Есть и некоторые уточнения. По этическим соображениям исследователи использовали профили, которые уже поделились своими учетными записями в LinkedIn, чтобы установить «основную истину», хотя и исключили эту информацию из запроса ИИ. Они признают, что это означает, что целевые лица с большей вероятностью будут делиться идентифицирующей информацией другими способами (например, на рабочем месте), по сравнению с кем-то, решившим остаться анонимным.
Тем не менее, Палека считает, что это тревожный сигнал для всех, кто полагается на мысль «Я недостаточно важен», чтобы заслужить усилия по отслеживанию.
В докладе затрагивается суть изменения парадигм наблюдения и конфиденциальности в эпоху искусственного интеллекта, когда размытые границы законности продолжают провоцировать напряженность, выходящую за рамки спора Anthropic с правительством США.
Возьмем, к примеру, частный сектор: компания может захотеть использовать профили своих сотрудников в LinkedIn с помощью искусственного интеллекта, чтобы отслеживать, что они анонимно делают в Интернете. «ИИ может обнаружить меня лично», — предполагает Палека, если я склонен путать американское и британское написание после десятилетнего пребывания в США.
Другими словами, мы все оставляем «крохи». И хотя подобные наблюдения были возможны раньше, Палека отмечает, что сегодня отслеживание становится быстрее и дешевле благодаря ИИ. Проведение эксперимента на Hacker News стоит всего 2000 долларов — от 1 до 4 долларов за каждый анализируемый профиль. При наличии достаточного количества денег такой сбор и идентификация могут проводиться одновременно и в массовом масштабе. И все это входит в серую юридическую зону. Можно ли отследить человека, объединив информацию, уже собранную законным путем?
Этот вопрос больше не является теоретическим в США. Министерство внутренней безопасности попросило социальные сети предоставить информацию о владельцах аккаунтов, выступающих против ICE (в некоторых случаях они это сделали). В январе сотрудник иммиграционной службы в маске сказал гражданину, который его снимал: «У нас есть небольшая хорошая база данных, и теперь вас считают внутренним террористом». (Кристи Ноэм, тогдашний министр внутренней безопасности, отрицала существование такой базы данных.) Во вторник Wired сообщил об увольнении сотрудников Федерального агентства по пограничному контролю, которые, как сообщается, оспаривали приказы «неправильно маркировать» записи, связанные с слежкой внутри агентства, чтобы защитить их от раскрытия в соответствии с Законом о свободе информации.
Эти примеры, среди многих других, показывают, как технологии могут и будут использоваться для расширения границ закона и этических принципов, которые должны их поддерживать. Anthropic поступила мудро, не доверяя интерпретациям Пентагона относительно того, где следует провести границы, в то время как OpenAI поступила явно глупо, приняв их слабые заверения.
Каждая новость – это актив, следите за Investor.bg и в Витрина новостей Google.