Исследование показало, что искусственный интеллект не повлиял на выборы в США, но усугубил раскол среди американцев

В контексте президентских выборов в США аналитики и эксперты из разных областей, от Вашингтона до Кремниевой долины, неоднократно предупреждали об опасности, которую искусственный интеллект (ИИ) может представлять для демократического процесса. Он опасался, что ИИ будет способствовать дезинформации, пропаганде и разжиганию ненависти, что поставит под угрозу результаты выборов. Хотя эти опасения по поводу влияния на само голосование преувеличены, недавние исследования показывают, что ИИ оказал значительное влияние на то, как общественность воспринимает реальность и политику.
Согласно докладу Института стратегического диалога (ИСД), представленному эксклюзивно изданию Вашингтон ПостИспользование ИИ в пропагандистских и сатирических целях привело к «фундаментальному загрязнению информационной экосистемы». Избирателям сложно отличить, что является подлинным, а что создано искусственным интеллектом, и эта путаница способствует углублению политического раскола в США.
Искусственный интеллект: между пропагандой и подрывом общественного доверия
Хотя искусственный интеллект не оказал прямого влияния на исход выборов, он сыграл важную роль в укреплении уже существующих убеждений избирателей, не меняя их. По словам профессора Хани Фарида из Калифорнийского университета в Беркли, американское общество сегодня живет в «альтернативной реальности», где мнения поляризованы, а истины оспариваются, даже если они самоочевидны. Платформы социальных сетей, такие как X, принадлежащие Илону Маску, позволили такому контенту, созданному искусственным интеллектом, распространяться без строгих фильтров, и это помогло усилить ложь и политическую ненависть.
Этот стратегический подход также использовался сторонниками Дональда Трампа, которые с помощью ИИ создали среду поддержки спорных мер и политик, таких как массовые депортации или запреты на аборты. Парадоксально, но ИИ не использовался в основном для создания новой дезинформации о процессе голосования. По словам Кейт Старберд, соосновательницы Центра информированной общественности при Вашингтонском университете, большинство слухов основано на неверной интерпретации реальных фактов, а не на сфабрикованных доказательствах.
Изображения и звуки, созданные искусственным интеллектом: новый фронт битвы
Яркий пример влияния ИИ на общественное мнение произошел в июле, когда Илон Маск поделился на X поддельной, созданной ИИ аудиозаписью вице-президента Камалы Харрис, которая, по всей видимости, претендует на участие в президентской гонке. Этот контент был просмотрен более 100 миллионов раз без соответствующих тегов. Карикатурные изображения, созданные с помощью искусственного интеллекта, также использовались для изображения Трампа в нацистской форме или для того, чтобы поставить Харриса в оскорбительные в расовом отношении позы.
Кроме того, политики обоих лагерей использовали ИИ для создания изображений с целью привлечь внимание общественности, хотя некоторые из этих случаев вызвали резкую негативную реакцию. Например, в августе Трамп поделился сгенерированными искусственным интеллектом изображениями фанатов Тейлор Свифт, которые, похоже, его поддерживали. Это действие побудило певца публично поддержать Харрис, указав, что такая тактика может иметь непредвиденные последствия.
Всеобщая подозрительность и будущее искусственного интеллекта в политической среде
Даже если ИИ не привел к кардинальным изменениям в результатах, он в значительной степени способствовал подрыву доверия к реальной информации и усилению подозрений. Исследователи ISD обнаружили, что многие вирусные посты на социальных платформах, таких как X, YouTube и Reddit, предполагают, что другой лагерь регулярно использует ИИ для искажения правды. Кроме того, публика стала чаще принимать подлинный контент за фейк, чем наоборот. Эта тенденция известна как «дивиденд лжеца» — явление, при котором растущая осведомленность о фейках с использованием искусственного интеллекта позволяет злоумышленникам сеять сомнения в правдивости информации.
По мнению Изабель Фрэнсис-Райт, директора по технологиям и обществу в ISD, этот «кризис истины» усугубляет подтверждение личных предубеждений. Таким образом, ИИ становится дополнительным механизмом укрепления собственных убеждений, независимо от правдивости передаваемой информации. Таким образом, усилия по модерации контента в социальных сетях оказываются недостаточными, а пользователи остаются растерянными и поляризованными.
В заключение, хотя ИИ не изменил решающим образом направление голосования, он оказал существенное влияние на то, как люди воспринимают информацию и политическую поляризацию в США. Усилия по контролю и проверке контента, создаваемого ИИ, все еще далеки от эффективного решения, а будущее политических кампаний может принести беспрецедентный набор проблем.