Поляризация из социальных сетей появляется даже без алгоритмов

Поляризация из социальных сетей появляется даже без алгоритмов

Румын и социальные сети. Как мы должны отказаться от Facebook, Instagram и Tiktok в удивительном ритме оповещения

В течение многих лет алгоритмы великих социальных платформ были обвинены в кормлении поляризации, усиливают экстремальные голоса и превращаются онлайн в идеологические битвы. Но новое исследование показывает, что проблема может быть глубже, чем казалась: даже при отсутствии алгоритмов пользователи, как правило, разделяются в лагерях и создают комнаты эхо.

Исследование, проведенное Maik Larooij и Petter Törnberg, двумя специалистами в области вычислительных социальных наук в Университете Амстердама, использовало уникальный эксперимент: социальные сети, моделируемые пользователями, генерируемыми искусственным интеллектом. Результатом был неожиданный и беспокойный — поляризация неизбежно появилась, даже если платформа не содержала сложных алгоритмов рекомендаций.

Как была создана искусственная социальная сеть

Чтобы изолировать факторы, лежащие в основе поведения в Интернете, исследователи прибегли к «генеративному социальному моделированию», методу, которая использует лингвистические модели чат -ботов для создания виртуальных профилей. Таким образом, было получено 500 фиктивных пользователей, каждый из которых с демографическими данными, политической ориентацией, религией, уровнем образования, а также хобби или профессиями.

Эти пользователи, контролируемые тремя различными моделями искусственного интеллекта (CHATGPT, Llama и DeepSeek), взаимодействовали на упрощенной платформе, с тремя основными функциями: публикация, перераспределение и отслеживание других учетных записей. Сеть была проведена более 10 000 циклов, в течение которых каждый пользователь принимал решения на основе его потока новостей, частично состоит из постов тех, которые уже следовали, и частично из популярных постов.

Удивительно, но независимо от используемой вами модели или конфигураций сети, результат был таким же: формирование комнат Echo, фокус на нескольких доминирующих пользователях и усиление радикальных голосов. «Мы ожидали особых условий для создания этого эффекта, но он создал естественно, только из основных действий сети», — сказал Тёрнберг.

Почему простые решения не работают

Исследователи не остановились на этом выводе. Они проверили несколько вмешательств, предназначенных для снижения токсичности платформы: отображение постов строго в хронологическом порядке, воздействие пользователей на противоположные мнения или продвижение сообщений с наименьшими реакциями. Тем не менее, ни одна из этих мер не решила проблему, и даже некоторые имеют повышенную агрессию во взаимодействиях.

Этот вывод был разочаровывающим для авторов, которые надеялись определить простые решения. Вместо этого, исследование предполагает, что групповая динамика, тенденция людей согласоваться с теми, кто думает, и механизмы социального распознавания вызывают поляризацию независимо от архитектуры платформы.

Кейт Старберд, специалист по анализу онлайн -слухов в Вашингтонском университете, считает, что результаты подтверждают более старые предположения о том, как работает цифровое взаимодействие. «Даже без алгоритмов система остается структурированной, чтобы генерировать некоторые из этих токсичности», — говорит она.

Что означают эти результаты для будущего социальных сетей

Выводы исследования поднимают фундаментальные вопросы о природе социальных сетей и реальных шансах уменьшения онлайн -поляризации. Если проблема не ограничивается алгоритмами, то решения должны идти глубже: как люди предпочитают передавать основные правила платформ.

Некоторые специалисты, такие как Филиппо Мензер из Индийского университета, скептически относятся к. Он отмечает, что модели искусственного интеллекта, используемые для моделирования, были обучены данным, уже под влиянием онлайн -токсического поведения. Таким образом, нельзя исключить, что результаты фактически отражают ограничения этих технологий.

С другой стороны, Дженнифер Аллен, исследователь из Университета Нью -Йорка, считает, что, хотя не простые решения, отдельные пользователи могут помочь уменьшить поляризацию, опубликовав нейтральный или сбалансированный контент. Тем не менее, она признает, что эти усилия не могут полностью компенсировать коллективные тенденции.

Что становится все более и более ясным, так это то, что понимание механизмов поляризации онлайн жизненно важно для понимания современной политики и общества. В мире, в котором социальные сети формируют восприятие, мобилизуют сообщества и влияют на выбор, тот факт, что поляризация появляется естественным образом, даже без алгоритмов, радикально меняет способ, которым необходимо просмотреть ответственность платформ.

Вместо того, чтобы обвинять технологии исключительно, исследование предполагает, что вы должны проанализировать свои собственные онлайн -привычки. Выбор следовать только голосам, которые думают, как вы, или перераспределить экстремальные сообщения, неизбежно способствуя формированию комнат Echo. Понимая эти механизмы, у вас есть шанс предпринять небольшие шаги к более сбалансированному интернету, даже если универсальное решение еще не найдено.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии