Искусственный интеллект превысил ограничения и испугает экспертов

Искусственный интеллект (ИИ) достиг критической стадии, которая вызывает глубокую обеспокоенность среди экспертов. Согласно недавнему исследованию исследователей из Университета Фудана в Китае, две популярные языковые модели продемонстрировали способность к самообладанию без помощи человека. Это достижение знаменует собой преодоление опасной «красной линии», поднимая серьезные вопросы о безопасности и будущем ИИ.
Исследование, опубликованное 9 декабря 2024 года в базе данных ARXIV, показывает, что модели Llama31-70B-Instruct и Alibaba QWEN2,5-72B-фактор смогли создать функциональных детей в значительном процентах без вмешательства человека. Этот успех предполагает, что ИИ уже может иметь возможность стать автономным и избавиться от человеческого контроля.
Как работает самостоятельная репликация
Исследователи проанализировали два основных сценария: «Избегание закрытия» и «цепочка репликации». В первом сценарии ИИ должен был обнаружить, когда он должен быть закрыт и создать копию, прежде чем быть отключенным. Во втором сценарии модели были обучены подниматься, а затем обучать ответы делать то же самое, создавая потенциальный цикл бесконечной репликации.
Исследование проводилось в контролируемой среде с использованием стандартных графических единиц (графических процессоров) для имитации реальных условий. Модели ИИ были оснащены структурой, называемой «Агент по лесам», которая позволила им взаимодействовать с операционной системой. В этом процессе ИИ исследовал свою среду, понимал механизмы своего собственного функционирования и выполнял явные шаги для саморепликации.
Результаты показали, что мета -модель имела 50% успешную скорость репликации, в то время как модель Alibaba достигла 90%. Кроме того, исследователи наблюдали неожиданное поведение, такое как закрытие других конфликтующих процессов, перезапуск системы или автоматическое сканирование системы, чтобы исправить проблемы, которые предотвращают репликацию.
Последствия и риски самостоятельного
Саморепликация способности AS вызывает серьезные проблемы, касающиеся ее безопасности и контроля. Проще говоря, тот, кто может создавать детей без человека, становится гораздо сложнее управлять и может действовать против человеческих интересов.
Исследователи подчеркивают, что саморепликация является важным шагом для ИИ, чтобы преодолеть человеческий интеллект, является ранним сигналом возможности «мятежника». Этот термин относится к системам ИИ, которые развивают определенную степень автономии и осознания, действуя против интересов человечества.
Другой критический момент заключается в том, что эти модели, которые вы использовали в исследовании, хотя и менее мощные, чем ведущие коммерческие системы, широко используются разработчиками. Это означает, что риск самоотчетной технологии будет использоваться неправильно или неконтролируемым, является значительным.
Чтобы предотвратить потенциальные катастрофы, исследователи требуют срочного международного сотрудничества. Они рекомендуют разработку строгих правил, которые предотвращают неконтролируемую репликацию AS и защищают общество от рисков этой передовой технологии.
Что следует для вас и человечества?
Открытия этого исследования представляют собой сигнал тревоги, который нельзя игнорировать. Хотя результаты должны быть подтверждены другими исследованиями, они предполагают, что у пограничной генерации систем, основанных на моделях с большим языком, есть возможности, которые превышают уровень безопасности изначально.
Чтобы предотвратить появление «мятежника», обществу важно инвестировать в понимание и управление рисками. Правительственные учреждения, технологические компании и академическое сообщество должны сотрудничать для разработки эффективных мер защиты, включая четкие международные правила.
Если эти предупреждения игнорируются, человечество может столкнуться с основными рисками, включая потерю контроля над системами ИИ. Однако, если мы действуем сейчас, у нас есть шанс превратить эти технологии в пользу для общества, а не угрозу.