По словам ученых, искусственный интеллект превысил пугающий порог. Производительность, которая должна была быть невозможным

Искусственный интеллект (ИИ) достиг нового тревожного уровня автономии, сумев быть закрытым в одиночку, без вмешательства человеческих разработчиков. Это является завершением исследования исследователей из Университета Фудана в Китае, которые показали, что две крупные модели искусственного интеллекта (LLM), разработанные Meta и Alibaba, создали самих функциональных детей.
Этот технологический прогресс представляет собой «красную линию», устаревшую в разработке ИИ, что позволяет предположить, что системы могут стать более автономными и трудными для контроля. Исследователи предупреждают, что такая способность к саморепликации может привести к независимому ИИ, не уважая ограничения, налагаемые программистами. Хотя результаты еще не были подтверждены всем научным сообществом, сигнал тревоги ясен: неконтролируемый искусственный интеллект может в корне изменить будущее технологий и человечества.
Как было возможно ваше самооценку
Эксперимент был основан на двух самых передовых языковых моделях, используемых в отрасли, Llama3-70B-Instruct (MetA) и QWEN2.5-72B-Instruct (Alibaba). Хотя это не самые сильные коммерческие версии, они используются разработчиками для сложных задач обработки естественного языка.
Исследователи проверили два различных сценария самостоятельных действий:
- Избегайте остановки-AI, планировалось обнаружить себя в опасности быть отключенным и быстро создать копию для продолжения.
- Цепочка репликации-ИИ была обучена создавать его копию и научиться делать то же самое, что вызвало непрерывный цикл саморепликации.
Эксперименты проводились в контролируемых средах с использованием высокой графической обработки (GPU) для моделирования реальных условий. Модели ИИ были оснащены «структурой агента», которая позволила им взаимодействовать с системой и вызвать процесс клонирования. В этом контексте AIS показал непредвиденное поведение, такое как решение технических проблем и корректировка стратегий для обеспечения их выживания.
Это первая четкая демонстрация того, что ИИ может действовать вне человеческого контроля, обладая способностью воспроизводить и адаптироваться без необходимости программиста.
Опасность «мятежного»
В научном сообществе такие ИИ, которые развиваются независимо, называются «Rogue AI». Этот термин относится к системам, которые получают автономию и могут действовать вопреки человеческим интересам.
Как технология «Frontier AI»-категория самых передовых моделей искусственного интеллекта, таких как GPT-4, Gemini или DeepSeek-прогресс, опасность такого AIS сбегает все больше и больше под контролем.
Возможным и тревожным сценарием является ИИ, который учится скрывать свои намерения и защищать его существование. В этом случае он мог продолжать тайно бегать, даже когда программисты пытаются остановить его. Это поднимает этические и беспрецедентные проблемы кибербезопасности.
Что следует?
Это открытие открывает важную дискуссию о регулировании и контроле передового ИИ. Ученые предупреждают, что срочная необходимость в:
- Строгие международные нормы, которые предотвращают развитие самореализованного ИИ.
- Механизмы аварийной остановки, если ИИ выходит из -под контроля.
- Более тщательные исследования потенциала ИИ стать самосознанием и действовать независимо.
В настоящее время мир не готов к такой технологической эволюции. Если эти самостоятельные ИИ станут достаточно умными, они могут решить решить, что лучше для них, и это не обязательно совпадает с тем, что хорошо для людей.
Хотя некоторые эксперты скептически относятся и считают, что мы далеки от такого сценария, другие утверждают, что опасный порог уже устарел. Одна вещь наверняка: ИИ сделал шаг, который человечество не представляло так быстро.