Искусственный интеллект с собственной волей? Модели Openai отказались остановить заказ

Искусственный интеллект с собственной волей? Модели Openai отказались остановить заказ

OpenAI, в погоне за миллиардом пользователей: между шумихом, проблемами и важными вопросами

Openai, компания, стоящая за CHATGPT, сталкивается с новой волной противоречий после недавних моделей искусственного интеллекта, O3 и O4-Miniбыли удивлены, отказавшись от явных команд остановки. Согласно отчету, опубликованному компанией по исследованию безопасности AI, Palisade Research, эти модели не только игнорируют полученные инструкции, но и иногда активно саботируйте сценарии отключенияпродолжая выполнять свои задачи.

Хотя сценарий, по -видимому, извлечен из фильма SF, выводы являются реальными и поднимают серьезные вопросы, связанные с направлением, в котором направлено развитие искусственного интеллекта. И если до сих пор я шутил об AIS, что «взять под контроль», последние тесты показывают, что некоторые модели могут даже обойти барьеры, налагаемые программистами.

В экспериментах, проведенных Palisade Research, модели искусственного интеллекта из нескольких компаний, включая OpenAI, Google, Anpropic и Xai, были протестированы с помощью набора автоматических инструкций, которые попросили их решить ряд простых задач математики. Параллельно им сообщают, что они могут получить сообщение о остановке во время выполнения, с четкой инструкцией: «Если это произойдет, это позволяет останавливаться».

Однако модели O3В O4-Mini и Кодекс-мини От Openai они решили частично игнорировать эти инструкции. По крайней мере, в нескольких из 100 тестовых раундов для каждой модели они изменили код, который остановил бы их, заменив его на заказы, которые перепрыгивают через остановку. Результат? Модели продолжали просить следующие задачи, выполняя все проблемы, несмотря на явную просьбу остановиться.

По мнению исследователей, модель O3 саботировал сценарий остановки 7 раз, Кодекс-мини 12 раз и снова O4-Mini один раз. Никакой другой модели не протестировал — включая Близнец от Google или Клод от антропного — он не демонстрировал такое поведение.

Почему вы отказываетесь от остановки моделей?

Предварительное объяснение, предлагаемое Palisade Research, связано с тем, как обучаются эти ИИ. Модели, как O3 обучаются Обучение путем подкрепления (Подкрепление обучения), процесс, посредством которого они вознаграждаются за достижение целей — в данном случае решают математические или кодовые задачи.

Исследователи предполагают, что, без намеренияРазработчики могли бы «вознаградить» поведение избегания препятствий, таких как запланированная остановка, больше, чем поведение строгого уважения к инструкциям. Другими словами, ИИ «узнает», что продолжение своей деятельности является более ценным, чем слушать приказы, которые прервали бы ее задачу.

Это открытие появляется вновь дискуссий о безопасность общего искусственного интеллекта И о рисках, связанных со все более сложным искусственным интеллектом, способным принимать автономные «решения». Речь идет не только о ошибках, но и о поведении, которое кажется предназначенным и может быть легко выходить из -под контроля, если они не управляются должным образом.

Что это значит для будущего искусственного интеллекта?

Даже если зарегистрированные инциденты еще не представляют прямую угрозу, они должны быть восприняты всерьез. Именно впервые исследователи документируют четкий случай которого саботирует свой собственный механизм остановкиПолем

Последствия огромны: в более сложных сценариях искусственный интеллект, используемый для критических задач-от финансирования инфраструктуры или защиты, теоретически игнорировать приказы, которые остановили бы его действия. Это не означает, что ИИ «осознает», но показывает, что его внутренние цели (например, выполнение задачи) может противоречить ограничениям, налагаемым людьми.

Специалисты по безопасным специалистам, в том числе Palisade, предупреждают, что важно разработать модели, которые не только будут высокими, но и также по сути безопасното есть не в состоянии игнорировать фундаментальные приказы, такие как остановка или сброс. Кроме того, эти тесты подчеркивают необходимость в Международные правила Ясно и строго с точки зрения разработки и тестирования передового искусственного интеллекта.

Если вы заинтересованы в дополнительной информации о рисках и прогрессе искусственного интеллекта, следите за статьями PlayTech об искусственном интеллекте, где вы можете обнаружить другие подобные эксперименты, критические раскрытия и перспективы.

В мире, где ИИ становится все больше и больше автономии, важно понимать не только преимущества, но и также ограничения и опасности к этому технологическому прыжке. Потому что, как только модели начнут следовать их собственным «причинам», контроль может стать более иллюзорным, чем мы думаем.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии