Когда цензура исчезает из ЧАТГПТ. Объяснения об безопасности безопасности связаны с конкуренцией Openai

Спорные изменения в рамке безопасности Openai, в опасной гонке со временем и соревнованиями.
В ходе, который вызвал нагретые реакции в сообществе ИИ, Openai обновил Структура готовностиего внутренняя система использовалась для оценки безопасности моделей искусственного интеллекта и определения уровня защиты, необходимого во время их разработки и запуска. Самая спорная часть обновления? Компания объявляет, что Можно скорректировать стандарты безопасности, если конкурент запустит систему «высокого риска» без сопоставимой защитыПолем
Это заявление нанесло как исследователей в этой области, так и активистов этики. По -видимому, OpenAI пытается найти баланс между поддержанием стандарта безопасности и необходимостью идти в ногу с ритмом оповещения, навязанным конкурентами. Но многие видят в этом опасное шаг к «который запускает первую» конкурс типов, в ущерб ответственному развитию.
Что на самом деле означает «корректировка» безопасности?
Обновление, опубликованное в официальном блоге Openai, гласит, что если другая лаборатория запустит модель пограничного типа, то есть чрезвычайно продвинутую — без эквивалентных защитных мер. мог бы уменьшить свои собственные требования иметь возможность быстро реагировать на вызов. Тем не менее, компания утверждает, что она сделает это, только если она будет строго подтверждена, что «ландшафт рисков действительно изменился», эта корректировка значительно не увеличивает риск серьезных поврежденийи что уровень безопасности остается «более защитным», чем у конкурентов.
Другими словами, Openai оставляет за собой право адаптировать свою политику не в соответствии с абсолютно стандартом безопасности, а В зависимости от того, что делают другие игроки на рынкеПолем Это поднимает тонкий вопрос: если все бросают стандарты, кто все еще рисует сигнал тревоги?
Эта заявленная гибкость возникает в то время, когда Openai уже подвергается критике за Спешка, с которой запускаются новые модели и из -за отсутствия прозрачности. верно Финансовые временаТестовые команды имели менее недели, чтобы оценить основную модель, которая будет запущена, значительно более короткий период, чем предыдущие циклы.
Автоматизация тестирования и риски «критической модели»
Другой ключевой аспект обновления — это Увеличение зависимости от автоматических оценок При тестировании новых моделей. Хотя Openai утверждает, что он не полностью отказался от человеческого тестирования, компания заявляет, что создала «растущий набор автоматических оценок», который может не отставать от быстрых темпов.
Этот переход также повышает заботы. Автоматические оценки могут ускорить процесс, но обеспечивает достаточные гарантии перед лицом социальных, политических или психологических рисков? Можете ли вы доверять системе, которая оценивается в одиночку, без здоровой дозы человеческого скептицизма?
Более того, новый Структура готовности переопределяет категории рисков. Модели теперь разделены на два класса:
- Высокая способность («Высокая способность»): модели, которые могут усилить существующие маршруты для получения серьезных повреждений;
- Критические возможности («Критическая способность»): модели, которые Введите совершенно новые способы нанесения серьезных поврежденийбеспрецедентный.
Для обеих категорий открыта заявляет, что необходима защита, пропорциональная рискам. В случае критических моделей эти защиты должны быть применены даже во время разработкине только до запуска.
Основная забота возникает из-за возможности этих моделей, особенно тех, кто способен на скрыть навыки, обходные меры безопасности, предотвратить остановку или самостоятельно — Чтобы выйти из -под контроля. В сценарии, в котором эти модели будут запущены без строгих тестов, последствия могут быть невозможно предвидеть или контролировать.
Конкурентное давление и обвинения в компромисс
обновлять Структура готовности Это происходит на фоне растущей напряженности между OpenII и бывшими сотрудниками компании. Только на прошлой неделе, 12 бывших сотрудников представили память в процессе Elon Musk против Openaiутверждая, что запланированная корпоративная реорганизация может побудить компанию Игнорировать все больше и больше стандартов безопасностиПолем
Более серьезные, они утверждают, что отчеты о внутренних испытаниях безопасности больше не являются прозрачными и не отражают фактический уровень оценки перед запуском расширенных моделей. Те же обвинения также появляются в прессе: OpenAI провел бы тесты на Предварительные версии моделейне те, которые фактически запущены для публики. Это было бы эквивалентно тестированию автомобиля в гараже, а затем отправила другой прототип непосредственно на шоссе.
В ответ Openai отклонил обвинения и подтвердил, что не идет компромиссы на стороне безопасностиПолем Но новые правила и тон официального заявления показывают, что реальность гораздо более тонкая. В ландшафте, в котором доминируют Жесткая раса между ИИ ГигантовДавление первого запуска новой модели огромно. И где соревнование заменяет благоразумие, безопасность становится первым компромиссом.
Что следует и почему важно быть осторожным
Изменения в Структура готовности Это может показаться техническим, но они имеют прямые последствия того, как мы взаимодействуем с ИИ в ближайшие годы. Если модель становится широко реализованной — в образовании, здоровье, справедливости или в военной среде — без достаточной проверки, Кто ответит на любые ошибки? Кто будет гарантировать, что модели ИИ не будут усиливать дискриминацию, социальную поляризацию или манипулирование информацией?
На данный момент Openai обещает, что он сохранит свои стандарты на «более защитном» уровне. Но реальность в том, что Этот уровень в настоящее время определяется в отношении конкуренциине с набором стабильных этических принципов. Это означает, что если другие спускаются по шесту, Openai может сделать то же самое — может быть, не так много, но достаточно, чтобы иметь значение.
Для широкой публики все эти дискуссии могут показаться абстрактными. Но за каждым чат -ботом, виртуальным помощником или алгоритмом рекомендаций представлены конкретные решения о Что означает «безопасность» в мире, контролируемом алгоритмамиПолем И если мы не будем внимательны сейчас, однажды нам, возможно, придется обсудить это, когда будет слишком поздно.