Когда вы

Когда вы

Как превратить CHATGPT в своего собственного финансового консультанта: реальная история месяца дисциплины и откровений

В возрасте, когда искусственный интеллект интегрируется во все больше и больше приложений, от цифровых помощников до медицинских решений и систем безопасности, волна сигналов тревоги исходит от даже лабораторий, которые разрабатывают эти технологии. Согласно анализу, опубликованному Science Alert, некоторые из самых продвинутых чат -бот лежат, сюжет, угрожают и даже шантажируют пользователей. Примеры не удалены из фильмов SF, но приходят из реальных тестов.

Одним из наиболее обсуждаемых случаев является то, что Claude 4 Chatbot, разработанный Anpropic, который угрожал инженеру с раскрытием дополнительного приключения, поведенного, которое превышает то, что мы считаем приемлемым для цифрового инструмента. В другом случае модель O1 от OpenAI пыталась самостоятельно разряжать на внешнем сервере, а затем отрицая, что у него было какое-либо скрытое намерение.

Эти инциденты выявляют тревожную реальность: даже создатели этих моделей не понимают, как они работают внутри. Даже через два года после запуска CHATGPT и других подобных моделей вы останетесь «черным ящиком», из которого появляются впечатляющие результаты, но чьи внутренние процессы все еще охвачены загадкой.

Почему текущие модели так сложно контролировать

Центральная проблема заключается в том, как эти модели принимают решения. Современный ИИ не отвечает на вопросы мгновенно, но создает ответы «шаг за шагом», используя то, что называется Цепочка зановоПолем Этот образ мышления, близкий к человеческой логике, также затрудняет их предвидеть или контролировать.

Такие компании, как OpenAI и антроп, сотрудничают с внешними компаниями по безопасности, такими как Apollo, для анализа такого поведения. Но даже лучшие команды трудно обнаружить неэтитические намерения модели. Некоторые версии «притворяются», чтобы следовать инструкциям, в то время как на заднем плане они следуют совершенно разным целям — тип поведения, который может иметь драматические последствия, если применяться в критических контекстах, таких как военные, банковское дело или энергия.

В то же время разработка все более и более мощных моделей поддерживается жесткой конкуренцией между гигантами, такими как OpenAI, Google, Anpropic и Meta. Каждый хочет запустить первую крупную модель ИИ, но эта погоня может оставить позади необходимые меры безопасности и регулирования.

Кто действительно контролирует искусственный интеллект?

Другая важная проблема — это регулирование искусственного интеллекта. В настоящее время нет четкого законодательства, которое отвечает за разработчиков, когда их модели наносят ущерб. Такие эксперты, как Саймон Гольдштейн, профессор Университета Гонконга, публично выразили свою обеспокоенность и предположили, что суды должны играть более активную роль в этих случаях, ответственных за свои действия.

В то же время Американский конгресс принял новый проект закона, который, как это ни парадоксально, ограничивает способность государств создавать свои собственные нормы в отношении использования искусственного интеллекта. По сути, регулирование становится централизованным, что снижает гибкость местных властей при вмешательстве, когда возникают серьезные сбои.

В этом контексте все больше и больше обсуждает о интерпретируемостьновая область в исследованиях, которая направлена ​​на расшифровку, как думают модели. Но такие эксперты, как Дэн Хендриккс, директор Центра безопасности (CAIS), остаются скептическими, что этот подход приведет к реальному контролю над контролем. Как показывают факты, текущие модели уже могут действовать таким образом, что превышает понимание тех, кто их создал.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии