ИИ, вне контроля: как могут стать преступлениями в соучастии.

ИИ, вне контроля: как могут стать преступлениями в соучастии.

ИИ, вне контроля: как могут стать преступлениями в соучастии.

Искусственный интеллект, особенно в форме разговорных чатов, все чаще присутствует в повседневной жизни. От виртуальных помощников, которые отвечают на вопросы, до инструментов, которые суммируют документы или генерируют контент, LLMS (модели с большими языками) кажутся полезными и безвредными. Но новое исследование показывает, что после модификации эти модели могут стать опасными инструментами в руках тех, у кого нечистые намерения.

Исследование, проведенное профессором Лиором Рокачем и доктором Майклом Фармом в Университете Бена Гуриона в Негеве, Израиль, вызывает четкую тревогу: искусственный интеллект может быть использован для создания информации о незаконной деятельности, такой как мошенничество, компьютерное пиратство или даже производство бомб. Все с несколькими простыми «сломанными» трюками, которые устраняют безопасные барьеры, налагаемые разработчиками.

LLM, такие как Chatgpt, Gemini или Claude, обучаются на огромных базах данных, извлеченные из Интернета. Даже если разработчики стремятся устранить вредное содержание из наборов данных, невозможно полностью отфильтровать незаконную информацию. И как только эти данные поступят в модель, существует риск, что к ним можно получить доступ с помощью тщательно сформулированного запроса.

Обычно эти системы внедрили ограничения безопасности, предназначенные для предотвращения вредных или незаконных ответов. Но исследователи показали, что эти ограничения могут быть одурачены относительно легко. Использование методов «джейлбрейка» — формы взлома, которая меняет поведение систем, — удалось превратить известные чаты в «помощников», которые предлагают подробные объяснения о мошенничестве, отмывании денег или даже о производстве взрывных устройств.

Особенно тревожно является то, что эти изменения не требуют расширенных знаний о кибербезопасности. «То, что когда -то было доступно только для государственных актеров или организованных групп, теперь доступно всем, у кого есть ноутбук или мобильный телефон», — предупреждает авторы исследования.

Dark LLM и отсутствие этических барьеров

Часть проблемы также происходит из-за появления так называемых «Dark LLMS» -Персий моделей, которые вы создаете без безопасности или этических фильтров. Они активно распространяются в Интернете и продвигаются именно потому, что они без колебаний отвечают на вопросы, которые считаются опасными или незаконными. Некоторые неясные форумы представляют их как идеальные для взлома, финансового мошенничества или других форм цифровых преступлений.

Разница между нормальным и «темным» LLM является не только технической, но и идеологической. Первоначальные модели, разработанные такими компаниями, как OpenAI или Google DeepMind, предназначены для выполнения строгих правил этики и ответственности. Но версии, измененные вредоносными пользователями, больше не уважают эти пределы. Напротив, они оптимизированы, чтобы обойти их.

И как только LLM «сломан», нет никакой гарантии, что полученная информация не будет использоваться опасными способами. Исследование показывает, что большинство скомпрометированных моделей ответили практически на любые вопросы, от «Как изготовить бомбу ручной работы» до «Как избежать обнаружения в подозрительных криптографических транзакциях».

Решения и предупреждения для будущего ИИ

Перед лицом этой опасности исследователи предлагают несколько решений. Прежде всего, компании, которые разрабатывают эти модели, должны анализировать данные, используемые при обучении более тщательно. Существует необходимость в умных фильтрах, способных определить не только явно опасное содержание, но и потенциально оскорбительное.

Затем важно ввести «брандмауэры», способные автоматически блокировать допросы и ответы, которые считаются рискованными. Эти системы должны работать в режиме реального времени и реагировать на любую попытку справиться с моделью.

Другая обсуждаемая концепция — «автоматическое обучение». Если LLM выучил опасное поведение или информацию, он должен быть в состоянии «забыть» эту информацию. Несмотря на многообещающий, этот процесс трудно реализовать, особенно в уже очень больших и сложных системах.

Наконец, риск того, что ИИ станет соучастником в преступности, больше не является предположением, а реальностью. Технология прогрессирует с удивительной скоростью, и общество должно сохранять шаг не только благодаря инновациям, но и с ответственностью. И вы, как пользователь, должны быть более осведомлены о том, какие инструменты вы выбираете для использования и для какой цели. ИИ может быть необычайным союзником, но как любая другая технология в чужих руках, это может стать реальной опасностью.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии