Агент искусственного интеллекта A1, созданный исследователями, может украсть криптовалюты: насколько опасно для безопасности блокчейна?

Агент искусственного интеллекта A1, созданный исследователями, может украсть криптовалюты: насколько опасно для безопасности блокчейна?

Агент искусственного интеллекта A1, созданный исследователями, может украсть криптовалюты: насколько опасно для безопасности блокчейна?

Группа исследователей из Университетского колледжа Лондона и Университета Сиднея разработала агента, которого вы, способный обнаружить и использовать ошибки безопасности, написанные в отношении прочности, языка, используемого в сетях блокчейна, таких как Ethereum или Binance Smart Chain.

Автоматизированная система, называемая A1, продемонстрировала заметную эффективность, генерируя исполняемый код, который можно использовать для автономного кражи криптовалют, пишет регистр

A1, агент AI, который производит функциональный и прибыльный код атаки

В отличие от других инструментов, ориентированных на безопасность, A1 не ограничивается отчетом о возможной уязвимости. Этот агент может напрямую создавать функциональную эксплуатацию, протестированную в исторических моделируемых средах в блокчейне.

Согласно исследованию, недавно опубликованному в академической статье, A1 был протестирован на 36 реальных интеллектуальных контрактах и имел успех в 63% в создании жизнеспособной эксплуатации.

Используемые агенты включали модели, разработанные OpenAI (O3 и O3-Pro), Google (Gemini), Deepseek и Alibaba (QWEN).

Модели OpenAI оказались наиболее эффективными: в пяти велосипедных взаимодействиях O3-Pro выявил уязвимости и оптимизированные выигрыши в 88,5% случаев, получая прибыль, которая может достигать 8,5 млн. Долл. США.

Инструменты, интегрированные в A1, включают модули для извлечения исходного кода, инициализации параметров, интерпретации функций контракта, тестирования кода и оценки потенциальной прибыли.

Таким образом, система функционирует как полностью автоматизированный «хакер», способный понимать, оценивать и атаковать интеллектуальный контракт без вмешательства человека.

Низкие затраты, высокие юридические риски и проблема асимметрии

Стоимость за эксперимент колеблется от 0,01 до 3,59 долл. США, что означает, что эксплуатация в размере 100 000 долл. США может пройти тысячи дополнительных тестов, в то время как вознаграждение за щедрость для «Уайтхатов» покрывает небольшую долю.

Авторы обращают внимание на огромную разницу в эффективности между злоумышленниками и защитниками: если злоумышленники используют ИИ, и классические методы, затраты и скорость защитников будут наклоняться в пользу преступников.

Исследователи рекомендуют командам разработчиков использовать такие инструменты сами, постоянно проверять свои собственные протоколы и предотвратить атаки перед злоумышленным актером для их эксплуатации.

Они говорят, что нынешняя экономическая модель кибербезопасности в Web3 не является устойчивой, потому что она включает в себя преувеличенную уверенность в добросовестности тех, кто находит уязвимости.

Хотя первоначально исследователи объявили, что они будут публиковать A1 в качестве проекта с открытым исходным кодом, это решение было переоценено, учитывая потенциально разрушительную силу агента. Согласно официальным заявлениям, публикация Кодекса была отложена до тех пор, пока не будет установлено четкое этическое направление.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии