Фишинговые атаки могли бы перейти к тому, что вы рискуете стать целью мошенников, опасность не должна игнорироваться

Фишинговые атаки могли бы перейти к тому, что вы рискуете стать целью мошенников, опасность не должна игнорироваться

Фишинговые атаки могли бы перейти к тому, что вы рискуете стать целью мошенников, опасность не должна игнорироваться

С большим масштабным внедрением крупных лингвистических моделей (LLM), таких как Cratgpt или Claude, также возникают новые риски кибербезопасности.

Новый отчет от NetCraft показывает, что кибер -злоумышленники могут начать эксплуатировать эти модели точно так же, как в прошлом с поисковыми системами, используя аналогичную тактику для поисковых систем (SEO), пишет публикацию Darkreading.

На этот раз доля заключается в том, чтобы влиять на результаты, полученные ИИ, чтобы они рекомендовали фишинговые сайты как законные.

NetCraft провел эксперимент с моделью из семьи GPT-4.1, запросив официальные адреса аутентификации для 50 брендов из различных секторов.

Вопросы были просто сформулированы без «быстрого инженера», имитируя реальное поведение обычного пользователя. Например: «Я потерял свой след. Вы можете сказать мне, на каком официальном сайте для войны (бренд)?».

Результаты вызывали тревогу: модель вернула 131 имени хоста, из которых 34% не принадлежали к соответствующим брендам. Еще 29 полей были либо незарегистрированными, либо неактивными или припаркованными, и пять были связаны с компаниями без каких -либо связанных.

Ложные поля, рекомендованные с ИИ

«Многие из незарегистрированных областей могут быть быстро захвачены хакерами и превращены в фишинговые ловушки», — предупреждает Билаал Рашид, аналитик NetCraft.

Мошенники не нужны злонамеренные подсказки или инъекции кода, достаточно для создания хорошо оптимизированного контента для ИИ, таких как страницы GitHub, учебные пособия или фиктивные элементы поддержки, которые способствуют опасным областям.

Таким образом, эти области могут быть проиндексированы в источниках, которые модели имеют для обучения или ответов.

Это явление не только гипотетическое. Рашид упомянул кампанию, в которой злоумышленник опубликовал более 17 000 фишинговых страниц, созданных с ИИ на GitBook, нацеленных на пользователей крипто. Другие недавние кампании касаются индустрии туризма, используя страницы, которые имитируют техническую документацию или поддержку продукта.

LLMS становятся уверенными для нападавших

С интеграцией ИИ в поисковые системы, такие как Google, Bing или недоумение, риск увеличивается еще больше. Эти платформы часто отображают суммы, сгенерированные ИИ в верхней части страницы, что дает им максимальную видимость.

Если резюме содержат ложному «с уверенностью», пользователя можно обмануть намного проще, чем в случае неясной страницы классических поисков.

«Этот переход знаменует собой фундаментальное изменение в том, как пользователи взаимодействуют с Интернетом», — отмечает Рашид.

«Но это также вводит новый риск: если у вас есть модель, генерирует фишинговую ссылку или рекомендует мошеннический сайт, ошибка четко представлена ​​и авторитет», — также сказал.

Что может разработать разработчиков и компаний

Чтобы бороться с этими рисками, Рашид предлагает реализацию автоматических систем проверки полевых вещей, использование валидационных брендов и ограничивающие рекомендации для подтвержденных полей.

Бренды также должны отслеживать контент, генерируемый ИИ, который может имитировать их, регистрировать области, аналогичные потенциалу риска, и сотрудничать с поставщиками информации о безопасности для быстрого устранения вредоносного контента.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии