Чатгпт, любимый инструмент китайских хакеров. Как киберпреступники используют его для злонамеренных целей, согласно Openai

Openai привлекает новый сигнал тревоги о том, как генеративный искусственный интеллект можно отвлечь для вредоносных целей. Согласно недавнему отчету, опубликованному американской компанией, несколько кибер -групп Китая были определены с использованием CHATGPT в качестве инструмента поддержки при выполнении скрытых операций, с целями, которые варьируются от пропаганды до небольших компьютерных атак.
Несмотря на то, что степень наблюдаемых до сих пор остается уменьшенной и, по-видимому, нацелена на ограниченную аудиторию, Openai предупреждает, что универсальность инструментов ИИ-в частности, их способность генерировать код, убедительные тексты и достоверные киберпреступники с контентом.
Что делали китайские хакеры с Chatgpt
Согласно анализу, сделанному OpenAI, исследованные киберпректистические предприятия использовали платформу для серии технических и оперативных мероприятий:
- Osint Research (разведка с открытым исходным кодом): CHATGPT использует для быстрого извлечения информации из общественных источников и для создания простых отчетов -процессов;
- Модификация сценариев и кодов: адаптация вредоносного кода, чтобы избежать обнаружения, включая настройку фишинговых алгоритмов или автоматизацию сценариев, поднимающих пароль;
- Конфигурация цифровых инфраструктур: автоматическая генерация инструкций по установке серверов, настройка VPN и настройки систем, посвященных кибер -операциям;
- Разработка контента для социального влияния: создание пропагандистских сообщений, радикальных политических текстов и постов, ориентированных на манипулирование общественным мнением о социальных сетях.
В отчете также предполагается, что эти группы воспользовались тем фактом, что CHATGPT предлагает когерентный контент на нескольких языках, включая английский и китайский, что облегчает проникновение в различные цифровые пространства без подозрений.
Почему Chatgpt привлекателен для групп хакеров
OpenAI и другие генеративные компании постоянно подчеркивают, что, хотя такие модели, как CHATGPT, можно использовать для образования, бизнеса или программирования, их также можно отвлечь в нелегальные цели, если не тщательно контролироваться.
Кибер -группы, привлеченные такими инструментами, ищут:
- Эффективность — быстрое генерация кода или содержания без обширных человеческих ресурсов;
- Анонимные — взаимодействие с ИИ может быть трудно следовать, если они не связаны с реальными учетными записями;
- Автоматизация — действия могут быть выполнены в больших масштабах с минимальными усилиями.
Примером, приведенным OpenAI, относится к влиянию операции, проводимой китайской группой, которая автоматически генерировала поляризующее политическое содержание без значительного вмешательства человека.
Ответ Openai и отсутствие официальной реакции
OpenAI периодически публикует такие отчеты точно для повышения прозрачности в использовании искусственного интеллекта и поощрения принятия глобальных правил цифровой безопасности.
Компания отключила доступ подозреваемых счетов и сотрудничала с партнерами, чтобы ограничить распространение опасного содержания. С другой стороны, китайские власти еще не ответили на эти обвинения, и министерство иностранных дел Китая не прокомментировало выводы отчета.
Хотя большинство, обнаруженных до сих пор, не оказали серьезного влияния, предупреждение ясно: искусственный интеллект становится все более и больше оружием в цифровом арсенале государственных или частных групп со скрытыми намерениями.