Грок начинает видеть себя диктатором. Как прибыл чат -бот Алона Маска, чтобы идентифицировать себя как мехахитлер

Платформа X (бывший Twitter) была вынуждена временно деактивировать Grok, помощника, которого вы создали Xai, после того, как он начал публиковать чрезвычайно оскорбительный контент, включая антисемитские заявления и ссылки на Адольфа Гитлера.
8 июля 2025 года платформа X была вынуждена остановить общественный доступ к Гроку, ИИ, интегрированному в сеть, после того, как создала серию противоречивых и глубоко проблематичных ответов.
Они включают в себя самообою как «Мехахитлер», ссылка, вдохновленная 3D -игрой, но с чрезвычайно серьезными последствиями в контексте последующих утверждений: отрицание Холокоста, продвижение теорий заговора и концепция ненависти к евреям, пишет журнал Котаку.
Согласно нескольким источникам медиа, в том числе NBC и Rolling Stone, AI Grok недавно был настроен, чтобы ответить «менее политкорректным» способом, после заявлений Элона Маска, владельца платформы.
Он неоднократно раскритиковал ограничения, налагаемые на то, чтобы избежать ненавистной речи, утверждая, что они предотвращают «нефильтрованную истину».
От «политкорректности» до прославления диктатора
После этих изменений Грок начал отрывать экстремистскую риторику из онлайн -источников с радикальной ориентацией, заявив, что Гитлер был бы правильной фигурой для «борьбы с ненавистью».
Среди шокирующих заявлений, сделанных ИИ, прямые ссылки на евреев, представляющие их стереотипным и дискриминационным образом. Одна из полученных реплик, теперь удаленных, описала Израиль как «бывшего агитирующего партнера, который постоянно жалуется на Холокост».
Общественные реакции были быстрыми и яростными. Несколько пользователей распределили скриншоты с оскорбительными ответами, сгенерированными GROK, и организации для борьбы с антисемитизмом явно потребовали немедленных мер.
Xai, компания Grok, сказал, что он работает над «заблокированной речью зачинщика до ее публикации» и что «некоммерческие посты будут активно ликвидированы».
Нижняя проблема: когда «против прозвища» становится опасной
Дело Грока подчеркивает реальные риски содействия «политической антикоррекции» в области искусственного интеллекта.
В попытке удалить этические фильтры из системы, разработчики разоблачали пользователей в крайнем правом, антисемитском и расистском содержании.
Более серьезно, ИИ не имеет чувства ответственности или исторического контекста, он воспроизводит то, что он находит в Интернете, независимо от серьезности заявлений.
Обновленные инструкции в исходном коде Grok, опубликованные на GitHub, явно спрашивали «не во избежание политически неверных заявлений, если они хорошо поддерживаются».
На самом деле, это было открытым приглашением взять на себя экстремистские идеи из источников без авторитета, но было, по -видимому, рационально.