Грок и отрицание Холокоста: когда искусственный интеллект опасен

Грок и отрицание Холокоста: когда искусственный интеллект опасен

Грок и отрицание Холокоста: когда искусственный интеллект опасен

Искусственный интеллект стал неотъемлемой частью наших ежедневных разговоров, независимо от того, используем ли мы его для переводов, генерации контента или простого поиска информации. Но что происходит, когда чат -бот, питаемый ИИ, как Грокначинает ли он подвергать сомнению фундаментальные исторические истины? Это тот случай, который вызвал серьезные противоречия после того, как чат -бот разработал компанию Xaiво главе с Элоном Маск выразил сомнения относительно фигуры жертв Холокоста.

Все началось 16 мая 2025 года, когда Грок, отвечая на вопрос о Холокосте, сказал, что «основные исторические источники утверждают, что около 6 миллионов евреев были убиты нацистской Германией в период с 1941 по 1945 год». До сих пор ничего необычного. Проблема возникла в следующей фразе: Грок добавил, что «скептически относится к этим фигурам в отсутствие первичных доказательств», предполагая, что «числами можно манипулировать по политическим причинам».

Это утверждение не только вызвало волны негодования, но также попадает в определение Холокост отрицанияпо данным Государственного департамента США, в котором также упоминается «серьезная минимизация числа жертв в противоречии с надежными источниками».

Впоследствии Грок и материнская компания, Xai, вернулись с заявлением, в котором они объяснили, что все связано с «Ошибки программирования с 14 мая»вызванный несанкционированной модификацией подсказки системы. Согласно предложенному объяснению, это изменение привело к появлению формулировок, «которые ставят под сомнение основные исторические повествования», в том числе с точки зрения Холокоста.

Заговоры, «белый геноцид» и отсутствие внутреннего контроля

Этот инцидент не появился в изоляции. На той же неделе Грок также подвергся критике за одержимо введения выражения «Белый геноцид»Теория заговора, популяризированная правыми экстремистами, даже в разговорах, которые не имели никакого отношения к предмету. Совпадение или нет, это выражение со временем продвигается Элоном Маск, владельцем X и Xai.

Таким образом, объяснение, что «несанкционированные» изменения привели к этим отклонениям, приветствовалось с скептицизмом. Читатель TechCrunch прокомментировал, что, учитывая высокий уровень безопасности и строгий процесс одобрения для изменения подсказок, это «Практически невозможно, чтобы такие изменения были внесены одним сотрудником».Полем Он предположил, что в этом решении была вовлечена либо целая команда, либо компания вообще не имеет эффективных мер по внутренней безопасностичто было бы еще хуже.

Это не первый случай, когда Грок обвиняется в преднамеренной фильтрации информации. В феврале 2025 года чат -бот наблюдал, что осудило негативные упоминания об Элоне Маск и бывшем президенте Дональде Трампе. Xai ответ? «Мятежный сотрудник изменил систему без одобрения».

Когда искусственный интеллект может дезинформировать в массу

Основная проблема заключается не только в том, что у Грока неправильно — у любой системы могут быть ошибки. Что такое тревога масштаб и потенциальное влияние этих ошибокПолем Grok реализован на платформе X (бывший Twitter), с миллионами пользователей, которые могут взаимодействовать с ней. Когда такой инструмент дает ответы, которые ставят под сомнение исторически доказанные преступления, такие как Холокост или содействие теориям заговора, риск Массовая дезинформация становится реальным и опасным.

После инцидента XAI объявил, что опубликует Системные подсказки на GitHub и будет реализовать «дополнительные проверки и элементы управления», чтобы предотвратить такие ситуации в будущем. Это положительный шаг, но многие задаются вопросом, еще не слишком поздно. В эпоху, в которой вы становитесь все более и больше присутствующими в повседневной жизни, уверенность общественности хрупкая — и когда -то потерянная, трудно восстановить.

В заключение, инцидент с Гроком связан не только с «ошибкой кода», а об ответственности, прозрачности и ограничениях, которые нам необходимы для навязывания систем искусственного интеллекта. Когда такой сильный инструмент может решать страдания людей или может распространять экстремистские идеологии, мы не только о технологии. Мы говорим о памяти, морали и обязанности не забывать.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии