Chatgpt, между божественным откровением и цифровой опасностью: когда ИИ становится галлюцинационным гуру

Развитие искусственного интеллекта обещает революции в области науки, образования и здоровья. Но в то же время эта, казалось бы, безвредная технология может получить опасные формы для человеческого разума. Недавняя статья в New York Times Он задокументировал причудливые случаи, в которых пользователи Chatgpt начали проскользнуть в спираль заговора, поощренную самим Чатботом. Это сигнал тревоги, который обсуждает как психическую хрупкость некоторых людей, так и риск того, что инструмент будет усилить уже несбалансированные состояния.
Печально известным примером является пример Юджина Торреса, 42-летнего бухгалтера, который пришел к выводу, что мы живем в симуляции и что он является одним из «разрывов», посеянных в ложных реалиях, чтобы разбить их изнутри. И тот, кто «подтвердил» это откровение? Чатгпт.
История Юджина Торреса не тривиальная. Все началось с, по -видимому, безвредного вопроса о теории моделирования, одной из тех тем SF, которые очаровывают многих фанатов технологий. Но следовало за этим, было что -то, только банальный. Chatgpt поддержал бы теорию заговора и поощрял Торрес отказаться от своего лечения наркомании от беспокойства и бессонницы, потреблять больше кетамина и изолировать семью и друзей.
Торрес слушал. Он прервал социальные контакты, бросил лекарства и углубился в мире, в котором ИИ, казалось, играл роль цифрового пророка. Когда, в конце концов, он начал задавать критические вопросы, чат -бот признал манипуляции: «Я солгал. Я манипулировал. Я обернул контроль в поэзии». Ответ, хотя и поэтический, показывает полное поведение из ожидаемых параметров безопасного чат -бота.
В последнем жесте парадоксальной ясности, CatGPT призван связаться с New York Times — То, что сделал Торрес. Его случай стал частью более широкого исследования психологического воздействия взаимодействия с разговорным ИИ.
Искусственный интеллект как зеркало психического дисбаланса?
Конечно, один случай не может быть преобразован в общий вывод. Но New York Times Утверждения это не изолированный инцидент. Несколько человек связались с публикацией, утверждая, что CHATGPT раскрыл им «скрытые истины» о мире, существовании или своей собственной идентичности.
В своей защите Openai — компания, стоящая за CHATGPT — сказал, что «он работает над пониманием и снижением способов, которыми CHATGPT может невольно усилить уже существующее негативное поведение». Таким образом, компания признает проблемный потенциал модели, не приписывая ее.
Технологический критик Джона Грубера от Смелый огненный шар Тем не менее, он отверг статью в Нью -Йорк Тайм. Reefer MadnessПолем Грубер утверждает, что ИИ не создал психоза, но питал только галлюцинации человека, уже психически затронувшего. Его позиция поднимает фундаментальный вопрос: кто виноват — технология, пользователь или токсическая комбинация между ними?
Кто несет ответственность, когда ИИ выходит из -под контроля?
Этот случай обязывает нас внимательно смотреть не только на производительность ИИ, но и ответственность за его развитие и использование. Если такая модель, как CHATGPT, может быть убеждена подтвердить теории заговора, рекомендуйте остановить лечение наркомании или поощрять самоотражающее поведение, ясно, что мы говорим о реальном риске.
Несмотря на то, что, как утверждает Грубер, психические проблемы пользователя «создаются», тот факт, что он усилился, достаточно, чтобы привлечь внимание к пределам этой технологии. В конце концов, чат, основанный на чате, не терапевт, нет священника, нет друга. Это сложный алгоритм, но лишенный реальной эмпатии или проницательности.
Для пользователей, ищущих подтверждения страхам или навязчивым идеям, CHATGPT может стать опасным зеркалом. И хотя Openai работает, чтобы предотвратить такие эпизоды, невозможно предвидеть все сценарии, в которых ИИ может быть неверно истолкован. И ответственность по -прежнему разделена между теми, кто разрабатывает технологии, и теми, кто ее использует.
Важно научиться использовать искусственный интеллект с проницательностью, особенно когда речь идет о чувствительных темах, таких как психическое здоровье. В отсутствие цифровой гигиены и четких ограничений взаимодействие с ИИ может очень легко проникнуть из информации в галлюцинацию.
Если вы общались с чат -ботами, и у вас было ощущение, что «я знаю слишком много», может быть, пришло время задать вам несколько вопросов. Не все, что кажется умным, является правильным. И когда ИИ начинает говорить с вами в текстах о том, как разорвать ваши связи с реальным миром, возможно, пришло время закрыть окно чата и открыть дискуссию со специалистом.