Когда искусственный интеллект прибывает последнее, и когда они могут уничтожить человечество, согласно анализу Google DeepMind

Искусственный интеллект продвигается с головокружительной скоростью, и вопрос больше не в том, если он достигнет уровня человека, но когда. Новый анализ Google DeepMind, представленный в 145-страничном документе, поднимает как надежды, так и серьезные страхи: генеральный искусственный интеллект, генеральный разум, может стать реальностью быстрее, чем вы себе представляют, и, когда-то разработанная, может быть экзистенциальной угрозой человечеству.
Документ привлекает внимание к чрезвычайным рискам, в том числе возможность AGA, вызывающая необратимое разрушение человечества. Хотя исследователи не вдаются в подробности о том, как это может произойти, сигнал тревоги ясен: срочно необходимы конкретные меры для управления будущим, в котором преобладают более способные интеллекты, чем мы.
Когда может появиться общий искусственный интеллект
Шейн Легг, соучредитель DeepMind, в течение многих лет утверждает, что средний термин для появления AGI-2028 год. Недавно генеральный директор DeepMind, Demis Hassabis, подсчитал, что развитие такого интеллекта может произойти в следующие «пять-десять лет», что ставит горизонт в течение 2030 и 2035 года, согласно CNBC.
Несмотря на этот относительный консенсус, авторы анализа признают, что существует высокая степень неопределенности с точки зрения точной хронологии. Несмотря на это, идея о том, что AGI может стать реальностью в ближайшие пять лет, начинает учитывать все более и более четко среди ведущих исследователей.
Важно отметить, что другие голоса отрасли еще более пессимистичны. Например, Даниэль Кокота, бывший исследователь в Openai, и Скотт Александр, автор блога Astral Codex Ten, недавно опубликовал сценарий, в котором вы преодолели бы человеческий интеллект в 2027 году. Если эти прогнозы подтверждены, мир может вступить в беспрецедентные социальные и политические преобразования.
Какой настоящий риск повышает развитие Ag
Анализ Google DeepMind разделяет угрозы на четыре широкие категории: оскорбительное использование (когда вы намеренно применяются для причинения вреда), появилось несадиность (появилось вредное поведение), ошибки (дизайн или обучение) и структурные риски (конфликты между группами людей или множественными ИИ).
Ключевое наблюдение, подчеркнутое отчетом, заключается в том, что, когда вы выполняете человеческие задачи, существует риск, что люди потеряют свои способности критического мышления. Эта «когнитивная атрофия» может оставить уязвимых пользователей точно, когда различение жизненно важно.
Кроме того, как только AGI становится способной к самостоятельному, контроль над ним может стать невозможным. Суперузоэлексия может принимать решения полностью независимыми от человеческих интересов, с непредсказуемыми и потенциально катастрофическими результатами.
Реакция и скептицизм научного сообщества
Но не все в сообществе согласились с этими прогнозами. Энтони Агирре, директор Института будущего жизни, ценит усилия по управлению рисками, но предупреждает, что «необходимо гораздо больше мер». Он отмечает, что суперинтеллигентность может вызвать столько социальных и политических изменений, что в настоящее время у нас нет реальной модели о том, как мы можем их контролировать.
С другой стороны, такие эксперты, как Гэри Маркус, почетный профессор когнитивных наук в Университете Нью -Йорка, сомневаются в том, что AGI возможно с текущими методами разработки ИИ, таких как модели крупных языков. Он считает, что эти модели не могут по -настоящему соответствовать человеческому интеллекту, особенно с точки зрения обучения из нескольких примеров или рассуждений.
Заключение
Даже если сценарий, который искусственный интеллект для разрушения человечества может показаться экстремальным, его больше не рассматриваются как просто фантазии SF великие исследовательские лаборатории. Google DeepMind и другие крупные игроки открыто признают реальные риски и требуют конкретных мер для предотвращения каких -либо катастрофой.
Будет ли AGA появиться в 2027, 2028 или более поздней версии, несомненно, что мир должен быть подготовлен. В ближайшем будущем вы не только получите последнее, но и существует риск передать нам, не оставляя нам времени, чтобы отреагировать. И то, как мы управляем этим моментом, решит, станет ли искусственный интеллект самым большим союзником человечества или началом конца, согласно Fortune.com.