Как роман «Дюна» пытался предупредить нас об искусственном интеллекте
Хотя на первый взгляд мир «Дюны» кажется во власти фантастических элементов, гигантских червей, веществ, изменяющих восприятие, и загадочных организаций, в нынешнем контексте становится все более актуальной одна из центральных идей сериала — полный запрет искусственного интеллекта.
Батлерианский джихад, или когда люди сказали технологиям «стой»
Во вселенной «Дюны», задолго до основных действий, происходит крупное событие, известное как Батлерианский джихад.
Это бунт пропорций против «мыслящих машин», передовых вычислительных систем и искусственного интеллекта, которые пришли к контролю над обществом.
Причина этого восстания интересна. Это не роботы восстают против людей, как мы видим во многих других научно-фантастических историях.
Настоящей проблемой была чрезмерная зависимость людей от этих систем и концентрация власти в руках тех, кто их контролировал. По сути, опасна была не сама технология, а то, как она использовалась для доминирования.
После этого конфликта правило становится ясным и радикальным: «Не создавайте машину, похожую на человеческий разум». Это закон, который определяет всю цивилизацию Дюны и резко ограничивает технологическое развитие.
Удивительная параллель между «Дюной» и настоящим, в котором мы живем
Даже если Фрэнк Герберт не написал «Дюну» как прямое предупреждение об искусственном интеллекте, его идеи приобретают новый вес в сегодняшнем контексте.
Сегодня ИИ не правит миром, но уже влияет на то, как мы работаем, общаемся и принимаем решения.
Знаменитый отрывок из романа прекрасно отражает эту дилемму: люди позволяют машинам думать за них, думая, что они станут свободнее.
На самом деле это позволило другим получить контроль. Это наблюдение поднимает неприятные вопросы о нашей зависимости от технологий.
Кроме того, появляется все больше исследований, которые показывают, что чрезмерное использование интеллектуальных систем может ухудшить концентрацию, память и критическое мышление. Другими словами, речь идет не просто о теоретическом риске, а об эффектах, которые уже начинают проявляться.
В конечном счете, Дюна не говорит, что искусственный интеллект — это «плохо». Идея более тонкая: любая технология становится опасной, когда люди отказываются от контроля и ответственности.