Искусственный интеллект в армии: оружие, которое ускоряет процесс поживания жизней

Недавно высокопоставленный чиновник Пентагона сделал тревожные заявления о том, как достижения в области искусственного интеллекта (ИИ) используются для ускорения процесса смертельных решений на поле битвы. Radha Plumb, главный директор по цифровизации и Пентагону, объяснил в интервью TechCrunch, поскольку современные технологии оптимизируют так называемую «цепь убийств»-военный термин, который обозначает этапы, с помощью которых цель идентифицируется, расположена и атакована Полем
Что такое «цепочка убийства» и как это влияет на это
Согласно документу Института Митчелла 2023 года, «цепочка убийств» относится к военному процессу выявления и нападения целей. Он разделен на шесть важных шагов: поиск, исправление, отслеживание, нацеливание, совершение и оценка. ИИ используется для оптимизации и ускорения этих этапов, обеспечивая большую точность и сокращая время отклика в конфликтных ситуациях.
Radha Plumb сказал, что использование искусственного интеллекта в планировании и стратегии военных операций позволяет командирам принимать более быстрые решения в критических ситуациях.
«Мы увеличиваем способы, которыми мы можем ускорить исполнение цепочки убийств, чтобы наши командиры могли своевременно реагировать, чтобы защитить наши силы», — сказала она.
Более того, свинец подчеркнул, что ИИ полезен для моделирования гипотетических сценариев и изучения вариантов ответа перед лицом угроз.
«Генеративный ИИ может помочь создать сценарии, которые позволяют командирам анализировать различные варианты и компромиссы», — добавила она. Однако использование этой технологии для создания сценариев, которые требуют смертельной силы, вызывает этические и моральные вопросы.
Этика смертоносных решений в эпоху ИИ
Хотя лидерство гарантировало, что смертельные решения всегда включают человеческий надзор, использование ИИ в военном контексте остается чрезвычайно спорной темой.
«По причинам надежности и этики у нас всегда будут люди, вовлеченные в решения по использованию силы, в том числе в случае наших систем вооружения», — сказал чиновник Пентагона.
Это утверждение, хотя и, по -видимому, предназначено для того, чтобы успокоить общественность, поднимает другие вопросы: что произойдет, если это человеческое наблюдение станет все более и более ограниченным, поскольку вы продолжаете развиваться? Кроме того, тот факт, что Пентагон не полностью исключает возможность использования автономного вооружения, предполагает, что в будущем участие человека может быть уменьшено в решениях, связанных со смертельной силой.
Раскрытие, тем более беспокойно, поскольку участие искусственного интеллекта в военных процессах становится все более и более частым. В напряженном геополитическом климате технология может превратить поле битвы в гиперавтоматизированную среду, где преобладает скорость решений, иногда в ущерб этической и моральной оценке.
Использование ИИ в армии открывает новые возможности для эффективности операций, но также для переопределения границ между человеком и технологиями при принятии смертельных решений. Хотя Пентагон утверждает, что этика и надежность остаются приоритетами, последствия этой технологии глубоко противоречивы.