Развитие боевых роботов с искусственным интеллектом: конец человеческого контроля?
Разработка автономных роботов и их использование в военной сфере становится все более распространенным явлением. Сегодня дроны и автономные транспортные средства позволяют солдатам выполнять миссии на расстоянии, оберегая их от опасности. Однако некоторые эксперты предупреждают о рисках, связанных с передачей машинам таких деликатных решений, как нападение на человеческие цели.
Опасный прецедент
В 2020 году, в разгар конфликта в Ливии, дроны-камикадзе без прямого вмешательства человека атаковали колонну Ливийской национальной армии, уничтожив несколько транспортных средств. Эта автономная атака без человеческого приказа является примером будущего, которого можно ожидать на полях сражений.
Возможность принимать решения без человеческого контроля повышает вероятность конфликта, в котором только «холодная логика» искусственного интеллекта (ИИ) определяет, кто выживет, а кто умрет. Сегодня армии по-прежнему держат «человека в курсе», то есть человека, который санкционирует любое нападение.
Однако быстрое развитие искусственного интеллекта приводит к созданию все более автономных систем, способных перемещаться и, в некоторых случаях, планировать маршруты без помощи человека. Например, использование ИИ в военных дронах поднимает дилемму: наступит ли время, когда вмешательство человека станет нежизнеспособным и неэффективным в разгар быстрых и динамичных боев.
Война и эмоциональная дистанция
С древних времен эволюция оружия позволяла людям дистанцироваться от уничтожения своих соседей. От ручного оружия, такого как копья и ножи, до огнестрельного оружия и ракет — каждое усовершенствование создавало психологический и физический барьер между солдатом и его целью.
Сегодня, с развитием дронов и автономных систем вооружения, война достигла точки, когда расстояние становится не только физическим, но и эмоциональным и этическим. Сэмюэл Бендетт, исследователь Центра новой американской безопасности, отмечает, что стоимость военной автономии со временем снизится, что позволит развертывать эти системы в больших количествах.
В этом сценарии людям будет сложно реагировать на атаки, осуществляемые автономными системами, поскольку они будут действовать на нескольких фронтах — наземном, воздушном, морском и кибербезопасном — одновременно. Это может заставить военных полагаться на автономные системы для самозащиты и принятия решения о ходе своих действий.
Опасности ошибок в военном ИИ
Несмотря на достижения, искусственный интеллект по-прежнему совершает ошибки. Зак Калленборн, эксперт по автономному оружию, предупреждает, что современные системы компьютерного зрения склонны к сбоям, которые могут привести к жертвам среди гражданского населения или ошибкам, которые ведут к эскалации конфликтов.
Автономное оружие может атаковать солдата, не имеющего отношения к конфликту, что спровоцирует международное возмездие.
В экстремальных ситуациях, таких как использование автономного ядерного оружия, ошибки ИИ могут иметь катастрофические последствия.
С другой стороны, есть ситуации, когда автономия может снизить риск, например, в случае оборонительного оружия, защищающего корабль в открытом море от ракет противника.
В этих сценариях риск воздействия на мирное население невелик. Однако Калленборн подчеркивает, что «моральное мужество» человека взять на себя ответственность за лишение жизни остается решающим. Устранение человеческого решения в войне может означать, что этические критерии и сострадание исчезнут из этих конфронтаций.
Не судьба
Тенденция к все более автономной войне очевидна и для некоторых неизбежна.
По мере развития технологий становится все труднее оправдывать присутствие человека в каждом боевом решении.
Однако этот переход поднимает насущные вопросы: сможет ли ИИ надежно различать комбатантов и гражданских лиц? Будут ли страны готовы принять побочный ущерб во имя ускорения войны?
Хотя сегодняшние военные по-прежнему предпочитают, чтобы люди участвовали в процессе принятия решений, стремление получить стратегические преимущества может привести к будущему, в котором машины станут главными участниками конфликтов, что пугающе напоминает повествование, поднятое в саге о Терминаторе , где машины , созданные для аналогичных целей, решают, что врагом является само человечество.
Время покажет, примет ли история поворот, аналогичный художественной, или общество найдет баланс между инновациями и этической ответственностью.
Интересно