Журнал Nature опубликовал обзор положения дел, связанных с разработкой и использованием летального автономного оружия под управлением искусственного интеллекта (ИИ). Эксперты считают, что такое оружие не только активно разрабатывается, но уже применяется на реальном поле боя.
В конфликте между Россией и Украиной на многих видеозаписях видно, как дроны проникают глубоко на российскую территорию, на расстоянии более 1000 километров от границы, и разрушают нефтегазовую инфраструктуру. По мнению экспертов, вполне вероятно, что ИИ помогает направлять дроны на цели. Скорее всего, посредственное решение об атаке в этом случае ИИ принимает без команды человека.
Разработка летального автономного оружия (LAW), в том числе дронов, оснащенных искусственным интеллектом, находится на подъеме. Например, министерство обороны США уже выделило миллиард долларов на свою программу “Репликатор”, целью которой является создание парка небольших автономных машин, несущих летальное оружие. Были созданы экспериментальные подводные лодки, танки и корабли, которые используют ИИ для самостоятельного пилотирования и ведения огня. Коммерчески доступные дроны могут использовать распознавание изображений с помощью ИИ, чтобы наводить оружие на цель и ее уничтожать. Для работы LAW не нужен искусственный интеллект, но ИИ резко повышает точность наведения на цель и способность уклоняться от поражения.
Некоторые эксперты опасаются будущего, в котором злоумышленники смогут отправить стаю дешевых дронов с искусственным интеллектом, чтобы уничтожить конкретного человека. “Технические решения, необходимые, чтобы найти человека и убить его, намного проще, чем, например, разработка беспилотного автомобиля”, – говорит журналу Nature Стюарт Рассел, ученый из Калифорнийского университета в Беркли, один создателей фильма “Slaughterbots” (“Убойные боты”), в котором были показаны риски создания летального ИИ.
Появление ИИ на поле боя вызвало споры среди исследователей, экспертов по правовым вопросам и специалистов по этике. Некоторые специалисты утверждают, что оружие, использующее ИИ, может быть более точным, чем оружие, управляемое человеком: ИИ-оружие может потенциально уменьшить как сопутствующий ущерб (например, жертвы среди гражданского населения и ущерб жилым строениям), так и потери среди военнослужащих. Другие эксперты наоборот подчеркивают, что автономное оружие может совершать катастрофические ошибки.
Генеральный секретарь ООН Антониу Гутерриш заявил в июле 2023 года, что он хочет, чтобы к 2026 году был введен запрет на оружие, которое действует без контроля человека. Но это достаточно сложно. Одна из проблем контроля за LAW, заключается в том, что существует множество определений того, что же такое “летальное автономное оружие”. Чтобы контролировать этот вид вооружений на международном уровне, надо сначала договориться как его определять. Но консенсуса на сегодня нет.
Например, Nature приводит мнение представителя Израиля: “Мы должны держаться подальше от воображаемых представлений о том, как машины развиваются, создают или активируют себя – их следует оставить для научно-фантастических фильмов”.
Но летальное автономное оружие под управлением ИИ, по-видимому, уже существует и применяется. “Я думаю, сейчас общепринято, что Украина использует полностью автономное оружие, потому что электронные помехи высоко эффективны”, – говорит Рассел. При высоком уровне помех дрон фактически предоставлен самому себе. Один из руководителей украинской аэроразведки Ярослав Гончар, заявил, что страна “уже проводит полностью роботизированные операции без вмешательства человека”.
Хотя данные об участии летального автономного оружия в реальных боевых действиях очень ограничены (военные не публикуют такую информацию), исследователи отмечают, что ИИ обладает превосходными качествами для обработки изображений и принятия решений, которые теоретически дают значительное преимущество на поле боя.
Эксперты отмечают, что любой запрет на использование LAW будет трудно обеспечить посредством проверок и наблюдений – классический подход “доверяй, но проверяй”, обычно используемый при контроле вооружений, здесь может не сработать. Разработку такого оружия легко скрыть или замаскировать под вполне легальные проекты.
Но большинство экспертов сходится на том, что контроль LAW необходим. Иначе самые фантастические сценарии могут реализоваться, и ИИ однажды примет решение о летальной атаке сам, без команды или даже вопреки команде человека.