Должны ли мы опасаться гонки интеллектуальных вооружений?

1272

Вы прочитаете этот материал за 4 минуты.

Преимущества исследований искусственного интеллекта в военных целях перевешивают риски. Пока.

Этим летом, многие из титанов технологий, в том числе Стивен Хокинг, Элон Маск, и Стив Возняк, подписали призыв к запрету на применение искусственного интеллекта (ИИ) в системах вооружения.

Призыв к запрету идет в разрез с видением Пентагона будущей войны, которое включает повышенное внимание к ИИ и беспилотным системам, особенно в киберпространстве и в подводной среде. Заместитель Министра обороны США Роберт Ворк, сказал: «Мы убеждены, что люди должны быть единственными, кто решает, когда следует использовать смертоносную силу. Но когда ты атакован…, мы хотим иметь машину, которая может защитить нас».

В отличие от предыдущих автономных систем вооружения, таких как наземные мины, которые были неизбирательны, высокоточное интеллектуальное оружие может ограничить вероятность гибели солдат и гражданских лиц. «Замена человека-солдата машинами хороша из-за снижения потерь, но плохо то, что тем самым снижается порог готовности сражаться»,- пишут авторы обращения. Но действительно ли запрет лучший вариант?

Запрет является самой крайней формой регулирования и к нему следует прибегать только тогда, когда ответ на оба из следующих вопросов «да». Вопрос 1: Риски превышают выгоды? Вопрос 2: Может ли запрет существенно снизить риски?

С другой стороны, технология должна быть только нерегулируемой, если риски от неё незначительны и цена запрета выше вероятного вреда.

Преимуществами интеллектуального вооружения является снижение побочного ущерба, увеличенная скорость реакции может предотвратить некоторые нападения, автономность должна удалить солдат с поля боя. К рискам относятся события и действия, сгруппированные в следующие пять категорий: управление, хакерство, определение целей, ошибки и ответственность.

Управление: можно ли управлять искусственным интеллектом? Или он в конечном счете будет управлять нами? Это знакомая история из многих голливудских блокбастеров, где машины имеют цели и желания, которые противоречат интересам их создателей. Шансы на то, что это произойдет в ближайшем будущем достаточно низки.

Взлом: системы ИИ уязвимы? Не обязательно. Современные электронные системы, в том числе оружие, могут иметь уязвимости. Сложно написать вредоносную программу для машины, имеющей свой собственный алгоритм. Преимущества перевешивают риски, но эти риски могут и должны быть сокращены.

Определение цели: должен ли человек всегда принимать окончательное решение? В большинстве случаев смысла отстранять человека нет. Исключением является ситуация, когда ИИ может минимизировать ущерб, действуя быстро, предотвратив агрессию или выиграть время, чтобы принять решение. Возможно определение конкретных ситуаций, при котором системам будет позволено продолжить работу без вмешательства человека. Также возможно, что системы ИИ, оснащенные нелетальным вооружением, могут иметь почти все преимущества с уменьшенным риском.

Ошибки: может ли оружие с ИИ ошибаться? Возможно, но люди ошибаются однозначно. Уже разработаны и протестированы машины которые почти всегда более надежны, чем люди. Системы ИИ оружия могут быть проверены со строгими стандартами проектирования и тестирования. Это должно быть приоритетом в развитии систем ИИ.

Ответственность: если предположить, что будут ошибки, сам ИИ не будет нести ответственность. Так кто же? Возможно, правильнее возложить ответственность на лицо, контролирующее боевое применение, или финансовую ответственность на производителя и персональную на соответствующего военнослужащего.

Этот список не охватывает все возможные проблемы или преимущества. Разумные люди могут не соглашаться в части рисков и преимуществ, но этого мало, чтобы оправдать запрет (оружия с ИИ). Также трудно оправдать противоположную крайность, отказываясь от защитных требований.

Целью регулирования является максимизация преимуществ при минимизации риска и есть значимые аргументы, в пользу того, что оружие с ИИ в данный момент может быть исключительно положительным явлением. Это не значит, что риск напрочь отсутствует. Просто преимущества существенные и риски могут быть смягчены регулированием, а не запретами.

Титаны мира технологий заслуживают благодарности за предупреждение о потенциальных рисках военного использования искусственного интеллекта.

Необходимо совершенствовать нормативную и технологическую стороны производства и применения вооружения с ИИ, насколько это возможно сторону гумманизации.

С незначительными сокращениями.

Эндрю Лон, ассоциированный инженер корпорации RAND,
Эндрю Парасилити, директор Центра глобальных рисков и безопасности при корпорации RAND,
Уильям Уэлсер четвертый, директор инженерных и прикладных наук в корпорации RAND, для Defense One.

Logo_руна