Нарастающая оппозиция автономным оружейным системам со стороны различных акторов свидетельствует о том, что общественность поддерживает запрещение неподконтрольного человеку оружия.

Внять призыву

Запрет боевых роботов – это моральный и правовой императив

Нарастающая оппозиция автономным оружейным системам со стороны различных акторов свидетельствует о том, что общественность поддерживает запрещение неподконтрольного человеку оружия. © 2018 Russell Christian/Human Rights Watch

 

Резюме доклада

В случаях, не предусмотренных настоящим Протоколом или другими международными соглашениями, гражданские лица и комбатанты остаются под защитой и действием принципов международного права, проистекающих из установившихся обычаев, принципов гуманности и требований общественного сознания.
– Оговорка Мартенса, как указано в Протоколе I к Женевским конвенциям в 1977 году

Полностью автономные оружейные системы являются одной из самых опасных военных технологий, которые разрабатываются в настоящее время. В связи с этим существует настоятельная необходимость того, чтобы государства, эксперты и общественность тщательно изучили эти оружейные системы с точки зрения оговорки Мартенса, уникального положения международного гуманитарного права, которое устанавливает основу защиты гражданских лиц и комбатантов, когда нет какого-либо конкретного договорного права, которое можно применить в ситуации. В этом докладе рассматривается вопрос о том, что полностью автономные оружейные системы, которые смогут выбирать и поражать цели без значимого контроля со стороны человека, противоречат обеим составляющим оговорки Мартенса: принципам человечности и требованиям общественного сознания. В соответствии с оговоркой Мартенса, государствам следует принять упреждающий запрет на разработку, производство и применение данных оружейных систем.

Быстрое развитие автономных технологий и искусственного интеллекта (ИИ) означает, что полностью автономные оружейные системы могут стать реальностью в обозримом будущем. Эти оружейные системы, также известные как «роботы-убийцы» и автономные системы оружия летального действия, поднимают множество вопросов морального, правового, подотчетного, оперативного, технического характера и вопросов безопасности. Данные оружейные системы являются предметом обсуждений на международной арене с 2013 года. В том же году началась кампания «Остановить роботов-убийц», коалиция гражданского общества, которая стала призывать государства к обсуждению этого вида оружия. После проведения трех неофициальных заседаний экспертов, государства-участники Конвенции по конкретным видам обычного оружия (Конвенция о «негуманном» оружии, КНО) начали официальные переговоры по этому вопросу в 2017 году. В августе 2018 года примерно 80 государств вновь соберутся на следующем заседании Группы правительственных экспертов КНО.

При оценивании государствами-участниками КНО полностью автономных оружейных систем и их будущего, оговорка Мартенса должна быть центральным элементом обсуждений. Данная оговорка, которая является общим признаком международного гуманитарного права и договоров о разоружении, заявляет, что в отсутствие международного соглашения, установившиеся обычаи, принципы человечности и требования общественного сознания должны обеспечивать защиту гражданских лиц и комбатантов. Эта оговорка применяется к полностью автономным оружейным системам, поскольку они не рассматриваются конкретным международным правом. Мнения экспертов в отношении точного юридического значения оговорки Мартенса расходятся, некоторые считают, что оговорка повторно напоминает о соблюдении обычного права, для других она является независимым источником права, либо служит инструментом толкования существующих договоров. Однако, как минимум, оговорка Мартенса представляет для рассмотрения ключевые факторы при оценивании государствами оружия новейших технологий, включая полностью автономные оружейные системы. Оговорка создает моральный стандарт, с помощью которого оцениваются оружейные системы.

Принципы гуманности

Из-за отсутствия у полностью автономных оружейных систем эмоций, правовых и этических суждений возникают серьезные препятствия в отношении соблюдения принципов человечности. Эти принципы требуют гуманного отношения к другим и уважения к человеческой жизни и человеческому достоинству. Люди мотивированы относиться друг к другу гуманно, потому что они чувствуют сострадание и сочувствие к своим ближним. Правовое и этическое суждение для людей, являясь средством минимизации вреда, позволяет им принимать взвешенные решения на основе понимания конкретной ситуации. Являясь машинами, полностью автономные оружейные системы не смогут стать разумными существами, способными чувствовать сострадание. Вместо здравого суждения, такие оружейные системы будут основывать свои действия на запрограммированных алгоритмах, которые плохо подходят в сложных и непредсказуемых ситуациях.

Признание уважения к человеческой жизни влечет за собой минимизацию убийства. Правовое и этическое суждение помогает людям взвешивать различные факторы, чтобы предотвратить произвольные и неоправданные потери жизни при вооруженных конфликтах и в других ситуациях. Для полностью автономных оружейных систем будет сложно разработать такое суждение, которое формировалось как на протяжении всей истории человечества, так и в течение жизни каждого человека; невозможно предварительно запрограммировать в машинные системы все вероятные сценарии в соответствии с принятыми правовыми и этическими нормами. Кроме того, у большинства людей есть врожденное сопротивление убийству, основанное на их понимании эффекта от потери жизни, которого не может быть у полностью автономных оружейных систем, так как это неодушевленные машины.

Даже если бы полностью автономные оружейные системы могли в достаточной мере защитить человеческую жизнь, они все равно неспособны были бы проявлять уважение к человеческому достоинству. В отличие от людей, эти роботы не смогут в полной мере оценить ценность человеческой жизни и значимость ее потери. Они будут принимать решения о жизни и смерти на основе алгоритмов, сведя свои живые цели к объектам. Таким образом, полностью автономные оружейные системы нарушают принципы человечности во всех направлениях.

Требования общественного сознания

Возрастающее недовольство перспективой использования полностью автономных оружейных систем говорит о том, что эта новая технология также противоречит второй составляющей оговорки Мартенса – требованиям общественного сознания. Эти требования состоят из моральных принципов, основанных на знании того, что правильно и что неправильно. Они могут утверждаться через мнения общественности и правительств.

Многие личности, эксперты и правительства стран решительно возражают против полностью автономных оружейных систем. Большинство респондентов в многочисленных опросах общественного мнения высказались против этого вида оружия. Эксперты, которые прорабатывали этот вопрос более детально, опубликовали открытые письма и заявления, отражающие мнение общественности даже лучше, чем опросы. Международные организации и неправительственные организации (НПО), наряду с лидерами в области разоружения и прав человека, мира и религии, науки и техники, промышленности, считают настоятельно необходимым требовать запрета полностью автономных оружейных систем, особенно, исходя из моральных соображений. Они осудили эти оружейные системы, высказав, что такое оружие является «противоречащим здравому смыслу», «чудовищным ... по отношению к священной сущности жизни», «неразумным» и «неэтичным».

Главные проблемы в ситуации с полностью автономными оружейными системами, на которые ссылаются правительства, это несоблюдение оговорки Мартенса и отсутствие моральных качеств. По состоянию на июль 2018 года 26 государств поддержали упреждающий запрет, более 100 государств призвали к принятию юридически обязательного документа для решения проблем, связанных с автономными системами оружия летального действия. Почти каждое государство-участник КНО, которое выступало на последнем совещании в апреле 2018 года, подчеркнуло необходимость сохранения значимого контроля со стороны человека при применении вооруженной силы. Возникающий консенсус в отношении сохранения значимого контроля со стороны человека, который фактически эквивалентен запрету на оружие, которое не имеет такого контроля, показывает, что общественное сознание решительно против полностью автономных оружейных систем.

Необходимость в договоре об упреждающем запрете

Оценка полностью автономных оружейных систем в соответствии с оговоркой Мартенса подчеркивает необходимость в новом законе, который будет как достаточно конкретным, так и сильным. Одного регламента, допускающего существование полностью автономных оружейных систем, недостаточно. Например, ограничение использования в определенных местностях не позволяет предотвратить риск распространения среди субъектов, которые мало учитывают человеческое обращение или жизнь людей, а также не уважают достоинства гражданских лиц или комбатантов. Кроме того, общественность заявляет о поддержке запрета на полностью автономные оружейные системы или их эквиваленты – требование значимого контроля со стороны человека. Для обеспечения соблюдения принципов человечности и требований общественного сознания государства должны упреждающе запрещать разработку, производство и использование полностью автономных оружейных систем.

 

Рекомендации

Для предотвращения юридических, моральных и других рисков, создаваемых полностью автономными оружейными системами, и потери значимого контроля со стороны человека над выбором целей и их поражением, Хьюман Райтс Вотч и Международная клиника прав человека (МКПЧ) Гарвардской школы права рекомендуют:

Государствам-участникам КНО

  • На своем ежегодном совещании в ноябре 2018 года принять мандат о проведении переговоров по новому протоколу, запрещающему полностью автономные оружейные системы или автономные системы оружия летального действия, с целью завершения переговоров к концу 2019 года.
  • Использовать промежуточное заседание Группы правительственных экспертов в августе 2018 года для представления четких национальных позиций и прийти к согласию относительно необходимости принятия мандата о проведении переговоров на ежегодном совещании в ноябре.
  • Разработать национальные позиции и принять национальные запреты в качестве ключевых блоков для международного запрета.
  • Выразить протест в отношении полностью автономных оружейных систем, в том числе исходя из юридических и моральных соображений, отраженных в оговорке Мартенса, в целях дальнейшего развития существующего общественного сознания.

Экспертам в частном секторе

  • Противостоять смещению значимого контроля при применении вооруженной силы от человека к оружейным системам.
  • Публично выразить явную поддержку призыву запретить полностью автономные оружейные системы, в том числе исходя из юридических и моральных соображений, отраженных в оговорке Мартенса, и настоятельно призвать правительства начать переговоры о новом международном договоре.
  • Дать обязательство не разрабатывать и не использовать ИИ при проектировании полностью автономных оружейных систем, используя кодексы этических норм, заявления о принципах и другие меры, гарантирующие, что частный сектор не будет заниматься разработкой, производством или использованием полностью автономных оружейных систем.
 

I. Вводная информация о полностью автономных оружейных системах

Полностью автономные оружейные системы смогут выбирать и поражать цели без значимого контроля со стороны человека. Это неприемлемый этап, он идет еще дальше, чем применение уже существующих беспилотных летательных аппаратов с летальным вооружением на борту, поскольку человек не будет принимать окончательного решения об использовании силы в отдельных атаках. Таких полностью автономных оружейных систем, также известных как автономные системы оружия летального действия и «роботы-убийцы», пока не существует, но они находятся в стадии разработки, а военные инвестиции в автономные технологии растут с угрожающей скоростью.

Риски полностью автономных оружейных систем перевешивают их предполагаемые выгоды. Сторонники данных систем вооружений подчеркивают, что новая технология может спасать жизни солдат, обрабатывать данные и работать на больших скоростях, чем традиционные системы, будет неуязвимой к страху и гневу, которые могут привести к жертвам среди гражданского населения. Однако полностью автономные оружейные системы поднимают массу серьезных вопросов, многие из которых, как подчеркивает Хьюман Райтс Вотч, были опубликованы в предыдущих публикациях. Во-первых, передача машинам решений по вопросам жизни и смерти выходит за пределы морали. Во-вторых, полностью автономные оружейные системы сталкиваются с серьезными проблемами несоответствия международному гуманитарному праву и правам человека. В-третьих, они создадут разрыв на уровне подотчетности, потому что будет трудно привлечь кого-то к ответственности за непредвиденный вред, причиненный автономным роботом. В-четвертых, полностью автономное оружие будет уязвимым для подмены и взлома системы. В-пятых, это оружие поставит под угрозу глобальную безопасность, поскольку такие системы могут привести к гонке вооружений, распространиться среди субъектов, которые не соблюдают международное право, и приведут нас к войне.[1]

В этом докладе внимание уделяется еще одной проблеме, которая затрагивает право и мораль, то есть вероятность того, что полностью автономные оружейные системы будут противоречить оговорке Мартенса. Это положение международного гуманитарного права требует от государств учитывать принципы человечности и требования общественного сознания при изучении новых технологий вооружений. Общей чертой Женевских конвенций и договоров в области разоружения является то, что оговорка представляет собой юридическое обязательство государств учитывать моральные аспекты.

Множество проблем, создаваемых полностью автономными оружейными системами, в том числе в соответствии с оговоркой Мартенса, требуют срочных действий. Несколько стран предложили применить выжидательный подход, учитывая тот факт, что пока неясно, что смогут достичь технологии. Тем не менее, высокие риски указывают на необходимость принятия мер предосторожности. Научная неопределенность не должна мешать действиям по предотвращению того, что некоторые ученые назвали «третьей революцией в войне, после пороха и ядерного оружия».[2] Страны должны принять упреждающий запрет на разработку, производство и использование полностью автономных оружейных систем.

 

II. История оговорки Мартенса

Оговорка Мартенса, возникшая в результате дипломатического компромисса, служила гуманитарным целям. В ней говорится, что в отсутствие конкретного договорного права, установившиеся обычаи, принципы гуманности и требования общественного сознания обеспечивают защиту гражданских лиц и комбатантов. С момента своего появления оговорка Мартенса стала общей характеристикой основных инструментов международного гуманитарного права. Эта оговорка также фигурирует в многочисленных договорах по разоружению. Защиты, которые дает оговорка Мартенса, и юридическое признание, которое она получила, подчеркивают ее ценность при исследовании новых оружейных систем, которые могут причинить гуманитарный вред на поле военных действий и за его пределами.

Происхождение оговорки Мартенса

Оговорка Мартенса впервые появилась в преамбуле Гаагской конвенции 1899 года, в которой содержится Положение о законах и обычаях сухопутной войны. В этом варианте оговорка Мартенса гласит:

Впредь до того времени, когда представится возможность издать более полный свод законов войны, Высокие Договаривающиеся Стороны считают уместным засвидетельствовать, что в случаях, не предусмотренных принятыми ими постановлениями, население и воюющие остаются под охраною и действием начал международного права, поскольку они вытекают из установившихся между образованными народами обычаев, из законов человечности и требований общественного сознания.[3]

Таким образом, оговорка обеспечивает базовый уровень защиты гражданских лиц и комбатантов, когда не существует конкретного закона.

Российский дипломат и юрист Федор Федорович Мартенс предложил оговорку Мартенса как способ выйти из переговорного тупика на Гаагской мирной конференции 1899 года, которая была созвана для принятия правил, сдерживающих войну, для сокращения расходов на вооружение и содействия миру.[4] Великие державы и меньшие государства не могли договориться о том, до какой степени оккупационные силы могли применять силу над местным населением. Великие державы настаивали на новом договоре, разъясняющем права и обязанности оккупационных сил, тогда как меньшие державы выступали против принятия положений политической декларации, которая, по их мнению, не обеспечивала положенной защиты гражданских лиц. Оговорка Мартенса предоставила борцам против иностранной оккупации возможность заявить, что в случае, если конкретные положения договора не применяются к их ситуации, они имеют право, по крайней мере, на такую защиту, предлагаемую принципами международного права, вытекающими из обычаев, «законов человечности» и «требований общественного сознания».[5]

Современное применение оговорки Мартенса

За почти 120 лет со времени принятия Гаагской конвенции 1899 года оговорка Мартенса применяется все больше и становится основным средством распространения гуманитарной защиты во время вооруженного конфликта. Стремясь уменьшить последствия военных действий, многочисленные инструменты международного гуманитарного права и права в области разоружения включили данную оговорку.

Женевские конвенции и Дополнительный протокол I

При разработке Женевских конвенций 1949 года, фундаментальных элементов международного гуманитарного права,[6] участники переговоров хотели обеспечить продолжения некоторых мер защиты, если государство-участник решит выйти из любого из договоров. Четыре Женевские конвенции содержат оговорку Мартенса в своих статьях о денонсации, в которых рассматриваются последствия, связанные с выходом страны из договоров.[7] В своем авторитетном комментарии к конвенциям Международный комитет Красного Креста (МККК), арбитр международного гуманитарного права, объясняет:

[В случае если] Высокая Договаривающаяся Сторона собирается денонсировать одну из Женевских конвенций, она по-прежнему будет связана не только другими договорами, Стороной которых она остается, но и другими нормами международного права, такими как обычное право. Таким образом, argumentum e contrario, предлагающее правовой вакуум после денонсации Конвенции, не представляется возможным.[8]

Дополнительный протокол I, который был принят в 1977 году, расширяет защиту, предоставляемую гражданским лицам Четвертой Женевской конвенцией[9]. Протокол содержит современную трактовку оговорки Мартенса и версию, используемую в этом докладе:

В случаях, не предусмотренных настоящим Протоколом или другими международными соглашениями, гражданские лица и комбатанты остаются под защитой и действием принципов международного права, проистекающих из установившихся обычаев, принципов гуманности и требований общественного сознания[10].

Включив эту формулировку в свою статью «Общие принципы и область применения», вместо того, чтобы ограничить ее положением о денонсации, Дополнительный протокол I расширяет применение оговорки Мартенса. Согласно комментарию МККК:

Было две причины, по которым было сочтено полезным включить данную оговорку еще раз в Протокол. Во-первых, ... никакая кодификация не может быть полной в любой конкретный момент; в этой связи оговорка Мартенса исключает предположение, что всё, что прямо не запрещено относимыми договорами, является по этой причине разрешенным. Во-вторых, она должна рассматриваться как динамический фактор, провозглашающий применимость указанных принципов, независимо от дальнейшего развития типов ситуаций или технологий.[11]

Таким образом, оговорка Мартенса закрывает пробелы в существующем законодательстве и способствует защите гражданского населения в новой ситуации или при появлении новой технологии.

Договоры о разоружении

С 1925 года большинство договоров, содержащих запреты на оружие, также включают в себя оговорку Мартенса[12]. Эта оговорка упоминается в различных формах в преамбулах Женевского протокола о газах 1925 года[13], Конвенции 1972 года о биологическом оружии[14], Конвенции 1980 года о конкретных видах обычного оружия[15], Конвенции 1997 года о запрещении противопехотных мин[16], Конвенции о кассетных боеприпасах[17] и Договора о запрещении ядерного оружия 2017 года[18]. Хотя преамбула не устанавливает обязательных правил, она может информировать о толковании договора и обычно используется для включения в контекст уже существующего закона. Включение оговорки Мартенса указывает на то, что если в действующих положениях договора имеются пробелы, они должны быть охвачены установившимися обычаями, принципами человечности и требованиями общественного сознания. Включив оговорку Мартенса в договоры о разоружении, государства вновь подтвердили ее важность для международного гуманитарного права в целом, и для закона о вооружении, в частности.

Широкое применение оговорки Мартенса делает ее актуальной для нынешних обсуждений полностью автономных оружейных систем. Оговорка предоставляет стандарт для обеспечения гражданских лиц и комбатантов, по меньшей мере, минимальной защитой от такого проблемного оружия. Кроме того, большинство дипломатических дискуссий о полностью автономных оружейных системах проходили под эгидой КНО, которая включает оговорку Мартенса в свою преамбулу. Поэтому оценка полностью автономных оружейных систем в соответствии с оговоркой Мартенса должна играть ключевую роль в обсуждении нового протокола КНО.

III. Применимость и значение оговорки Мартенса

Оговорка Мартенса применяется в отсутствие конкретного закона в той или иной ситуации. Эксперты расходятся во мнении касательно ее юридической значимости, но, как минимум, она озвучивает те факторы, которые должны учитываться государствами при рассмотрении новых задач, возникающих в связи с появлением новых технологий. В частности, ее значимость для закона о разоружении очевидна при переговорах, которые привели к принятию упреждающего запрета на ослепляющие лазеры. Поэтому государства и другие заинтересованные стороны должны учитывать эту оговорку при обсуждении законности полностью автономных оружейных систем и того, как наилучшим образом решить проблемы в отношении такого оружия.

Применимость оговорки Мартенса

Оговорка Мартенса, как указано в Дополнительном протоколе I, применяется «[в] случаях, не предусмотренных» протоколом или другими международными соглашениями.[19]Независимо от того, насколько составители договоров внимательны, они не могут предвидеть и охватить все обстоятельства в одном документе. Оговорка Мартенса служит стопроцентной мерой обеспечения того, что непредвиденная ситуация или новые возникающие технологии не подорвут общую цель гуманитарного права только потому, что никакое существующее положение договора явно их не предусматривает.[20]

Оговорка Мартенса инициируется, когда существующее договорное право конкретно не затрагивает определенные обстоятельства. Как объяснил Военный трибунал США в Нюрнберге, оговорка преобразует «обычаи, установившиеся между образованными народами, законы человечности и требования общественного сознания в юридический критерий, применяемый, если и когда конкретные положения [действующего закона] не охватывают конкретные случаи, происходящие при военных действиях».[21] Это особенно актуально для новых технологий, о которых разработчики существующего законодательства, возможно, и не подозревали. Подчеркивая, что «постоянное существование и применимость статьи не подлежит сомнению», Международный Суд сделал акцент на том, что она «оказалась эффективным средством борьбы с быстрой эволюцией военных технологий».[22] Учитывая, что часто в этой сфере наблюдается нехватка законов, оговорка Мартенса обеспечивает стандарт для нового оружия.

Являясь быстро развивающейся формой технологии, полностью автономные оружейные системы служат подходящим примером для применения оговорки Мартенса. Действующее международное гуманитарное право распространяется на полностью автономные оружейные системы только в общих чертах. Это право требует соответствия всего оружия основным принципам разграничения и пропорциональности, но в нем не содержится конкретных правил для борьбы с полностью автономными оружейными системами.[23] Разработчики Женевских конвенций не могли предвидеть перспективу робота, который сможет самостоятельно определять, когда применять силу без значимого контроля со стороны человека. Учитывая, что полностью автономные оружейные системы представляют собой случай, не предусмотренный действующим законодательством, их следует оценивать в соответствии с принципами, изложенными в оговорке Мартенса.

Юридическое значение оговорки Мартенса

Интерпретации юридического значения оговорки Мартенса различаются.[24]Некоторые эксперты придерживаются узкой точки зрения, утверждая, что оговорка Мартенса служит лишь напоминанием о том, что если в договоре не предусматривается явный запрет на конкретное действие, это не значит, что действие автоматически разрешается. Другими словами, государства должны ссылаться на обычное международное право, когда договорное право ничего не говорит по конкретному вопросу.[25] Однако эта точка зрения, по мнению некоторых, является неудовлетворительной, поскольку она касается только одного аспекта оговорки установившихся обычаев и не учитывает роль принципов гуманности и требований общественного сознания. В соответствии с общепринятыми правилами юридической интерпретации, оговорку необходимо интерпретировать, чтобы дать смысл каждому из ее терминов.[26] Рассмотрение принципов гуманности и требований общественного сознания как простых элементов установившихся обычаев сделает их излишними и нарушит это правило.

Другие утверждают, что оговорка Мартенса сама по себе является уникальным источником права.[27] Они говорят, что простой язык оговорки Мартенса поднимает принципы гуманности и требования общественного сознания до независимых правовых стандартов, по которым можно оценивать непредвиденные ситуации и новые формы военной технологии.[28] Исходя из этого, ситуация или оружейные системы, которые противоречат стандарту, являются незаконными по своей сути.

Юрист международного публичного права Антонио Кассезе применил промежуточный подход, рассматривая принципы гуманности и требования общественного сознания как «фундаментальное руководство» для толкования международного права.[29] Кассезе писал, что «в случае сомнений международные правила, в частности, нормы, относящиеся к гуманитарному праву, должны толковаться так, чтобы они соответствовали общим стандартам гуманности и требованиям общественного сознания».[30]Поэтому международное право следует понимать для того, чтобы не оправдывать ситуации или технологии, которые вызывают беспокойство в связи с этими элементами оговорки Мартенса.

Как минимум, оговорка Мартенса озвучивает те факторы, которые государства должны учитывать по мере приближения к новым технологиям вооружения, включая полностью автономные оружейные системы. В 2018 году МККК заявил, что идут «дебаты о том, является ли оговорка Мартенса юридически обязывающим критерием, по которому должна измеряться законность оружия, или это, скорее, этическое руководство».[31]Однако был сделан вывод, что «понятно, что соображения гуманности и общественного сознания привели к эволюции международного права в отношении оружия, и эти понятия вызвали переговоры по конкретным договорам о запрещении или ограничении определенного оружия».[32] Если опасения по поводу оружия возникают в соответствии с принципами гуманности или требований общественного сознания, принятие нового, более конкретного закона, который устраняет сомнения в отношении законности оружия, может усилить защиту гражданского населения и комбатантов.

Оговорка Мартенса также делает моральные соображения юридически актуальными. Она закреплена в международных договорах, но еще требует оценки ситуации или технологии в соответствии с принципами гуманности и требований общественного сознания, которые составляют элементы морали. Питер Асаро, философ науки и техники, пишет, что оговорка Мартенса предлагает «моральное размышление о роли принципов гуманности и требований общественного сознания в формулировании и установлении нового [международного гуманитарного права]».[33] Хотя моральная оценка полностью автономных оружейных систем важна сама по себе, оговорка Мартенса также делает ее законным требованием в отсутствие конкретного закона.

Прецедент упреждающего запрета на ослепляющие лазеры

Государства, международные организации и гражданское общество ссылались на оговорку Мартенса в предыдущих обсуждениях о нерегулируемых, новых технологиях.[34] Они обнаружили, что это особенно применимо к обсуждениям ослепляющих лазеров в 1990-х годах. Эти группы прямо и косвенно ссылались на элементы оговорки Мартенса как на оправдание упреждающего запрещения ослепляющих лазеров. Протокол IV КНО, принятый в 1995 году, закрепляет этот запрет.[35]

В ходе круглого стола, организованного МККК в 1991 году, эксперты подчеркнули важность оговорки Мартенса. Адвокат МККК Луиза Досвальд-Бек утверждала, что «наложение конкретных ограничений на использование определенного оружия может основываться на соображениях политики» и «что критерии, закрепленные в оговорке Мартенса [должны] были особенно учитываться».[36]Другой участник сказал, что «в оговорке Мартенса конкретно рассматривается проблема человеческих страданий, так что «общественное сознание» относится к тому, что считается бесчеловечным или социально неприемлемым».[37]

Критики ослепляющих лазеров высказывались таким образом, который продемонстрировал, что это оружие вызывает обеспокоенность в вопросах соответствия принципам гуманности и требований общественного сознания. Несколько спикеров на заседаниях, организованных МККК, согласились с тем, что «оружие, предназначенное для ослепления, ... социально неприемлемо».[38] МККК сам «призывал к «сознательности человечества» при пропаганде запрета.[39] На первой обзорной Конференции КНО представители организаций ООН и гражданского общества назвали ослепляющие лазеры «бесчеловечными»,[40] «чудовищными для совести человечества»[41] и «неприемлемыми в современном мире».[42] Кампания МККК по информированию общественности была особенно эффективной при использовании фотографий солдат, ослепленных отравляющим газом во время Первой мировой войны, чтобы подчеркнуть тот факт, что ослепление солдат жестоко и бесчеловечно.

Такие характеристики ослепляющих лазеров были связаны с необходимостью упреждающего запрета. Например, в ходе прений на Первой обзорной Конференции Чили выразила надежду, что данная конференция «сможет разработать руководящие принципы для упреждающих мер, запрещающих разработку бесчеловечных технологий, и тем самым позволит избежать необходимости исправлять то зло, которое они могут причинить».[43] В резолюции декабря 1995 года, призывающей государства ратифицировать Протокол IV, Европейский парламент заявил, что «преднамеренное ослепление как метод ведения войны является чудовищным».[44] Используя формулировку оговорки Мартенса, Европейский парламент заявил, что «преднамеренное ослепление как метод ведения войны является ... противоречащим установившемуся обычаю, принципам гуманности и требованиям общественного сознания».[45] МККК приветствовал Протокол IV как «победу цивилизации над варварством».[46]

Обсуждения, касающиеся Протокола IV к КНО, подчеркивают актуальность оговорки Мартенса для нынешних дебатов по вопросу полностью автономных оружейных систем. Они показывают, что у государств-участников КНО есть история применения оговорки Мартенса к противоречивым видам оружия. Такие обсуждения также демонстрируют готовность этих государств упреждающе запрещать оружие, которое они считают противоречащим принципам гуманности и требованиям общественного сознания. Как будет обсуждаться более подробно далее, полностью автономные оружейные системы вызывают серьезные опасения относительно соответствия оговорке Мартенса. Тот факт, что их воздействие на вооруженные конфликты будет экспоненциально больше, чем у ослепляющих лазеров, должен лишь усилить срочность заполнения пробела в международном праве и введения явного запрета на такой вид оружия.[47]

 

IV. Принципы гуманности

Оговорка Мартенса разделяет принципы международного права на установившиеся обычаи, принципы гуманности и требования общественного сознания. Учитывая, что обычное право применимо даже без оговорки, в настоящем докладе проводится оценка полностью автономных оружейных систем по последним двум элементам. Оговорка Мартенса не определяет эти термины, но они являются предметом масштабного научного и правового обсуждения.

В соответствующей литературе освещены два ключевых компонента принципов гуманности. Субъекты деятельности обязаны: (1) относиться к другим гуманно и (2) проявлять уважение к жизни и достоинству человека. Из-за отсутствия эмоций и суждений у полностью автономных оружейных систем, сложно обеспечить соблюдение ими обоих компонентов.

Гуманное отношение

Определение

Первый принцип гуманности требует гуманного отношения к другим. Оксфордский словарь определяет «гуманность» как «качество быть гуманным; доброжелательность».[48] Обязательство относиться к другим гуманно является ключевым компонентом международного гуманитарного права и международного права в области прав человека.[49] Это обязательство, например, представлено в статье 3 и других положениях Женевских конвенций, многочисленных военных руководствах, международном прецедентном праве и Международном пакте о гражданских и политических правах.[50] Исходя из этих источников, оговорка Мартенса устанавливает, что к человеческим существам следует относиться гуманно, даже когда конкретного закона не существует.[51]

Для того, чтобы гуманно относиться к другим людям, необходимо проявлять сострадание и уметь применять правовые и этические суждения.[52] Сострадание, согласно основополагающим принципам МККК, это «состояние души, которое заставляет человека реагировать на страдание других».[53] Чтобы проявить сострадание, актор должен уметь испытывать эмпатию, то есть понимать и разделять чувства другого, и уметь реагировать в ответ.[54] Эта эмоциональная способность жизненно важна в ситуациях, когда принимаются решения об использовании силы.[55] Она побуждает акторов сознательно прилагать усилия для сведения к минимуму физического или психологического вреда, который они наносят людям. Действия с состраданием строятся на принципе, что «предпочтительнее захватить врага в плен, чем ранить его, а ранить его лучше, чем убить; что не-комбатантов по возможности не надо трогать; что раны должны быть настолько легкими, насколько это возможно, чтобы пострадавшие могли лечиться и излечиваться; и чтобы раны вызывали наименьшую возможную боль».[56]

В то время, как сострадание обеспечивает мотивацию действовать гуманно, правовое и этическое суждение предоставляет для этого средства. Чтобы действовать гуманно, актор должен принимать взвешенные решения о том, как минимизировать вред.[57] Такие решения основаны на способности воспринимать и понимать окружающую среду и применять «здравый смысл и знания о мире» к конкретным обстоятельствам.[58] Профессор философии Джеймс Мур отмечает, что акторы должны обладать способностью «идентифицировать и обрабатывать этическую информацию о различных ситуациях и принимать разумное решение о том, что должно быть сделано в этих ситуациях»[59]. Таким образом, правовое и этическое суждение помогает актору взвешивать факторы, чтобы убедиться в том, что обращение соответствует стандартам, требуемым состраданием. Суждение имеет жизненно важное значение для минимизации страданий: актор может воздержаться от причинения вреда людям, если сможет признать возможный вред и знает, как отреагировать.[60]

Применение в случае полностью автономных оружейных систем

Полностью автономные оружейные системы столкнутся с серьезными проблемами при соблюдении принципа гуманного обращения, поскольку сострадание и правовое и этическое суждение являются характеристиками человека. Сочувствие и сострадание к другим, которое оно порождает, приходят к людям естественно. Большинство людей испытывают физическую или психологическую боль, что заставляет их избегать причинения ненужных страданий другим. Их чувства превосходят национальные и другие идеи. Как отмечает МККК, «чувства и жесты солидарности, сострадания и самоотверженности можно найти во всех культурах».[61] Общее понимание людьми боли и страданий помогает им проявлять сострадание к окружающим и вдохновляет на взаимность, то есть, словами МККК, это является «совершенно естественным».[62]

Независимо от сложности дизайна полностью автономных оружейных систем, они не могут испытывать эмоции.[63] Есть кое-какие преимущества в том, что они невосприимчивы к эмоциям, таким как гнев и страх, но неспособность робота почувствовать сопереживание и сострадание серьезно ограничит его способность относиться к другим гуманно. Поскольку полностью автономные оружейные системы не являются живыми существами, они не могут знать физических или психологических страданий. В результате им не хватает общего опыта и понимания, которые заставляют людей относиться понимающе к боли других, чувствовать «волнение души» и побуждать проявлять сострадание к другим людям. Профессор в сфере информационных технологий Аманда Шарки отмечает, что «роботы, лишенные живых тел, не могут чувствовать боль или даже заботиться о себе, не говоря уже о переживаниях за других. Как они могут сопереживать боли или бедственному положению человека, если они не могут испытывать никаких эмоций?»[64] Таким образом, полностью автономные оружейные системы сталкиваются с серьезными трудностями в обеспечении того, чтобы их действия были человечными и соответствовали принципам гуманности.

Роботы также не будут обладать умением делать правовые и этические суждения, необходимые для минимизации нанесения вреда в каждом конкретном случае[65]. Ситуации, связанные с применением силы, особенно в вооруженном конфликте, часто сложны, непредсказуемы и могут быстро меняться. Таким образом, полностью автономные оружейные системы сталкиваются с серьезными препятствиями при принятии надлежащих решений в отношении гуманного обращения. Изучив многочисленные исследования, в которых исследователи пытались запрограммировать этику для роботов, Шарки обнаружила, что роботы, демонстрирующие поведение, которое может быть описано как «этическое» или «минимально этическое», могут работать только в ограниченных условиях. Шарки пришла к выводу, что у роботов ограниченные моральные возможности и поэтому их нельзя использовать в обстоятельствах, которые «требуют моральной компетентности и понимания окружающей социальной ситуации».[66] В соответствии с международным правом часто требуется субъективное принятие решений в сложных ситуациях. Полностью автономные оружейные системы будут обладать ограниченной способностью интерпретировать нюансы человеческого поведения, понимать политическую, социально-экономическую и экологическую динамику ситуации и понимать гуманитарные риски применения силы в конкретном контексте.[67] Эти ограничения ставят под сомнение способность оружия обеспечивать гуманное отношение к мирным жителям и комбатантам и соблюдать первый принцип гуманности.

Уважение жизни и достоинства человека

Определение

Второй принцип гуманности требует от акторов уважать как человеческую жизнь, так и человеческое достоинство. Кристоф Хейнс, ранее специальный докладчик по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, подчеркнул эти взаимосвязанные, но различные концепции, когда задал два вопроса относительно полностью автономных оружейных систем: «[М]огут ли [они] осуществлять или обеспечивают ли они правильное осуществление наведения цели?» и «Даже если они способны правильно осуществить наведение цели, должны ли машины управлять жизнью и смертью человека?».[68] В первую очередь рассматривается вопрос о том, соответствует ли оружие нормам международного права в отношении защиты жизни. Второй вопрос касается «способа наведения цели» и уважают ли эти системы человеческое достоинство.[69]

Для уважения человеческой жизни, акторы должны принимать меры для минимизации убийства.[70] Право на жизнь гласит, что «никто не может быть произвольно лишен своей жизни».[71] Это право ограничивает использование смертоносной силы обстоятельствами, в которых абсолютно необходимо защищать человеческую жизнь, и представляет собой последнее средство, применяемое по сопоставлению с масштабом угрозы.[72] Право на жизнь, закрепленное в статье 6 Международного пакта о гражданских и политических правах, признано «высшим правом» международного закона о правах человека, которое применяется при любых обстоятельствах. Во время вооруженного конфликта международное гуманитарное право определяет, что представляет собой необоснованное или произвольное лишение жизни. Необходимо, чтобы в ситуациях вооруженного конфликта акторы соблюдали правила разграничения, соразмерности и военной необходимости.[73]

Способность к суждениям и эмоциям способствует проявлению уважения к жизни, потому что она может сдерживать от убийства. Способность делать правовые и этические суждения может помочь актору определить, какой курс действий наилучшим образом защитит человеческую жизнь в бесконечном количестве потенциальных непредвиденных сценариев. Инстинктивное сопротивление убийству создает психологическую мотивацию для соблюдения норм международного права и иногда выходит за его рамки в целях сведения потерь к минимуму.

В соответствии с принципами гуманности акторы должны также уважать достоинство всех людей. Это обязательство основано на признании того, что каждый человек имеет присущую ему ценность, которая является универсальной и неприкосновенной.[74] Многочисленные международные документы, включая Всеобщую декларацию прав человека, Международный пакт о гражданских и политических правах, Венскую декларацию, Программу действий, принятую на Всемирной конференции по правам человека 1993 года, и региональные договоры закрепляют важность достоинства как основополагающего принципа прав человека.[75] Африканская хартия прав человека и народов прямо заявляет, что человек имеет «право на уважение его достоинства, присущего человеческой личности».[76]

Хотя уважение жизни человека включает в себя минимизацию числа смертей, избежание произвольных или необоснованных смертей, уважение человеческого достоинства требует оценки тяжести решения убить.[77] МККК пояснил, что здесь имеет значение «не только, убит или ранен человек, но и как он был убит или как получил ранения, включая процесс принятия этих решений».[78] Перед тем, как отнять жизнь, актор должен действительно понять ценность жизни человека и значимость ее утраты. Люди должны быть признаны уникальными индивидуумами, а не сводиться к объектам с просто инструментальной или никакой ценностью.[79] Если актор убивает, не принимая во внимание ценность отдельной жертвы, убийство подрывает фундаментальное понятие человеческого достоинства и нарушает этот принцип гуманности.  

Применение в случае полностью автономных оружейных систем

Очень маловероятно, что полностью автономные оружейные системы смогут проявлять уважение к жизни и достоинству человека. Отсутствие у них правового и этического суждения также означает отсутствие способности уважать человеческую жизнь. Например, требование соразмерности международного гуманитарного права требует, чтобы командиры определяли, превышает ли ожидаемое военное преимущество ожидаемый гражданский вред в каждом конкретном случае. Учитывая бесконечное количество непредвиденных обстоятельств, которые могут возникнуть на поле боя, полностью автономные системы оружия невозможно предварительно запрограммировать для таких решений. Общепринятым стандартом для требования соразмерности является то, совершит ли «разумный военный командир» конкретную атаку,[80] разумность которой требует принятия решений на основе как этических, так и правовых соображений.[81] Полностью автономные оружейные системы, не имея возможности применить этот стандарт для взвешивания возможностей в целях установления соразмерности, вероятно, поставят под угрозу гражданских лиц и потенциально могут нарушить международное гуманитарное право[82].

У полностью автономных оружейных систем также не будет инстинктивного человеческого сопротивления убийству, которое может защитить человеческую жизнь при минимальных требованиях закона/[83] Стремление избежать убийства приходит к большинству людей естественным образом, потому что у них есть внутреннее понимание ценности, присущей человеческой жизни. Эмпирические исследования демонстрируют нежелание людей отнимать жизнь другого человека. Например, ушедший в отставку военнослужащий армии США, который провел обширные исследования по убийствам во время вооруженного конфликта, выяснил, что «внутри человека существует сильное сопротивление убийству своего собрата. Сопротивление настолько сильное, что во многих случаях солдаты умрут на поле битвы, прежде чем они смогут его преодолеть».[84] Являясь неодушевленными предметами, полностью автономные оружейные системы не могут потерять свою собственную жизнь или понять эмоции, связанные с потерей жизни любимого человека. Сомнительно, что хоть один программист сможет воспроизвести в роботе естественную склонность человека избегать убийств и защищать жизнь с учетом тех сложностей и нюансов, которые бы отражали принятие решений человеком.

Полностью автономные оружейные системы не могут уважать человеческое достоинство, которое связано с процессом, а не последствиями применения силы.[85] Будучи машинами, они не могут по-настоящему понимать ни ценности индивидуальной жизни, ни значимость ее утраты. Их решение по убийству будет продиктовано алгоритмами, без учета человечности конкретной жертвы.[86] Более того, это оружие будет запрограммировано заранее по сценарию и не сможет учитывать необходимость смертельной силы в конкретной ситуации. В своем выступлении на площадке КНО, специальный докладчик Кристоф Хейнс объяснил, что:

позволить машинам определять, когда и где применять силу против людей означает свести людей до объектов, которые рассматриваются как простые цели. Люди становятся нулями и единицами в цифровых данных оружия, которые запрограммированы заранее на использование силы, не имея возможности рассмотреть вопрос о том, нет ли другого выхода, так как они не обладают достаточным уровнем сознательного выбора, которые есть у людей в этом вопросе.[87]

Программа по противоминной деятельности в Канаде аналогичным образом сделала вывод о том, что «[р]азвертывание [полностью автономных оружейных систем] в бою свидетельствует о том, что никакому человеку, который является целью в таком случае, не гарантируется рассмотрение вопроса его жизни и смерти живым оператором, тем самым лишая этого человека его права на достоинство жизни».[88] Предоставление роботу возможности отнимать жизнь, без понимания неотъемлемой ценности этой жизни или необходимости ее отнять, показывает неуважение к жизни человека и унижает человека. Таким образом, это непримиримо с принципами человечности, закрепленными в оговорке Мартенса.

При использовании в соответствующих ситуациях ИИ может предоставить исключительные преимущества человечеству. Однако разрешение роботам принимать решения убивать людей будет противоречить оговорке Мартенса, которая объединяет закон и мораль. Ограничения в эмоциональных, этических возможностях и возможностях восприятии у данных машин значительно затрудняют их способность обращения с другими людьми и уважения жизни и достоинства человека. Следовательно, использование этого оружия будет несовместимым с принципами гуманности, изложенными в оговорке Мартенса.

 

V. Требования общественного сознания

Оговорка Мартенса гласит, что в отсутствии договорного права требования общественного сознания наряду с принципами гуманности защищают гражданских лиц и комбатантов. Ссылка на «общественное сознание» придает закону мораль и требует, чтобы при оценке средств и методов ведения войны учитывалось мнение граждан и экспертов, а также правительств. Реакция этих групп на перспективу полностью автономных оружейных систем дает понять, что разработка, производство и использование таких технологий вызовут серьезную обеспокоенность в соответствии с оговоркой Мартенса.

Определение

Требования общественного сознания относятся к общим моральным принципам, которые определяют действия государств и отдельных лиц.[89] Использование термина «сознание» означает, что требования основаны на чувстве морали, знании того, что правильно и что неправильно.[90] По мнению философа Питера Асаро, сознание подразумевает «чувство принуждения или веры в конкретное моральное обязательство или обязанность».[91] Прилагательное «общественное» разъясняет, что эти требования отражают обеспокоенность целого ряда людей и организаций. Основываясь на широко цитируемой работе юриста и эксперта по международному гуманитарному праву Теодора Мерона, в этом докладе рассматриваются два источника для определения того, что рассматривается как общественное сознание: мнение общественности и мнение правительств.[92]

Данные опроса и мнения экспертов служат доказательством общественного мнения.[93] Опросы показывают точку зрения и убеждения обычных людей. Они могут также пролить свет на тонкие нюансы в понимании этого вопроса простыми гражданами. Хотя опросы и информативны, сами по себе они не являются достаточными мерами общественного сознания, отчасти потому, что ответы могут зависеть от характера задаваемых вопросов и не обязательно отражают моральное соображение.[94] Заявления и действия экспертов, которые часто подробно обсуждали рассматриваемые вопросы, отражают более глубокое понимание. Их конкретный опыт может варьироваться от религии и технологии до закона, но у них есть глубокое знание этой темы.[95] Таким образом, взгляды, которые они озвучивают, могут пролить свет на моральные нормы, принятые информированной общественностью.[96]

Правительства формулируют свою позицию в рамках политики, а также в письменных заявлениях и устных выступлениях на дипломатических встречах и других публичных форумах. Их заявления отражают позиции стран, которые отличаются свои экономическим развитием, военной мощью, политическими системами, религиозными и культурными традициями и демографией. Правительственное мнение может помочь пролить свет на opinio juris (убежденность в правомерности), элемент обычного международного права, ссылающегося на убеждение государства в том, что определенная практика является юридически обязательной.[97]

Применение в случае полностью автономных оружейных систем

Позиции отдельных лиц и государств во всем мире продемонстрировали, что полностью автономные оружейные системы вызывают серьезные проблемы, когда речь идет о требованиях общественного сознания. Через опросы общественного мнения, открытые письма, устные и письменные заявления, подробные публикации и добровольно принятые руководящие принципы, представители общественности разделяют свое недовольство и возмущение в связи с перспективой использования этого оружия. Официальные лица из более чем 100 стран выразили аналогичную обеспокоенность и высказались в пользу введения ограничений на полностью автономные оружейные системы.[98] Хотя общественная оппозиция полностью автономным оружейным системам не является повсеместной, коллективно эти голоса показывают, что она широко распространена и ее распространение возрастает.[99]

Мнение общественности

Общественное противостояние разработке, производству и использованию полностью автономных оружейных систем имеет большое значение и набирает обороты. Несколько опросов общественного мнения показали, что люди против такого оружия.[100] Эти выводы отражены в заявлениях, сделанных лидерами в соответствующих областях разоружения и прав человека, мира и религии, науки, техники и промышленности. Источники, обсуждаемые ниже, хотя они и не являются исчерпывающими, иллюстрируют характер и спектр общественного мнения и свидетельствуют об общественном сознании.

Опросы 

Опросы общественного мнения, проведенные по всему миру, подтвердили широкое противостояние разработке, производству и использованию этого оружия. Согласно этим опросам, большинство опрошенных считают перспективу делегирования решений о жизни и смерти машинам неприемлемой. Например, опрос американцев в 2013 году, проведенный профессором политологии Чарли Карпентером, показал, что 55 процентов респондентов выступают против «тенденции к использованию» полностью автономных оружейных систем.[101] Эта позиция разделялась примерно одинаково по гендерным и возрастным группам, а также политическим идеологиям. Интересно, что из самых активных групп, выступающих против, были военнослужащие, находящиеся на действительной службе, которые понимают реальность вооруженного конфликта не понаслышке; 73% высказались против полностью автономных оружейных систем.[102] Большинство респондентов опроса также поддержали кампанию по запрещению оружия.[103] Более ранний опрос, проведенный на национальном уровне и охвативший около 1000 бельгийцев, результаты которого были опубликованы 3 июля 2018 года, показал, что 60 процентов респондентов считают, что «Бельгия должна поддерживать международные усилия по запрещению разработки, производства и использования полностью автономных оружейных систем». Только 23 процента не согласились с этим.[104]

Аналогичные результаты показали и международные опросы. В 2015 году Инициатива «Открытая робототехника» провела опрос более 1000 человек из 54 разных стран и выяснила, что 56 процентов респондентов выступают против разработки и использования оружия, называемого автономными системами оружия летального действия.[105] Тридцать четыре процента всех респондентов считают разработку и использование такого оружия неприемлемым, потому что «именно люди должны быть теми, кто принимает решения о жизни и смерти».[106] Среди других мотивов, упоминающихся не так часто – ненадежность оружия, риск его распространения и отсутствие подотчетности[107]. Еще более крупный опрос Ipsos дал аналогичные результаты в 2017 году, когда было опрошено 11 500 человек из 25 стран.[108] Этот опрос объяснил, что Организация Объединенных Наций делает обзор «стратегических, правовых и моральных последствий автономных оружейных систем» (что эквивалентно полностью автономным оружейным системам) и спрашивал участников об их мнении в отношении использования оружия. Пятьдесят шесть процентов высказались против.[109]

Неправительственные и международные организации

Предоставляя дополнительные доказательства обеспокоенности в отношении  требований общественного сознания, эксперты из целого ряда областей вынуждены, особенно по моральным соображениям, требовать запрета на разработку, производство и использование полностью автономного оружия. Кампания «Остановить роботов-убийц», коалиция гражданского общества из 75 НПО, возглавляет усилия по запрещению полностью автономных оружейных систем.[110] Ее члены – НПО – работают более чем в 30 странах и включают в себя группы, обладающие опытом в области гуманитарного разоружения, мира и разрешения конфликтов, технологий, прав человека и других соответствующих областях.[111] Ее координатором выступает Хьюман Райтс Вотч, которая была одним из основателей кампании в 2012 году. За последние шесть лет организации – члены кампании сфокусировали внимание на многочисленных проблемах, связанных с полностью автономными оружейными системами, посредством десятков публикаций и заявлений, сделанных на дипломатических встречах и мероприятиях ООН, в социальных сетях и на других аренах[112].

В то время как разные проблемы находят отклик у разных людей, Стив Гуз, директор Отдела вооружений Хьюман Райтс Вотч, подчеркнул важность оговорки Мартенса в своем заявлении на совещании правительственных экспертов КНО в апреле 2018 года. Гуз сказал:

Существует множество причин отказаться [от автономных систем оружия летального действия] (сюда входят правовые, подотчетные, технические, оперативные проблемы, вопросы распространения и международной безопасности), но этические и моральные нормы, которые порождают чувство чудовищности, перевешивают все. Эти этические нормы должны побудить Высокие Договаривающиеся Стороны Конвенции ООН об обычных вооружениях принять во внимание оговорку Мартенса в международном гуманитарном праве, согласно которому оружие, противоречащее принципам гуманности и требованиям общественного сознания, не должно разрабатываться.[113]

МККК призвал государства провести оценку полностью автономных оружейных систем на предмет их соответствия оговорке Мартенса и отметил, что «с точки зрения общественного сознания возникает чувство глубокого дискомфорта, когда какая-либо система оружия применяет силу без контроля со стороны человека».[114] МККК неоднократно подчеркивал юридическую и этическую потребность в контроле со стороны человека над такими ключевыми функциями, как выбор и поражение цели. В апреле 2018 года Комитет дал понять, что «минимальный уровень контроля со стороны человека необходим для обеспечения соблюдения норм международного гуманитарного права, которые защищают гражданских лиц и комбатантов в вооруженном конфликте, и этической приемлемости с точки зрения принципов гуманности и требований общественного сознания».[115] МККК пояснил, что международное гуманитарное право «требует, чтобы те, кто планировал, принимал решения и совершал нападения, принимали определенные решения при применении норм при начале нападения. Этические соображения параллельны этому требованию, человеческий фактор и намерение человека должны быть сохранены при принятии решений о применении силы».[116] МККК пришел к выводу, что система оружия без контроля со стороны человека «незаконна по самой своей природе».[117]

Мировые и религиозные лидеры

В 2014 году более 20 человек и организаций, получивших Нобелевскую премию мира, опубликовали совместное письмо с заявлением о том, что они «всецело поддерживают цель упреждающего запрета на полностью автономные оружейные системы» и считают «вопиющим фактом то, что человек продолжает исследования и разработку смертоносных машин, которые могут убивать людей без вмешательства человека».[118] Среди лиц, подписавших это письмо, есть американский активист Джоди Уильямс, которая возглавляла гражданское общество по вопросу запрета противопехотных мин, а также главы государств и политики, люди правовой сферы и мирные активисты, адвокат, журналист и церковный лидер.[119] Организации, подписавшие этот документ, в числе которых Пагуошская конференция по науке и глобальным проблемам и Нобелевская женская инициатива, которые стали инициаторами написания письма, являются членами руководящего комитета кампании «Остановить роботов-убийц».

Религиозные лидеры также объединились против полностью автономных систем оружия. В 2014 году более 160 лидеров подписали «межрелигиозную декларацию, призывающую государства работать над глобальным запретом на полностью автономные оружейные системы».[120] Используя формулировки, подразумевающие обеспокоенность насчет принципов гуманности, декларация описывает такое оружие как «оскорбление человеческого достоинства и принципа святости жизни».[121] Декларация далее критикует идею передачи решений о жизни и смерти машине, потому что полностью автономные оружейные системы «не обладают моральными качествами и, как следствие, не могут нести ответственность при лишении жизни невинного человека».[122] В списке лиц, подписавших документ, были представители буддизма, католицизма, ислама, иудаизма, протестантизма и квакеризма. Архиепископ Десмонд Туту подписал и эту декларацию, и письмо лауреатов Нобелевской премии мира.

Эксперты по науке и технологиям

Лица с опытом в технологической сфере также выразили свое несогласие с полностью автономными оружейными системами. Международный комитет по контролю за роботизированными вооружениями (МККРВ), члены которого изучают технологии различных дисциплин, заявил об опасности в 2013 году, вскоре после того, как он стал соучредителем кампании «Остановить роботов-убийц».[123] МККРВ опубликовал заявление, одобренное более чем 270 экспертами, в которых содержится призыв к запрету на разработку и использование полностью автономных оружейных систем.[124] Члены МККРВ отметили «отсутствие четких научных доказательств того, что роботизированное вооружение имеет или может иметь в обозримом будущем функциональность, необходимую для точной идентификации целей, ситуационной осведомленности или для принятия решений относительно пропорционального применения силы» и пришел к выводу, что «[р]ешения о применении силы не должны делегироваться машинам».[125] Хотя в этом заявлении подчеркивается, что основное внимание уделяется технологиям, невозможность принятия решений о пропорциональности, как обсуждалось выше, может противоречить принципам уважения жизни и принципам гуманности.

В 2015 году еще большая группа исследователей ИИ и робототехники опубликовала открытое письмо. По состоянию на июнь 2018 года более 3500 ученых, а также более 20000 человек подписали этот призыв о запрете.[126] В данном письме исследователи предупреждают, что эти машины могут стать «автоматом Калашникова завтрашнего дня», если их развитие не будет предотвращено.[127] В нем говорится, что, хотя подписавшие стороны «полагают, что ИИ обладает огромным потенциалом принесения пользы человечеству во многих отношениях, они «считают, что военная гонка вооружений не будет полезной для человечества. Существует много способов, с помощью которых ИИ может сделать поле боевых действий более безопасным для людей, особенно для гражданских лиц, без создания новых инструментов для убийства людей».[128]

В дополнение к требовательным действиям других, тысячи технических экспертов обязались не участвовать в действиях, которые будут способствовать развитию полностью автономных оружейных систем. На всемирном конгрессе, состоявшемся в Стокгольме в июле 2018 года, ведущие исследователи ИИ дали обещание «не участвовать и не поддерживать разработку, производство, торговлю или использование автономных систем оружия летального действия».[129] К концу месяца более 2850 экспертов, ученых в сфере ИИ и других лиц, а также 223 технологических компаний, предприятий и организаций из не менее 36 стран подписали письмо. В данном обязательстве говорится о морали, подотчетности, распространении и проблемах, связанных с безопасностью; был сделан вывод о том, что «решение о принятии человеческой жизни никогда не должно быть передано машине». Там говорится: «В этой ситуации есть моральный компонент, мы не должны позволять машинам принимать жизненно важные решения, за которые будут нести ответственность другие или не будет нести никто».[130] Согласно Институту «Будущее жизни», на сайте которого опубликовано это обязательство, оно необходимо, потому что «политики до сих пор не смогли ввести «положения и законы против автономных систем оружия летального действия».[131]

Индустрия

Высокопрофильные технологические компании и их представители высказывают свою критику в адрес полностью автономных оружейных систем по разным причинам. Канадский производитель робототехники ClearPath Robotics стал первой компанией, публично отказавшейся от производства «вооруженных роботов, которые исключают людей из процесса принятия решения».[132] В 2014 году компания дала обещание сделать выбор в пользу «ценности этики, а не в пользу потенциальных будущих доходов».[133] В письме-обращении к общественности компания заявила, что ее мотивировало убеждение о том, что «разработка роботов-убийц неразумна, неэтична и должна быть запрещена в международном масштабе». Компания ClearPath продолжила развивать свои идеи:

[Б]удет ли у робота мораль, здравый смысл или эмоциональное понимание, необходимые для противостояния приказам, которые являются неправильными или бесчеловечными? Нет. Могут ли компьютеры принимать субъективные решения, необходимые для проверки легитимности целей и обеспечения пропорционального применения силы в обозримом будущем? Нет. Может ли эта технология вести за собой тех, кто ценит человеческую жизнь? Откровенно говоря, мы в этом сомневаемся.[134]

Письмо показывает, что полностью автономные оружейные системы ведут к проблемам, как в отношении соответствия принципам гуманности, так и в отношении требований общественного сознания.

В августе 2017 года учредители и главные исполнительные директора (генеральные директора) 116 компаний ИИ и робототехники опубликовали письмо с призывом к государствам-участникам КНО принять меры в отношении автономных оружейных систем.[135] Письмо начинается с заявления: «Мы, компании, строящие свои технологии на искусственном интеллекте и робототехнике, которые могут быть переориентированы на разработку автономных оружейных систем, чувствуем особую ответственность за повышение этой опасности».[136] В письме подчеркивается опасность, которую автономные оружейные системы представляют для гражданских лиц, гонки вооружений и возможности дестабилизирующих эффектов. Письмо предупреждает, что «если этот ящик Пандоры будет открыт, его будет сложно закрыть».[137] Аналогичным образом, в 2018 году Скотт Феникс, генеральный директор Vicarious, выдающейся компании по разработке ИИ, отнес разработку автономного оружия к числу «самых худших идей мира» из-за вероятности недостатков в кодах и их уязвимости к взлому.[138]

Компания Google и компании группы Alphabet неоднократно находились в центре дебатов по поводу полностью автономных оружейных систем. DeepMind – исследовательская компания ИИ, была приобретена Google в 2014 году. В 2016 году она представила доказательства в парламентский комитет Великобритании, в котором описала запрет на автономное оружие как «лучший подход к предотвращению вредных последствий, которые могут возникнуть в результате разработки и использования такого оружия».[139] Компания DeepMind выразила особую обеспокоенность в связи с последствиями действий такого оружия для «глобальной стабильности и сокращения конфликтов».[140] Два года спустя более 3000 сотрудников Google выразили протест против участия компании в проекте «Проджект Мавен», в рамках программы Министерства обороны США, целью которой является использование ИИ для автономной обработки видеоматериалов, снятых разведывательными беспилотными летательными аппаратами. Сотрудники утверждали, что компания «не должна участвовать в войне»,[141] более 1100 ученых поддержали их в отдельном письме.[142] В июне 2018 года компания Google согласилась прекратить свое участие в проекте «Проджект Мавен» после истечения срока действия контракта в 2019 году, компания опубликовала этические принципы, обязывающие не разрабатывать ИИ для использования в оружейных системах. В принципах утверждается, что Google «не разрабатывает ИИ для использования в создании оружия» и «не будет разрабатывать или использовать ИИ» для технологий, которые наносят «общий ущерб» или «противоречат общепринятым принципам международного права и прав человека».[143]

Инвесторы в технологической отрасли также начали реагировать на этические проблемы, вызванные полностью автономными оружейными системами. В 2016 году Совет по этике Пенсионного фонда правительства Норвегии объявил, что он будет контролировать инвестиции в развитие этого оружия, чтобы решить, противоречат ли они положениям Совета.[144] Йохан Х. Андресен, председатель Совета, повторил эту позицию в панельной презентации для делегатов КНО в апреле 2018 года.[145]

Мнение правительств

Правительства всего мира все чаще разделяют мнение экспертов и широкой общественности о том, что разработка, производство и использование оружия без значимого контроля со стороны человека неприемлемы. По состоянию на апрель 2018 года 26 стран – из Африки, Азии, Европы, Латинской Америки и Ближнего Востока – призвали к упреждающему запрету на полностью автономные оружейные системы.[146] Кроме того, более 100 государств, в том числе участники Движения неприсоединения (ДН), призвали к разработке юридически обязательного инструмента по такому оружию. В совместном заявлении члены ДН указали «этические, правовые, моральные и технические аспекты, а также аспекты международного мира и безопасности» как проблемы, вызывающие озабоченность.[147] Хотя полный анализ правительственных вмешательств за последние пять лет выходит за рамки настоящего доклада, в целом, эти заявления продемонстрировали, что страны выступают против утраты контроля со стороны человека по моральными, а также правовым, техническим и другим причинам. Мнения этих правительств, отражающие общественные интересы, поддерживают аргумент о том, что полностью автономные оружейные системы нарушают требования общественного сознания.

Принципы, закрепленные в оговорке Мартенса, сыграли определенную роль в международных дискуссиях о полностью автономных оружейных системах с самого начала в 2013 году. В этом году Кристоф Хейнс, ранее являвшийся Специальным докладчиком по вопросу о внесудебных казнях, представил Совету ООН по правам человека доклад о полностью автономных оружейных системах, которые он назвал «смертельной автономной робототехникой».[148] Подчеркивая важность контроля со стороны человека над решениями о жизни и смерти, Хейнс объяснил, что «полномочия при принятии решения отнять жизнь у человека или подвергнуть его другим серьезным последствиям должны быть возложены на людей; это основополагающее допущение большинства правовых, моральных и других кодексов».[149] Он продолжил: «Делегирование этого процесса делает вооруженный конфликт еще более бесчеловечным и исключает момент взвешивания решений в тех случаях, когда это может быть целесообразным. У машин нет нравственности и смертности, следовательно, у них не должно быть власти над жизнью и смертью людей».[150] Хейнс также признал оговорку Мартенса как одно из правовых оснований для своего решения.[151] В докладе 2013 года содержится призыв к мораторию на разработку полностью автономных оружейных систем до тех пор, пока не будут созданы «согласованные на международном уровне рамочные документы».[152] В 2016 году в совместном отчете Хейнс и Майна Киай, Специального докладчика ООН по вопросу о свободе мирных собраний и объединений, был сделан еще один шаг вперед — были озвучены рекомендации «запретить автономные оружейные системы, которые не обеспечиваются значимым контролем со стороны человека».[153]

В мае 2013 года в ответ на отчет Хейнса Совет ООН по правам человека провел первые обсуждения по оружейным системам на международном уровне.[154] Из 20 стран, которые высказали свои позиции, многие озвучили свою обеспокоенность по поводу новых технологий. Они чаще использовали формулировки, связанный с оговоркой Мартенса или с моралью в целом. Эквадор прямо указал на элементы оговорки Мартенса и заявил, что передача принятия решений о жизни и смерти машинам будет противоречить общественному сознанию.[155] Индонезия высказала возражения, связанные с принципами гуманности, о которых говорилось выше. Она подвергла критике «возможное далеко идущее воздействие на общественные ценности, в том числе на защиту и ценность жизни», которое может возникнуть в результате использования этого оружия.[156] Россия рекомендовала уделить «особое внимание» «серьезным последствиям для общественных устоев, включая отрицание человеческой жизни».[157] Пакистан призвал к запрету, основанному на прецеденте упреждающего запрета на ослепляющие лазеры, что в значительной степени было мотивировано оговоркой Мартенса.[158] Бразилия также затронула вопросы морали; было сказано: «Если убийство одного человека другим было проблемой, которую с незапамятных времен пытались решить с помощью правовых, моральных и религиозных кодексов, можно представить то множество дополнительных проблем, которые возникнут, если роботы получат власть над жизнью и смертью человека».[159] Хотя государства-члены Совета по правам человека также рассматривали другие важные риски, связанные с полностью автономными оружейными системами, особенно в отношении безопасности, вопрос морали был доминирующим.[160]

Со времени проведения сессии Совета по правам человека в 2013 году большинство дипломатических дискуссий проводилось под эгидой Конвенции ООН об обычных вооружениях.[161] Государства-участники КНО провели три неофициальных совещания экспертов в отношении того, что они называют «автономными системами оружия летального действия» в период между 2014 и 2016 годами.[162] На своей Конференции по обзору 2016 года они договорились о формализации обсуждений в Группе правительственных экспертов, что, как ожидается, приведет к результатам, таким как новый протокол КНО.[163] Более 80 государств приняли участие в последнем заседании группы в апреле 2018 года. На этом совещании Австрия отметила, что «участие КНО по вопросу автономных систем оружия летального действия свидетельствует о высокой степени обеспокоенности риском, связанным с таким оружием».[164] Это также служит признаком того, что общественное сознание выступает против этой технологии.

Государства-участники КНО подчеркивали важность оговорки Мартенса на каждом из своих совещаний по автономным системам оружия летального действия. Например, на первой встрече в мае 2014 года Бразилия описала оговорку Мартенса как «основополагающий принцип» международного гуманитарного права, который «позволяет нам безопасно перемещаться в новых и опасных водах» и чувствовать уверенность в том, что человек остается защищенным принципами гуманности и требованиями общественного сознания».[165] Мексика заявила: «нет абсолютно никаких сомнений в том, что развитие этих новых технологий должно соответствовать принципам оговорки Мартенса.[166] На втором совещании экспертов КНО в апреле 2015 года Россия описала пункт Мартенса как «неотъемлемую часть обычного международного права».[167] Приняв узкую интерпретацию положения, Соединенные Штаты заявили, что «оговорка Мартенса не является нормой международного права, которая запрещает какое-либо конкретное оружие, а, тем более, оружие, которое в настоящее время не существует». Тем не менее, США признали, что «принципы гуманности и требования общественного сознания обеспечивают надлежащую и важную парадигму для обсуждения моральных или этических вопросов, связанных с использованием автономных технологий в войне».[168]

Несколько государств-участников КНО основывают свои возражения против полностью автономных оружейных систем на оговорке Мартенса и ее элементах. В совместном заявлении в апреле 2018 года Африканская группа заявила, что «принципы гуманности и требования общественного сознания, сформулированные в оговорке [Мартенса], должны учитываться со всей серьезностью».[169] Африканская группа призвала к упреждающему запрету на автономные системы летального вооружения, заявив, что ее члены признали, что это «бесчеловечно, чудовищно, отвратительно и идет в разрез с общественным сознанием, что люди передадут контроль машинам, позволяя машинам решать, кто живет или умирает, сколько жизней и чьи жизни допускаются в качестве сопутствующих потерь при применении силы».[170] Ватикан осудил полностью автономные оружейные системы, потому что они «никогда не смогут быть морально ответственным субъектом. Уникальный человеческий потенциал для морального суждения и принятия этических решений – это не просто сложный набор алгоритмов, такая способность не может быть замещена или запрограммирована в машине». Ватикан предупредил, что автономные оружейные системы могут считать нормальным и приемлемым «поведение, запрещаемое международным правом, или которое, хотя и не оговорено явно, по-прежнему запрещено требованиями морали и общественного сознания».[171]

На совещании в апреле 2018 года другие государства поднимали вопросы относительно оговорки Мартенса более размыто. Греция, например, заявила, что «важно обеспечить, чтобы командиры и операторы оставались в цикле процесса принятия решений, чтобы обеспечить надлежащее человеческое суждение об использовании силы не только по причинам, связанным с подотчетностью, но главным образом, чтобы защищать достоинство человека при принятии решения о жизни или смерти».[172]

В течение последних пяти лет государства-участники КНО рассматривали множество других проблем, связанных с автономными системами оружия летального действия. Они подчеркнули, в частности, проблемы соблюдения международного гуманитарного права и международного права по правам человека, потенциального пробела в подотчетности, риск гонки вооружений, снижение порога развязывания войны и уязвимость данного оружия к взлому. Вместе с оговоркой Мартенса эти вопросы привели к сближению взглядов о необходимости сохранения какой-либо формы контроля со стороны человека над системами вооружений с применением силы. В апреле 2018 года Пакистан отметил, что «между Высокими Договаривающимися Сторонами распространяется общее мнение, что оружие с автономными функциями должно всегда оставаться под непосредственным контролем и надзором со стороны человека и должно соответствовать международному праву».[173] Аналогичным образом, Европейский союз заявил, что его члены «твердо убеждены в том, что люди должны принимать решения в отношении применения смертоносной силы, осуществлять достаточный контроль над системами смертоносного оружия, которые они используют, и нести ответственность за решения в отношении жизни и смерти».[174]

В 2018 году также наблюдаются усиленные призывы со стороны парламентариев и ООН к обеспечению контроля со стороны человека. 4 июля Комитет обороны Парламента Бельгии принял резолюцию, запрашивающую Правительство поддержать международные усилия по запрещению использования полностью автономных оружейных систем.[175] На следующий день Европейский парламент проголосовал за то, чтобы рекомендовать Совету Безопасности ООН:

работать над международным запретом в отношении оружейных систем, которые не обеспечивают контроля со стороны человека над применением силы в разных ситуациях, как требует того Парламент, а также при подготовке соответствующих совещаний на уровне ООН срочно разработать и принять общую позицию по автономным оружейным системам и выступить на соответствующих форумах единогласно и действовать соответственным образом.[176]

В своей повестке дня разоружения 2018 года Генеральный секретарь ООН отметил: «Похоже, все стороны согласны с тем, что, как минимум, необходим надзор со стороны человека за использованием силы». Он предложил поддержать усилия государств «разработать новые меры, в том числе политически или юридически обязывающие меры для обеспечения постоянного контроля со стороны человека над применением силы».[177] Хотя этот термин еще предстоит определить, требование «контроль со стороны человека» фактически является тем же самым, что и запрещение оружия без такого контроля. Тем самым, широко распространенное согласие о необходимости контроля со стороны человека указывает на то, что полностью автономные оружейные системы противоречат требованиям общественного сознания.

 

VI. Необходимость в договоре об упреждающем запрете

Оговорка Мартенса заполняет пробел в том случае, когда существующие договоры не охватывают некую новую ситуацию или технологию. В таких случаях принципы гуманности и требования общественного сознания служат руководством для толкования международного права и устанавливают стандарты, с помощью которых можно оценивать средства и методы войны. При этом они обеспечивают основу для разумной защиты гражданских лиц и комбатантов. Эта оговорка, которая является положением международного гуманитарного права, также включает моральные соображения в правовой анализ.

Существующие договоры регулируют полностью автономные оружейные системы лишь в общих чертах, поэтому оценку оружия следует проводить с учетом оговорки Мартенса. Поскольку полностью автономные оружейные системы вызывают обеспокоенность как с точки зрения принципов гуманности, так и с точки зрения требований общественного сознания, оговорка Мартенса указывает на острую необходимость принятия конкретного международного соглашения о новых технологиях. Новый документ должен принять форму упреждающего запрета на разработку, производство и использование полностью автономных оружейных систем для того, чтобы устранить любую неопределенность и соблюдать элементы оговорки Мартенса.

Нет никакого другого способа регулировать полностью автономные оружейные системы, кроме как ввести запрет, обеспечивающий соблюдение принципов гуманности. Полностью автономные системы оружия не будут обладать ни состраданием, ни правовыми и этическими суждениями, которые способствуют гуманному обращению с людьми. Серьезные проблемы возникнут в вопросах, связанных с уважением человеческой жизни. Даже если бы они могли соблюдать правовые нормы защиты, они не смогут уважать человеческое достоинство.

Ограничение в виде использования полностью автономных оружейных систем только в определенных местах, например, там, где гражданское население почти не встретить, не решит проблему в достаточной степени. «Вред другим», нанесение которого стремится избежать принцип гуманного обращения, включает в себя разрушение гражданских объектов, которые могут находиться там, где нет гражданских лиц. Требование уважать достоинство человека применяется как к комбатантам, так и к гражданским лицам, поэтому оружие не должно разрешаться к применению там, где располагаются вражеские войска. Кроме того, создание полностью автономных оружейных систем, которые затем будут усовершенствованы и войдут в национальные арсеналы, повысит вероятность их неправомерного использования. Вполне вероятно, доступ к ним могут получить лица, не обращающие внимания на человеческие страдания и не уважающие человеческую жизнь или достоинство. Письмо руководителей технологических компаний от 2017 года говорит о том, что такое оружие может быть «оружием террора, оружием, которое диктаторы и террористы могут использовать против невинных людей, а также оружием, система которого при взломе хакерами может привести к нежелательным последствиям».[178] Нормативное положение, допускающее существование полностью автономных оружейных систем, приведет к нарушению принципов человечности. 

Запрет также необходим для содействия соблюдению требований общественного сознания. Обзор общественного мнения показывает, что обычные люди и эксперты одинаково высказываются против перспективы полностью автономных оружейных систем, исходя из моральных соображений. Общественные опросы продемонстрировали значительное противостояние этим оружейным системам, что продиктовано проблемой делегирования решений о жизни и смерти машинам. Эксперты постоянно призывают к упреждающему запрету на полностью автономное оружие, ссылаясь на моральные аспекты наряду с юридическими соображениями и соображениями безопасности. Нормативное положение, которое допускает существование полностью автономных оружейных систем, даже при их использовании только в ограниченных обстоятельствах, будет противоречить широко распространенному мнению общественности о том, что полностью автономные системы являются неправильными с моральной точки зрения.

Являясь еще одним элементом общественного сознания, заявления правительств демонстрируют, что протесты против оружейных систем, лишенных контроля со стороны человека над выбором и поражением целей, озвучиваются не только отдельными лицами, но и целыми странам. Более двух десятков стран прямо призвали к упреждающему запрету на данное оружие;[179] возникает консенсус относительно необходимости человеческого контроля над применением вооруженной силы. Как отмечалось выше, требование о контроле со стороны человека фактически эквивалентно запрету на оружие без него. Поэтому запрет будет наилучшим образом обеспечивать соблюдение требований общественного сознания.

Принципы гуманности и требования общественного сознания подкрепляют противостояние полностью автономным оружейным системам, хотя, как говорилось выше, они являются не единственным предметом, вызывающим тревожность. Полностью автономные оружейные системы также вызывают сомнения в вопросах соответствия другим правовым положениям и повышают риски в отношении подотчетности, технологические риски и риски безопасности. В совокупности эти аспекты, представляющие опасность для человечества, более чем оправдывают создание нового закона, поддерживающего контроль со стороны человека над применением вооруженной силы и препятствующему созданию полностью автономных оружейных систем.

 

Выражение благодарности

Старший научный сотрудник Отдела вооружений Хьюман Райтс Вотч Бонни Дочерти - ведущий автор и редактор этого доклада. Она является заместителем директора по вопросам вооруженных конфликтов и защиты гражданского населения, а также лектором в области права в Международной клинике прав человека (МКПЧ) в Гарвардской школе права. Большой вклад в исследование, анализ и составление доклада внесли студенты МКПЧ Даниэль Даффилд, Энни Мэддинг и Парас Шах. Стив Гуз, директор Отдела вооружений, и Мэри Уорхем, директор информационно-просветительской службы Отдела вооружений, занимались редакцией доклада. Главный юридический консультант Динах ПоКемпнер и заместитель директора по программе Том Портеус также рецензировали доклад. Питер Асаро, адъюнкт-профессор Школы медиа-исследований в Новой школе, предоставил дополнительную обратную связь по этому докладу.

Подготовку данного доклада для публикации осуществляли старший сотрудник Отдела вооружений Марта Космина, административный менеджер Фицра Хепкинс и старший координатор Хосе Мартинес. Рассел Кристиан работал над иллюстрациями для обложки доклада.

 

 

[1]Для более детального рассмотрения плюсов и минусов полностью автономных оружейных систем см. Хьюман Райтс Вотч и Международная клиника прав человека Гарвардской школы права (МКПЧ), «Собирая доказательства: опасность роботов-убийц и необходимость упреждающего запрета», декабрь 2016 года, https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban.

[2] Институт «Будущее жизни», «Автономные оружейные системы: открытое письмо от исследователей ИИ (искусственного интеллекта) и роботов», в открытом доступе с 28 июля 2015 года, https://futureoflife.org/open-letter-autonomous-weapons/ (по состоянию на 22 июля 2018 года).

[3]Конвенция (II) о законах и обычаях сухопутной войны с приложением: Положение о законах и обычаях сухопутной войны, Гаага, принята 29 июля 1899 года, вступила в силу 4 сентября 1900 года, преамбула, параграф 8.

[4]«Три конвенции, принятые на Конференции 1899 года, представляли три широкие сферы ... в вопросах мирного урегулирования международных споров, ограничения вооружений и законов войны». Бетси Бейкер, «Гаагские мирные конференции: 1899 и 1907 года», Энциклопедия международного публичного права Макса Планка, обновлена в ноябре 2009 года, http://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690-e305 (по состоянию на 14 июля 2018 года), параграф 3.

[5]См. Антонио Кассезе, «Оговорка Мартенса: синица в руке или журавль в небе?» Европейский журнал международного права, выпуск 11, № 1 (2000), стр. 193-195; Теодор Мерон, «Оговорка Мартенса, принципы человечности и требования общественного сознания», Американский журнал международного права, выпуск 94, № 1 (2000), стр. 79 («оговорка была первоначально создана с целью предоставления остаточных гуманитарных норм для защиты населения оккупированных территорий, особенно вооруженных противников на этих территориях»). Не значительное количество ученых высказывают сомнение относительно применяемого мнения, что оговорка служит справедливым компромиссом. См. Ротем Гилади, «Положение об иронии: размышления о происхождении оговорки Мартенса», Европейский журнал международного права, выпуск 25, № 3 (2014), стр. 853 («Его [Мартенса] реакция на возражения, выдвинутые Бельгией, была чем-то вроде примирения. Естественно, было рассчитано выдвинуть законные нормы об оккупации, что отвечали бы интересам расширяющейся Российской империи, которую он представлял ... Ответ Мартенса остается классическим примером политики власти, завуалированной гуманитарной риторикой, а также умело пользующейся политической и профессиональной уязвимостью аудитории»).

[6]По состоянию на 6 августа 2018 года 196 государств являются участниками четырех Женевских конвенциях. См. Международный комитет Красного Креста (МККК), «Договоры, государства-участники и комментарии, Женевские конвенции от 12 августа 1949 года, дополнительные протоколы и комментарии к ним», https://ihl-databases.icrc.org/applic/ihl/ ihl.nsf / vwTreaties1949.xsp (по состоянию на 6 августа 2018 года).

[7]Женевская конвенция об улучшении участи раненых и больных в действующих армиях, принята 12 августа 1949 года, 75 U.N.T.S. 31, вступила в силу 21 октября 1950 г., ст. 63; Женевская конвенция (II) об улучшении участи раненых, больных и лиц, потерпевших кораблекрушение, из состава вооруженных сил на море, принята 12 августа 1949 года, 75 U.N.T.S. 85, вступила в силу 21 октября 1950 г., ст. 62; Женевская конвенция об обращении с военнопленными, принята 12 августа 1949 года, 75 U.N.T.S. 135, вступила в силу 21 октября 1950 г., ст. 142; Женевская конвенция о защите гражданского населения во время войны, принята 12 августа 1949 года, 75 U.N.T.S. 287, вступила в силу 21 октября 1950 г., ст. 158 («Денонсация будет иметь силу лишь в отношении денонсирующей державы. Она никак не будет влиять на обязательства, которые Стороны, находящиеся в конфликте, будут обязаны продолжать выполнять в силу принципов международного права, поскольку они вытекают из обычаев, установившихся среди цивилизованных народов, из законов человечности и велений общественной совести»).

[8]МККК, «Комментарий 2016 года к Конвенции (I) об улучшении участи раненых и больных в действующих армиях, Женева, 12 августа 1949 года: статья 63:« Денонсация », https://ihl-databases.icrc.org/applic/ihl/ihl.nsf/Comment.xsp?action=openDocument&documentId=E6BD0D82E2A36F3EC1257F7A00588C50 (по состоянию на 14 июля 2018 года), параграф 3330.

[9]По состоянию на 6 августа 2018 года в Дополнительном протоколе I участвовало 174 государства-участника. См. МККК, «Дополнительный протокол к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов (Протокол I), 8 июня 1977 года» https://ihl-databases.icrc.org/ihl/ INTRO / 470 (по состоянию на 6 августа 2018 года).

[10]Дополнительный протокол к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов (Протокол I), принят 8 июня 1977 г., 1125 U.N.T.S. 3, вступил в силу 7 декабря 1978 г., ст. 1 (2).

[11]МККК, «Комментарий 1987 года к Дополнительному протоколу к Женевским конвенциям от 12 августа 1949 года и касающийся защиты жертв международных вооруженных конфликтов (Протокол I): статья 1« Общие принципы и область применения », https://ihl‑databases.icrc.org/applic/ihl/ihl.nsf/Comment.xsp?action=openDocument&documentId=7125D4CBD57A70DDC12563CD0042F793 (по состоянию на 15 июля 2018 года), параграф 55.

[12]Заметным исключением является Конвенция 1993 года о химическом оружии. См. Конвенцию о запрещении разработки, производства, накопления и применения химического оружия и о его уничтожении, открытую для подписания 13 января 1993 года, 1974 год UNTS 45, вступила в силу 29 апреля 1997 года.

[13]Женевский протокол 1925 года о газах включает в себя элементы оговорки Мартенса в преамбуле. Протокол о запрещении применения на войне удушливых, ядовитых или других подобных газов и бактериологических средств, принят 17 июня 1925 года, 94 L.N.T.S. 65, вступил в силу 8 февраля 1928 года, преамбула, параграфы 1-3 («Применение на войне удушливых, ядовитых или других подобных газов …справедливо было осуждено общественным мнением цивилизованного мира, считая, что запрещение этого применения было сформулировано в договорах, участниками коих является большинство держав мира, в целях повсеместного признания … сего запрещения, равно обязательного для совести и практики народов»).

[14]Конвенция о запрещении разработки, производства и накопления запасов бактериологического (биологического) и токсинного оружия и об их уничтожении, открыта для подписания 10 апреля 1972 года, 1015 UNTS 163, вступила в силу 26 марта 1975 года, преамбула, параграф 10 («Будучи убеждены, что такое использование противоречило бы совести человечества и что не следует жалеть никаких усилий для уменьшения этой опасности»).

[15]Конвенция о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие (КНО), принята 10 декабря 1980 года, 1342 UNTS 137, вступила в силу 2 декабря 1983 года, преамбула параграф 5 («Подтверждая свою убежденность, что в случаях, не предусмотренных настоящей Конвенцией и прилагаемыми к ней Протоколами или другими международными соглашениями, гражданское население и комбатанты постоянно остаются под защитой и действием принципов международного права, вытекающих из установившихся обычаев, из принципов гуманности и требований общественного сознания»).

[16]Конвенция о запрещении применения, накопления запасов, производства и передачи противопехотных мин и об их уничтожении, принята 18 сентября 1997 года, 2056 UNTS 241, вступила в силу 1 марта 1999 года, преамбула, параграф 8 («Подчеркивая роль общественного сознания в упрочении принципов гуманности, показателем которой стал призыв к полному запрещению противопехотных мин»).

[17]Конвенция по кассетным боеприпасам, принята 30 мая 2008 года, 2688 UNTS 39, вступила в силу 1 августа 2010 года, преамбула, параграф 11 («Подтверждая, что в случаях, не предусмотренных настоящей Конвенцией или другими международными соглашениями, гражданские лица и комбатанты постоянно остаются под защитой и действием принципов международного права, вытекающих из установившихся обычаев, из принципов гуманности и требований общественного сознания»).

[18]Договор о запрещении ядерного оружия, принят 7 июля 2017 года, C.N.475.2017.TREATIES-XXVI.9, преамбула, параграф 11 («Подтверждая, что любое применение ядерного оружия было бы несовместимо также с принципами гуманности и требованиями общественного сознания»).

[19]Протокол I, статья 1 (2)

[20]Пример, в юридическом документе о полностью автономных оружейных системах Швейцария утверждала: «Соответственно, не все, что явно не запрещено, можно назвать законным, если оно противоречит принципам, изложенным в оговорке Мартенса. Действительно, можно сказать, что оговорка Мартенса налагает положительные обязательства, когда предполагаемые военные действия могут привести к необоснованным последствиям в вопросах гуманности ». Швейцария, «Согласованный подход к автономным оружейным системам», Документ ООН CCW / GGE.1 / 2017 / WP.9, 10 ноября 2017 года, https://www.unog.ch/80256EDD006B8954/ (httpAssets)/6B80F9385F6B505FC12581D4006633F8/$file/2017_GGEonLAWS_WP9_Switzerland.pdf (по состоянию на 15 июля 2018 года), параграф 18

[21]In re Krupp, Судебное решение от 31 июля 1948 года, в «Суд над военными преступниками до Нюрнбергских военных трибуналов: «Дело Круппа», том. IX, (Вашингтон: типография правительства США, 1950 год), стр. 1340.

[22]«Консультативное заключение о законности угрозы ядерным оружием или его применения», Международный Суд, 8 июля 1996 года, http://www.icj-cij.org/files/case-related/95/095-19960708-ADV- 01-00-EN.pdf (по состоянию на 15 июля 2018 года), параграф 78.

[23]Некоторые критики утверждают, что международное гуманитарное право будет в достаточной мере охватывать полностью автономные оружейные системы и отмечают применимость договоров о разоружении в отношении противопехотных мин, кассетных боеприпасов и зажигательного оружия. Однако эти документы не содержат конкретного закона о полностью автономном оружии. Чтобы узнать о мнении критиков, см. Майкл Н.Шмитт и Джеффри Ф.Тернер, «Из-под контроля»: автономные оружейные системы и закон вооруженного конфликта », Журнал национальной безопасности Гарвардской школы права, выпуск 4 (2013), стр. 276.

[24]См. Руперт Тайсхерст, «Оговорка Мартенса и законы вооруженного конфликта», Международный обзор Красного Креста, №. 317 (1997), https://www.icrc.org/rus/resources/documents/article/other/57jnhy.htm (по состоянию на 15 июля 2018 г.), стр. 1 («Проблема, с которой сталкиваются гуманитарные юристы, заключается в том, что не существует общепринятой интерпретации оговорки Мартенса, поэтому она подвержена множеству интерпретаций, как узкой направленности, так и широкой»).

[25]Например, британское правительство распространило это толкование на своем брифинге перед Международным Судом в ходе Консультативного заключения по ядерному оружию 1996 года, в котором говорится: «Хотя в оговорке Мартенса четко указано, что отсутствие конкретного договорного положения об использовании ядерного оружия само по себе недостаточно, чтобы установить, что такое оружие законно можно использовать, оговорка сама по себе не устанавливает его незаконность. Термины самой оговорки Мартенса вызывают необходимость указать на правило обычного международного права, которое может запретить использование ядерного оружия». Мерон, «Оговорка Мартенса, принципы гуманности и требования общественного сознания», Американский журнал международного права, стр. 85.

[26]Франция против Греции, Постоянная Палата международного правосудия, решение № 22 от 17 марта 1934 года, http://www.worldcourts.com/pcij/rus/decisions/1934.03.17_lighthouses.htm (по состоянию на 15 июля 2018 года), параграф 106 (Отдельное мнение М. Анзилотти) («[О]дним из основополагающих правил при толковании правовых текстов является то, что лишние слова в них не содержатся: правильным путем, по возможности, является поиск интерпретации, которая позволяет найти причину и смысл каждого слова в тексте»).

[27]См., Например, In re Krupp, Судебное решение от 31 июля 1948 года, в «Суд над военными преступниками до Нюрнбергских военных трибуналов: «Дело Круппа», том. IX, (Вашингтон: типография правительства США, 1950 год), стр. 1340. (утверждение, что оговорка Мартенса «гораздо больше, чем благочестивая декларация»). См. Также Кассезе, «Оговорка Мартенса», Европейский журнал международного права, стр. 210 (утверждение, что большинство государств, появившихся в Международном Суде в отношении Консультативного заключения по ядерному оружию, «предположили - неявно или витиеватым образом - расширение сферы действия оговорки с тем, чтобы довести его до ранга нормы, устанавливающей новые источники права»); МККК, Руководство по правовому обзору нового оружия, средств и методов ведения войны: меры по реализации статьи 36 Дополнительного протокола I 1977 года (2006 год), http://www.icrc.org/rus/resources/documents/publication /p0902.htm (по состоянию на 15 июля 2018 года), стр. 17 (заявление: «Оружие, которое не охвачено существующими нормами международного гуманитарного права, будет считаться противоречащим оговорке Мартенса, если оно по своей сути будет противоречить принципам гуманности или требованиям общественного сознания»).

[28]См., например, Майкл Солтер, «Переосмысление конкурирующих интерпретаций сферы и потенциала оговорки Мартенса», Журнал права по вопросам конфликта и безопасности, выпуск 17, № 3 (2012), стр. 421.

[29]Кассезе, «Оговорка Мартенса», Европейский журнал международного права, стр. 212.

[30]Из того же источника. См. Также Йохен фон Бернсторфф, «Оговорка Мартенса», «Энциклопедия международного публичного права Макса Планка», обновлена в декабре 2009 года, http://opil.ouplaw.com/search?sfam=&q=Martens+Clause+&prd=EPIL&searchBtn=Search (по состоянию на 15 июля 2018 года), параграф 13 («Второе чтение рассматривает оговорку как интерпретирующее средство, согласно которому, в случае сомнений, нормы международного гуманитарного права должны толковаться в соответствии с «принципами гуманности » и «требованиями общественного сознания»).

[31]МККК, «Этика и автономные оружейные системы: этическая основа для контроля со стороны человека?» 3 апреля 2018 года, https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control (по состоянию на 15 июля 2018 года), стр. 6. МККК в другом документе признал, что государства должны учитывать оговорку Мартенса при проведении обзоров оружия. МККК, Руководство по правовому обзору нового оружия, средств и методов ведения войны, стр. 17.

[32]МККК, «Этика и автономные оружейные системы: этическая основа для контроля со стороны человека?» стр. 6.

[33]Питер Асаро, «Jus nascendi, роботизированные оружейные системы и оговорка Мартенса», в «Законе о роботах», под ред. Райана Кало, Майкла Фрумкина и Яна Керра (Челтенхэм, Великобритания: Эдвард Элгар Паблишинг, 2016), https://www.elgaronline.com/view/9781783476725.00024.xml (по состоянию на 15 июля 2018 года), стр. 386.

[34]МККК, «Этика и автономные оружейные системы: этическая основа для контроля со стороны человека?» стр. 6.

[35]Протокол КНО по ослепляющим лазерам (Протокол IV к КНО), принятый 13 октября 1995 года, вступил в силу 30 июля 1998 года, ст. 1. Для обсуждения истории ведения переговоров по этому протоколу и его связи с обсуждениями о полностью автономных оружейных системах см. Хьюман Райтс Вотч и МКПЧ, Прецедент для предотвращения: запрет на ослепляющие лазеры как образец запрета роботов-убийц, ноябрь 2015 года, https://www.hrw.org/sites/default/files/supporting_resources/robots_and_lasers_final.pdf, стр. 3-7.

[36]МККК, Ослепляющее оружие: доклады совещаний экспертов, созываемые МККК по лазерному оружию на поле боя, 1989-1991 годы (Женева: МККК, 1993 год), с. 342 (выделение в оригинале удалено).

[37]Из того же источника, стр. 341.

[38]Из того же источника, стр. 85.

[39] Луиза Досвальд-Бек, «Новый протокол об ослепляющем лазерном оружии», Международный обзор Красного Креста, №. 312 (1996), https://www.icrc.org/rus/resources/documents/article/other/57jn4y.htm (по состоянию на 15 июля 2018 года).

[40]Резюме заявления Хьюман Райтс Вотч, первая обзорная конференция КНО, «Краткий отчет о 6-м совещании», CCW / CONF.I / SR.6, 28 сентября 1995 г., параграф 60.

[41] Резюме заявления Программы развития ООН, первая обзорная конференция КНО, «Краткий отчет о 5-м совещании», CCW / CONF.I / SR.5, 27 сентября 1995 г., параграф 50.

[42]Резюме заявления Кристоффель Блинденмишн (Christoffel Blindenmission-CBM), первая обзорная конференция КНО, «Краткий отчет о 6-м совещании», CCW / CONF.I / SR.6, 28 сентября 1995 г., параграф 51. CBM является международной организацией христианского развития.

[43] Резюме заявления Чили, первая обзорная конференция КНО, «Краткий отчет о 14-м совещании», CCW / CONF.I / SR.13, 3 мая 1996 года, параграф 69.

[44] Европейский парламент, Резолюция о неуспешной работе Международной конференции по противопехотным минам и лазерному оружию, 4 декабря 1995 года, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri= CELEX: 51995IP1360 & from=EN (по состоянию на 15 июля 2018 года).

[45] Из того же источника.

[46] Досвальд-Бек, «Новый протокол об ослепляющем лазерном оружии», Международный обзор Красного Креста.

[47] Ослепляющие лазеры и полностью автономные оружейные системы в некоторых отношениях будут отличаться. Например, ослепляющие лазеры представляют собой особый тип оружия, в то время как полностью автономные оружейные системы относятся к более широкому классу. Однако, вместо того чтобы подрывать призывы к запрету, уникальные качества полностью автономных оружейных систем делают упреждающий запрет еще более насущным. См. Хьюман Райтс Вотч и МКПЧ, Прецедент по упреждению, стр. 17-18.

[48]Оксфордские словари английского языка, «гуманность», https://en.oxforddictionaries.com/definition/humanity (по состоянию на 15 июля 2018 года). См. Также Мерриам-Вебстер, «гуманность», https://www.merriam-webster.com/dictionary/humanity (по состоянию на 15 июля 2018 года) (определение гуманности как «сострадательного, отзывчивого или великодушного поведения или склонности, качество или состояние быть гуманным ").

[49] См. МККК, «Положение 87: Гуманное обращение», База данных обычного международного гуманитарного права, https://ihl-databases.icrc.org/customary-ihl/rus/docs/v1_rul_rule87 (по состоянию на 15 июля 2018 года).

[50] Из того же источника. См. также В.В. Пустогаров, «Оговорка Мартенса в международном праве», Журнал истории международного права, выпуск 125 (1999), стр. 133 (отмечается, что «принципы гуманности конкретно выражены в положениях, предусматривающих «гуманное обращение» с ранеными, больными, военнопленными и другими лицами, подпадающими под защиту Женевских конвенций 1949 года и Протоколов 1977 года. Можно сказать, что «гуманное обращение» является основным содержанием гуманитарного права»). Кроме того, в статье 10 (1) Международного пакта о гражданских и политических правах говорится: «Все лица, лишенные свободы, имеют право на гуманное обращение»; Международный пакт о гражданских и политических правах (МПГПП), принят 16 декабря 1966 года, G.A. Res. 2200A (XXI), 21 U.N. GAOR Supp. (№ 16) в 52, U.N. Doc.A / 6316 (1966), 999 U.N.T.S. 171, вступил в силу 23 марта 1976 года, ст. 10 (1).

[51] МККК, «Основополагающие принципы Красного Креста: комментарий», 1 января 1979 года, https://www.icrc.org/rus/resources/documents/misc/fundamental-principles-commentary-010179.htm (по состоянию на 15 июля , 2018 года).

[52] Оксфордские словари английского языка, «гуманность», https://en.oxforddictionaries.com/definition/humane (по состоянию на 15 июля 2018 года) (определение «гуманный» как «наличие или проявление сострадания или доброжелательности»). 

[53] МККК, «Основополагающие принципы Красного Креста: комментарий», 1 января 1979 года.

[54] В этом докладе термин «актор» используется для описания агента, находящегося в ситуациях, включая вооруженный конфликт, где он принимает моральные решения, то есть те, в которых действия человека могут нанести вред или помощь другим. Таким образом, как люди, так и полностью автономные оружейные системы являются акторами для целей настоящего документа. В соответствии с оговоркой Мартенса все акторы обязаны соблюдать принципы гуманности. Для определения эмпатии см. Оксфордские словари английского языка «эмпатия», https://en.oxforddictionaries.com/definition/empathy (доступ к 15 июля 2018 года). Аннелиза Кляйн-Пинеда также прокомментировала, что «как эмпатия, так и симпатия требуют способности интерпретировать действия и воспринимать мотивации или чувства других». Аннелиза Кляйн-Пинеда, «Этика роботов: есть ли алгоритм для морали?» Сташлерн, 22 декабря 2016 года, https://learn.stashinvest.com/robot-ethics-morality (по состоянию на 15 июля 2018 года).

[55] Кристоф Хейнс, ранее специальный докладчик по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, писал, что «[р]ешения о жизни и смерти в вооруженном конфликте могут потребовать сострадания и интуиции». Отчет Специального докладчика по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, Кристоф Хейнс, Летальная автономная робототехника и защита жизни, Совет ООН по правам человека, A / HRC / 23/47, 9 апреля 2013 года, https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A -HRC-23-47_en.pdf (по состоянию на 15 июля 2018 года), параграф 55. 

[56] Жан Пикте, «Развитие и принципы международного гуманитарного права» (Женева: Мартинус Ниофф и Институт Генри Дюнана, 1985 год), стр. 62.

[57] Оксфордские словари английского языка, «суждение», https://en.oxforddictionaries.com/definition/judgement (по состоянию на 15 июля, 2018) (определение «суждения» как «способности принимать взвешенные решения или делать разумные выводы»).

[58] Джеймс Х. Мур, «Характер, значение и сложность машинной этики», IEEE Интеллиджент Системс, выпуск 21, №4, (2006), https://ieeexplore.ieee.org/document/1667948/ (по состоянию на 15 июля 2018 года), стр. 21.

[59] Джеймс Х. Мур, «Четыре типа этического робота», Философия сейчас, выпуск 72 (2007), стр. 12.

[60] Мур, «Характер, значение и сложность машинной этики», IEEE Интеллиджент Системс, стр. 21.

[61] МККК, «Основополагающие принципы Красного Креста и Красного Полумесяца», 1996 год, https://www.icrc.org/eng/assets/files/other/icrc_002_0513.pdf (по состоянию на 15 июля 2018 года) стр. 2.

[62] Из того же источника.

[63] Оксфордские словари английского языка, «эмоция», https://en.oxforddictionaries.com/definition/emotion (по состоянию на 15 июля, 2018 года) (определение эмоции как «сильного чувства, вытекающего из обстоятельств, настроения или отношений одного человека с другими» и «инстинктивного или интуитивного чувства в отличие от рассуждений или знаний»)

[64]Аманда Шарки: «Можем ли мы программировать или тренировать роботов, чтобы они были хорошими?» Этика и информационные технологии (2017), по состоянию на 3 августа 2018 года, doi.org/10.1007/s10676-017-9425-5, стр. 8.

[65] См. Оливию Голдхилл: «Можем ли мы доверить роботам принятие моральных решений?» Кварц, 3 апреля 2016 года, https://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/ (по состоянию на 15 июля 2018 года) («маловероятно, что роботы смогут принимать самые сложные этические решения в обозримом будущем»).

[66] Шарки: «Можем ли мы программировать или обучать роботов быть хорошими?» Этика и информационные технологии, стр. 1.

[67] Мэри Уорхэм (Хьюман Райтс Вотч), «Время для обязательного, абсолютного запрета на полностью автономные оружейные систем», комментарий, Иквэл Таймс, 9 ноября 2017 года, https://www.hrw.org/news/2017/11/09/its-time-binding-absolute-ban-fully-autonomous-weapons.

[68] Кристоф Хейнс, «Автономные оружейные системы при вооруженном конфликте и право на достойную жизнь: перспектива Африки», Южноафриканский журнал по правам человека, выпуск 33 (2017), по состоянию на 1 июля 2018 года, doi.org/10.1080/02587203.2017.1303903, стр. 51.

[69] Из того же источника, стр. 58.

[70] МККК, «Основополагающие принципы Международного движения Красного Креста и Красного Полумесяца», август 2015 года, https://www.icrc.org/sites/default/files/topic/file_plus_list/4046-the_fundamental_principles_of_the_international_red_cross_and_red_crescent_movement.pdf (по состоянию на 21 июля, 2018), стр. 3.

[71] МПГПП, ст. 6(1).

[72] Более подробный анализ требований к применению силы в соответствии с правом на жизнь см. в Хьюман Райтс Вотч и МКПЧ, «Нарушая основы: последствия действий роботов-убийц для прав человека», май 2014 года,  https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots, стр. 8-16.,

[73] МККК, «Правило 1: Принцип различия между гражданскими лицами и комбатантами», База данных обычного международного гуманитарного права, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule1 (по состоянию на 21 июля 2018 года); МККК, «Правило 14: Соразмерность при нападении», База данных обычного международного гуманитарного права, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule14 (по состоянию на 6 августа 2018 года); «Военная необходимость», в МККК, «Как закон защищает на войне?», https://casebook.icrc.org/glossary/military-necessiness (по состоянию на 21 июля 2018 года).

[74] Оксфордские словари английского языка, «достоинство», https://en.oxforddictionaries.com/definition/dignity (по состоянию на 21 июля 2018 года) (определение «достоинства» как «качества быть достойным или уважаемым»). См. также Джек Доннелли «Достоинство и права человека» в Швейцарской инициативе в ознаменование 60-летия ВДПЧ, «Защита достоинства: Повестка дня прав человека», июнь 2009 года, https://www.legal-tools.org/doc/ e80bda / pdf / (по состоянию на 21 июля 2018 года), стр. 10; Хьюман Райтс Вотч и МКПЧ, Нарушая основы, стр. 3; Хосе Пабло Алзина де Агилар, «Человеческое достоинство в соответствии с международными документами по правам человека», Ревиста Электроника де Эстудиос Интернационалес, выпуск 22 (2011), стр. 8. («[Международные документы по правам человека] также говорят, что права, вытекающие из этого достоинства или, по крайней мере, самые важные, являются универсальными и неприкосновенными».).

[75] Например, в преамбуле Всеобщей декларации прав человека говорится, что «признание присущего достоинства и равных и неотъемлемых прав всех членов человеческой семьи является основой свободы, справедливости и мира во всем мире». Всеобщая декларация прав человека (ВДПЧ), принята 10 декабря 1948 года, G.A. Res. 217A(III), U.N. Doc. A/810 at 71 (1948), преамбула, параграф 1.

[76] Африканская хартия прав человека и народов (Банджульская хартия), принята 27 июня 1981 года, CAB / LEG / 67/3 rev. 5, 21.I.M. 58, вступила в силу 21 октября 1986 г., ст. 7.

[77] Существует совпадение между типами уважения к степени, в которой актор, который действительно уважает человеческое достоинство, с большей вероятностью предпримет действия, необходимые для защиты человеческой жизни.

[78] МККК, «Этика и автономные оружейные системы: этическая основа для контроля со стороны человека?» стр. 10.

[79] Хейнс, «Автономные оружейные системы в вооруженном конфликте и право на достойную жизнь», Южноафриканский журнал по правам человека, стр. 62-63 («Центральным направлением понятия человеческого достоинства является идея о том, что люди не должны рассматриваться как нечто похожее на объект, который просто имеет инструментальную ценность (как, например, рабство или изнасилование) или вообще не имеет ценности (как во многих массовых убийствах).

[80] Хьюман Райтс Вотч и МКПЧ, «Предоставляя доказательства», стр. 6. См. также Заключительный отчет Прокурору Комитетом, учрежденным для обзора военной операции НАТО против Союзной Республики Югославии, Международный уголовный трибунал по бывшей Югославии, http://www.difesa.it/SMD_/CASD/IM/ ISSMI / Corsi / Corso_Consigliere_Giuridico / Documents / 72470_final_report.pdf (по состоянию на 21 июля 2018 года), параграф 50.

[81]Хьюман Райтс Вотч и МКПЧ, «Предоставляя доказательства», стр. 7. См. также Оливье Кортен, «Разумность в международном праве», Энциклопедия международного публичного права Макса Планка, обновлена в марте 2013 года, http://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690- e1679? prd = EPIL # law-9780199231690-e1679-div1-1 (по состоянию на 22 июля 2018 года), параграф 1 («Разумность также обычно воспринимается как способность к некоторым этическим или моральным, нежели правовым, соображениям»).

[82] Полностью автономные оружейные системы сталкиваются с теми же трудностями, определяющими, является ли сила необходимой и пропорциональной в ситуациях с обеспечением соблюдения законности или, если это возможно, избегать ее, что является требованием для обеспечения права на жизнь. См. Хьюман Райтс Вотч и МКПЧ, «Нарушая основы», стр. 8-14. См. Также Питер Асаро: «Руки вверх, не стрелять!» ВЧР и автоматизация применения полицией силы», журнал «Взаимодействие человека и робота », выпуск 5, №3, (2016), http://humanrobotinteraction.org/journal/index.php/HRI/article/view/301/pdf_37 (по состоянию на 22 июля 2018 года).

[83] Хейнс, «Автономные оружейные системы в вооруженном конфликте и право на достойную жизнь», Южноафриканский журнал по правам человека, стр. 64.

[84] Подполковник Дэйв Гроссман, «Об убийстве: психологическая стоимость обучения убивать на войне и в обществе» (Нью-Йорк: Литтл, Браун и компания, 1995), стр. 4. Точно так же Армин Кришнан писал, что «одним из самых больших ограничений жестокости на войне всегда было естественное препятствие для людей не убивать и не причинять вред другим людям. Естественное торможение на самом деле настолько сильное, что большинство людей скорее умрут, чем убьют кого-то». Армин Кришнан, «Роботы-убийцы: законность и этичность автономных оружейных систем» (Фарнхам: Ашгейт Паблишинг Лимитед, 2009), стр. 130.

[85] МККК, «Этика и автономные оружейные системы: этическая основа для контроля со стороны человека?» стр. 10, 12.

[86] МККК заявил, что важность уважения индивидуальной личности и достоинства личности жизненно важна для принципа гуманности. См. МККК, «Основополагающие принципы Красного Креста: комментарий», 1 января 1979 года.

[87] Кристоф Хейнс, «Автономные оружейные системы: права человека и этические вопросы» (выступление на Совещании экспертов КНО по автономным системам оружия летального действия, 14 апреля 2016 года), расшифровка стенограммы в Хьюман Райтс Вотч.

[88]Эрин Хант и Петр Добжинский, «Право на достоинство и автономные оружейные системы», отчет КНО, 11 апреля 2018 года, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/reports/CCWR6 .3.pdf (по состоянию на 22 июля 2018 года), стр. 5.

 

[89] Ларри Мэй, «Гоббс, закон и общественное сознание», «Критический обзор международной социальной и политической философии», выпуск 19 (2016): по состоянию на 22 июля 2018 года, doi.org/10.1080/13698230.2015.1122352. См., в основном, Хепинг Данг, Международное право, Права человека и общественное мнение: роль государства в обучении стандартам прав человека (Лондон: Тэйлор & Фрэнсис Груп, 2017 год).

[90] Оксфордские словари английского языка «сознание», https://en.oxforddictionaries.com/definition/conscience (по состоянию на 22 июля 2018 года) (определение «сознание» как «моральное чувство» человека и право, рассматриваемое как руководство к поведению»). См. также Мерриэм-Вебстер, «сознание», https://www.merriam-webster.com/dictionary/conscience (по состоянию на 22 июля 2018 года) (определение «сознание» как «чувство или понимание нравственного поощрения или порицания поведения, намерения или характер вместе с чувством обязанности действовать правильно или быть хорошим»)

[91] Асаро, «Jus nascendi, роботизированные оружейные системы и оговорка Мартенса», стр. 374-375.  

[92] Мерон отмечает, что рассмотрение ряда мнений помогает защититься от потенциально безнравственных взглядов, как правительств, так и людей. Мерон также отмечает, что некоторые из них утверждали, что международный закон прав человека, который обсуждался в главе IV настоящего доклада, может сыграть роль в определении общественного сознания. Мерон, «Оговорка Мартенса, принципы гуманности и требования общественного сознания», Американский журнал международного права, стр. 83-84 («общественное мнение, столь влиятельное в нашу эпоху», которое должно сыграть свою роль в развитии международного права, не является совершенно новым явлением »).

[93] Асаро, «Jus nascendi, роботизированные оружейные системы и оговорка Мартенса», стр. 374-375. См. также В.В.. Пустогаров, «Оговорка Мартенса в международном праве», журнал «История международного права», стр. 132-133.

[94] Асаро, «Jus nascendi, роботизированные оружейные системы и оговорка Мартенса », стр. 373-374.

[95] Из того же источника, стр. 375 («На самом деле, лучшее место для поиска нарождающихся норм и требований общественного сознания находиться на общественных форумах, в которых государства и отдельные лица пытаются ухватить и сформулировать эту сознание»).

[96] Из того же источника. («Это содержание должно исходить из публичного обсуждения, а также академического опыта, художественных и культурных выражений, индивидуальной рефлексии, коллективных действий и дополнительных средств, посредством которых общество рассматривает коллективное моральное сознание»).

[97] Майкл Вуд и Омри Сендер, «Государственная практика», Энциклопедия международного публичного права Макса Планка, обновлена в январе 2017 года, http://opil.ouplaw.com/abstract/10.1093/law:epil/9780199231690/law-9780199231690-e1107?rskey = RSszP4 & result = 3 & prd = EPIL (по состоянию на 22 июля 2018 года) («По сути, практика должна быть общей (то есть достаточно распространенной и представительной, а также последовательной) и сопровождаться признанием верховенства закона или правового обязательства»).

[98] При поддержке Движения неприсоединения, насчитывающего более 100 государств-членов, это число намного превышает 100 стран. См., например, заявление Венесуэлы от имени Движения неприсоединения, Группа правительственных экспертов КНО (ГПЭ) по автономным системам летального вооружения, Женева, 28 марта 2018 года, https://www.unog.ch/80256EDD006B8954/ (httpAssets) /E9BBB3F7ACBE8790C125825F004AA329/$file/CCW_GGE_1_2018_WP.1.pdf (по состоянию на 22 июля 2018 года); Заявление Африканской группы, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9-13 апреля 2018 года, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_African-Group.pdf (по состоянию на 22 июля 2018 года).

[99] На примерах государств, выступающих против запрета, см. Заявление Соединенных Штатов, ГПЭ КНО по автономным системам летального вооружения, Женева, 13 апреля 2018 года, https://geneva.usmission.gov/2018/04/17/us-statement -on-the-the-the-the-the-the-gge / (по состоянию на 22 июля 2018 года); Заявление Израиля, Совещание государств-участников КНО, Женева, 15 ноября 2017 года, http://embassies.gov.il/UnGeneva/priorities-statements/Disarmament/Documents/CCW-MSP-GeneralExchangeViews22.11.2017.pdf (по состоянию на 22 июля , 2018).

[100] Чарли Карпентер, «Опрос общественного мнения США об автономных системах оружия летального действия», июнь 2013 года, http://duckofminerva.dreamhosters.com/wp-content/uploads/2013/06/UMass-Survey_Public-Opinion-on-Autonomous-Weapons.pdf (по состоянию на 22 июля 2018 года); Открытая инициатива по роботоэтике, «Этика и управление автономными системами оружия летального действия: международный опрос общественного мнения», 9 ноября 2015 г., http://www.openroboethics.org/wp-content/uploads/2015/11/ORi_LAWS2015.pdf (по состоянию на 22 июля 2018 года); Крис Джексон, «Трое из десяти американцев поддерживают использование автономного оружия», Ipsos, 7 февраля 2017 года, https://www.ipsos.com/en-us/news-polls/three-ten-americans-support-using-autonomy -weapons (по состоянию на 22 июля 2018 года).

[101] Из 55 процентов 39 процентов заявили, что они «выступают категорически против», а 16 процентов «в определенной мере выступают против» использования полностью автономных оружейных систем. Чтобы оценить влияние формулировки, в опросе оружие описывалось как «полностью автономные [робототехническое оружие /смертоносные роботы]». Чарли Карпентер, «Общественное мнение США об автономном оружии». Эти цифры основаны на общем представительном онлайн-опросе 1000 американцев, проведенном Yougov.com. Респонденты были приглашенной группой пользователей Интернета (группа YouGov), сопоставленной и взвешенной по признаку пола, возраста, расы, дохода, региона, образования, идентификации партии, регистрации избирателей, идеологии, политических интересов и военного статуса. Погрешность результатов составляет +/- 3,6 процента.

[102] Из того же источника.

[103] Из того же источника. Согласно опросу, 33 процента сказали, что они «решительно поддерживают» кампанию, а 20 процентов заявили, что они «в некоторой мере поддерживают» ее.

[104] Willem Staes, «Nieuw onderzoek: 60% van de Belgen wil internationaal verbod op ‘killer robots’», «Pax Christi Vlaanderen», 3 июля 2018 года, https://www.paxchristi.be/nieuws/nieuw-onderzoek-60-van -de-belgen-wil-internationaal-verbod-op-killer-robots (по состоянию на 22 июля 2018 года) (неофициальный перевод).

[105] Открытая инициатива по роботоэтике, «Этика и управление автономными системами летального воооружения: международный опрос общественного мнения», стр. 4, 8.

[106] Из того же источника, p. 7.

[107] Из того же источника.

[108] Крис Джексон, «Трое из десяти американцев поддерживают использование автономного оружия».

[109] Из того же источника. Страны, наиболее решительно выступавшие против использования этого оружия, включали Россию (69% против), Перу (67% против), Испания (66% против) и Аргентина (66% против). Страны, которые рассматривали использование несколько благоприятно, включали Индию (60% за), Китай (47% за) и США (34% за).

[110] Кампания «Остановить роботов-убийц» , «Кто мы», апрель 2018 года, https://www.stopkillerrobots.org/coalition/ (по состоянию на 22 июля, 2018).

[111] Из того же источника.

[112] См. Кампания «Остановить роботов-убийц», Библиография, https://www.stopkillerrobots.org/bibliography/ (по состоянию на 22 июля 2018 года).

[113] Заявление Хьюман Райтс Вотч, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9 апреля 2018 года, https://www.hrw.org/news/2018/04/09/statement-human-rights-watch-convention-conventional-weapons-group-governmental.

[114] Заявление МККК, ГПЭ КНО по автономным системам оружия летального действия, Женева, 15 ноября 2017 года, https://www.icrc.org/en/document/expert-meeting-lethal-autonomous-weapons-systems (по состоянию на 22 июля,2018).

[115] Заявление МККК, ГПЭ КНО по автономным системам летального вооружения, Женева, 11 апреля 2018 года, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/11April_ICRC.pdf, стр. 1.

[116] Из того же источника.

[117] Из того же источника.

[118] Нобелевская женская инициатива «Нобелевские лауреаты мира призывают к упреждающему запрету роботов-убийц», 12 мая 2014 года, http://nobelwomensinitiative.org/nobel-peace-laureates-call-for-preemptive-ban-on-killer-robots/ ? ref = 204 (по состоянию на 22 июля 2018 года).

[119] Из того же источника.

[120] PAX, «Религиозные лидеры призывают к запрету роботов-убийц», 12 ноября 2014 года, https://www.paxforpeace.nl/stay-informed/news/religious-leaders-call-for-a-ban-on-killer-robots (доступны 22 июля 2018 года).  

[121] Кампания «Остановить роботов-убийц», «Кто поддерживает призыв о запрете роботов-убийц?»,  июнь 2017 года, http://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_ListBanEndorsers_June2017-1.pdf (по состоянию на 22 июля, 2018), стр. 1.

[122]PAX, «Религиозные лидеры призывают к запрету роботов-убийц».

[123]Фрэнк Зауэр, Международный комитет по контролю за роботизированными вооружениями (МККРВ), «Призыв ученых ... запретить автономных смертоносных роботов», 11 ноября 2012 года, https://www.icrac.net/the-scientists-call/ (по состоянию на 22 июля, 2018 года).

[124] Кампания «Остановить роботов-убийц», «Ученые призывают к запрету», 16 октября 2013 года, https://www.stopkillerrobots.org/2013/10/scientists-call/ (по состоянию на 22 июля 2018 года). Представители из 37 разных стран подписали документ, среди них большое число профессоров из университетов.

[125] «Эксперты информационных технологий из 37 стран требуют запрета роботов-убийц», пресс-релиз МККРВ, 15 октября 2013 года, https://www.icrac.net/wp-content/uploads/2018/06/Scientist-Call_Press-Release.pdf (по состоянию на 22 июля 2018 года), стр. 1; МККРВ, «Как компьютерные ученые, инженеры, эксперты по искусственному интеллекту, инженеры, создающие роботов, и профессионалы из смежных дисциплин, мы призываем к запрету на разработку и использование систем вооружений, в которых решение о применении силы создается автономно», июнь 2018 года, https://www.icrac.net/wp-content/uploads/2018/06/List-of-Signatories-ICRAC-call.pdf (по состоянию на 22 июля 2018 года).

[126] Среди подписавших письмо: генеральный директор компании Tesla Элон Маск, основатель Apple Стив Возняк, соучредитель Skype Яан Таллин, профессор Стивен Хокинг, профессор Ноам Хомски, лидер DeepMind Демис Хассавис (и 21 инженер из его компании), руководитель проекта IBM Watson Кэтрин МакЭлрой, руководитель исследования ИИ компании Facebook Ян Лекон, генеральный директор Twitter Джек Дорси, лауреат Нобелевской премии по физике Франк Вильчек, бывший министр обороны Канады достопочтенный. Жан Жак Блейс и многочисленные профессора. Институт «Будущее жизни», «Автономное оружие: открытое письмо от исследователей ИИ и робототехники».

[127] Из того же источника.

[128] Из того же источника.

[129] Институт «Будущее жизни», «Обязательство об автономных системах летального вооружения», https://futureoflife.org/lethal-autonomous-weapons-pledge/ (по состоянию на 30 июля 2018 года).

[130] Из того же источника.

[131] Ариэль Конн, «Компании, исследователи, инженеры, ученые, предприниматели в сфере ИИ и другие подписывают обязательство не разрабатывать автономные системы летального вооружения», Пресс-релиз Института «Будущее жизни», 18 июля 2018 года, https://futureoflife.org/2018/07/18/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/ (по состоянию на 30 июля 2018 года).

[132] Меган Хеннесси, «Clearpath Robotics против «роботов-убийц», Пресс-релиз ClearPath Robotics, 13 августа 2014 года, https://www.clearpathrobotics.com/2014/08/clearpath-takes-stance-against-killer-robots / (по состоянию на 22 июля 2018 года).

[133] Из того же источника.

[134] Из того же источника.

[135] Сэмюэл Гиббс, «Элон Маск ведет за собой 116 экспертов, призывающих к полному запрету роботов-убийц», Гардиан, 20 августа 2017 года, https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war (по состоянию на 22 июля 2018 года).

[136] Институт «Будущее жизни», «Открытое письмо к Конвенции Организации Объединенных Наций о конкретных видах обычного оружия», https://futureoflife.org/autonomous-weapons-open-letter-2017/ (по состоянию на 22 июля 2018 года).

[137] Из того же источника.

[138] Барбара Бус, «Автономное оружие - одна из самых глупых идей мира»: генеральные директора компаний по ИИ, CNBC, 15 марта 2018 года, https://www.cnbc.com/2018/03/15/autonomous-weapons-are-among-the-worlds-dumbest-ideas-ai-ceo.html (по состоянию на 22 июля 2018 года).

[139] Парламент Соединенного Королевства, Комитет по науке и технике, Запрос по робототехнике и искусственному интеллекту, «Письменные доказательства, представленные Google DeepMind, ROB0062», май 2016 года, http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/robotics-and-artificial-intelligence/written/33005.html (по состоянию на 22 июля 2018 года), параграф 5.3.

[140] Из того же источника.

[141] Скотт Шейн и Дайсуке Вакабаяси, «Дело войны»: сотрудники Google протестуют против Пентагона», Нью-Йорк Таймс, 4 апреля 2018 года, https://www.nytimes.com/2018/04/04/technology/ google-letter-ceo-pentagon-project.html?partner= IFTTT (по состоянию на 22 июля 2018 года).

[142] МККРВ, «Открытое письмо в поддержку сотрудников Google и технических работников», 25 июня 2018 года, https://www.icrac.net/open-letter-in-support-of-google-employees-and-tech-workers/ (по состоянию на 22 июля 2018 года).

[143] Сунда Пичай, «ИИ в компании Google: наши принципы», https://www.blog.google/technology/ai/ai-principles/ (по состоянию на 30 июля 2018 года). Другие аналогичные этические руководящие принципы, которые направлены на обеспечение преимуществ ИИ для людей, а не вреда, включают в себя: «Монреальскую декларацию об ответственном развитии ИИ», https://www.montrealdeclaration-responsibleai.com/the-declaration (по состоянию на 22 июля , 2018); «Будущее жизни», «Принципы Асиломар ИИ», 2017, https://futureoflife.org/ai-principles/ (по состоянию на 24 июля 2018 года) (подписано 1273 исследователями ИИ и робототехники и еще 2 411 лицами); Джордж Дворский: «Правительство Великобритании предлагает пять основных принципов для безопасной защиты людей от ИИ», «Гизмодо», 16 апреля 2018 года, https://gizmodo.com/uk-government-propose-five-basic-principles-to-keep-hu -1825290212 (по состоянию на 22 июля 2018 года). 

[144] «Норвежский фонд обсуждает вопросы по роботам-убийцам», пресс-релиз кампании «Остановить роботов-убийц», 19 марта 2016 года, https://www.stopkillerrobots.org/2016/03/norwayfund/ (по состоянию на 22 июля 2018 года).

[145] «Запрет роботов-убийц распространяется», пресс-релиз PAX, 16 апреля 2018 года, https://www.paxforpeace.nl/stay-informed/news/ban-on-killer-robots-gaining-ground (по состоянию на август 3, 2018).

[146] Кампания «Остановить роботов-убийц», «Взгляды стран на роботов-убийц», 13 апреля 2018 года, https://www.stopkillerrobots.org/wp-content/uploads/2018/04/KRC_CountryViews_13Apr2018.pdf (по состоянию на 22 июля 2018 года). Эти страны: Алжир, Аргентина, Австрия, Боливия, Бразилия, Чили, Китай (призывает только к запрету на использование), Колумбия, Коста-Рика, Куба, Джибути, Эквадор, Египет, Гана, Гватемала, Мексика, Никарагуа, Пакистан, Панама, Перу, Палестина, Уганда, Венесуэла и Зимбабве.

[147] Заявление Венесуэлы от имени Движения неприсоединения, ГПЭ КНО по автономным системам оружия летального действия, Женева, 28 марта 2018 года.

[148] См. в целом Отчет Специального докладчика по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, Кристофа Хейнса, Автономная смертоносная робототехника и защита жизни.

[149] Из того же источника, параграф 89.

[150] Из того же источника, параграф 94.

[151] Из того же источника, параграфы 89, 100.

[152] Из того же источника, параграф 113.

[153] Совместный доклад Специального докладчика по вопросу о правах на свободу мирных собраний и объединений и Специального докладчика по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях по вопросу о надлежащем управлении объединениями Совету ООН по правам человека, A / HRC / 31/66, 4 февраля 2016 года, http://www.refworld.org/docid/575135464.html (по состоянию на 6 августа 2018 года), параграф 67 (е).

[154] Кампания «Остановить роботов-убийц», Хронология, https://www.stopkillerrobots.org/chronology/ (по состоянию на 22 июля 2018 года).

[155] Заявление Эквадора, ГПЭ КНО по автономным системам летального вооружения, Женева, 25 октября 2013 года http://www.reachingcriticalwill.org/images/documents/Disarmament-fora/1com/1com13/statements/29Oct_Ecuador.pdf, (по состоянию на 22 июля 2018 года), стр. 2.

[156] Заявление Индонезии, интерактивный диалог со Специальным докладчиком по вопросу о о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, Совет ООН по правам человека, 23-я сессия, Женева, 30 мая 2013 года, http://stopkillerrobots.org/wp-content/uploads/2013/05 /HRC_Indonesia_09_30May2013.pdf (по состоянию на 22 июля 2018 года). 

[157] Заявление России, «Интерактивный диалог», Совет ООН по правам человека, 23-я сессия, Женева, 30 мая 2013 года, переведено в Кампании «Остановить роботов-убийц», «Отчет об аутрич-работе по докладу ООН «Автономная смертоносная робототехника», http: // stopkillerrobots.org/wp-content/uploads/2013/03/KRC_ReportHeynsUN_Jul2013.pdf (по состоянию на 22 июля 2018 года), стр. 19.

[158] Заявление Пакистана, Интерактивный диалог, Совет ООН по правам человека, 23-я сессия, Женева, 30 мая 2013 года, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Pakistan_09_30May2013.pdf (по состоянию на 22 июля 2018 г. года), стр. 2. См. Также Кампания «Остановить роботов-убийц», Хронология.

[159] Заявление Бразилии, Интерактивный диалог, Совет ООН по правам человека, 23-я сессия, Женева, 30 мая 2013 года, http://stopkillerrobots.org/wp-content/uploads/2013/05/HRC_Brazil_09_30May2013.pdf (по состоянию на 22 июля 2018 г. года), стр. 2.

[160] Что касается проблем безопасности, то Индонезия отметила потенциальное воздействие на «международную стабильность и безопасность», которые могут возникнуть в результате использования такого оружия. Заявление Индонезии, Интерактивный диалог, Совет ООН по правам человека, 23-я сессия, Женева, 30 мая 2013 года. ГРУЛАГ подчеркнула, что «эти системы могут привести к «упорядочению конфликта» и к возможной гонке вооружений, которая могут создать разногласия между государствами и ослабить международное право». Заявление Аргентины от имени ГРУЛАГ, Интерактивный диалог, Совета ООН по правам человека, 23-я сессия, Женева, 30 мая 2013 года, http://stopkillerrobots.org/wp-content/uploads/ 2013/05 / HRC_Argentina_09_30May2013.pdf (по состоянию на 22 июля 2018 года), стр. 2

[161] Кампания «Остановить роботов-убийц», Хронология.

[162] Из того же источника.

[163] Из того же источника.

[164] Заявление Австрии, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9-13 апреля 2018 года, https://www.unog.ch/80256EDD006B8954/(httpAssets)/AA0367088499C566C1258278004D54CD/$file/2018_LAWSGeneralExchang_Austria.pdf (по состоянию на 22 июля 2018 года), стр. 1.

[165] Резюме заявления Бразилии, Неофициальное совещание экспертов КНО по автономным системам оружия летального действия, Женева, 13 мая 2014 года, Кампания «Остановить роботов-убийц», «Отчет о деятельности: неофициальное совещание экспертов КНО по автономным системам оружия летального действия, 13-16 мая 2014 года,  http://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_CCWreport_16Sep20141.pdf (по состоянию на 22 июля 2018 года), стр. 27.

[166] Резюме заявления Мексики, Неофициальное совещание экспертов КНО по автономным системам оружия летального действия, Женева, 13 мая 2014 года, Кампания «Остановить роботов-убийц», «Отчет о деятельности», стр.30.

[167] Резюме заявления России, Неофициальное совещание экспертов КНО по автономным системам оружия летального действия, Женева, 16 апреля 2015 года, Кампания «Остановить роботов-убийц», «Отчет о деятельности», стр. 18.

[168] Заявление Соединенных Штатов, Неофициальное совещание экспертов КНО по автономным системам оружия летального действия, Женева, 16 апреля 2015 года,April 16, 2015, https://geneva.usmission.gov/2015/04/16/ccw-informal-meeting-of-experts-on-lethal-autonomous-weapons-systems-laws/ (по состоянию на 22июля 2018 года).

[169] Заявление Африканской группы, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9 апреля 2018 года.

[170] Из того же источника.

[171] Заявление Ватикана, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9 апреля 2018 года,, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Holy-See.pdf, (по состоянию на 22 июля 2018 года), стр. 1.

[172] Заявление Греции, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9 апреля 2018 года,

http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Greece.pdf (по состоянию на 22 июля 2018 года), стр. 2.

[173] Заявление Пакистана, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9 апреля 2018 года, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_Pakistan.pdf (по состоянию на 22 июля 2018 года), стр. 2.

[174] Заявление Европейского союза, ГПЭ КНО по автономным системам оружия летального действия, Женева, 9 апреля 2018 года, http://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/statements/9April_EU.pdf (по состояние на 22 июля 2018 года), стр. 2.

[175] Кампания «Остановить роботов-убийц», Действия Парламента, 10 июля 2018 года, https://www.stopkillerrobots.org/2018/07/parliaments-2/ (доступ к 24 июля 2018 года); Chambre des Représentants de Belgique, Proposition de Résolution visant à interdire l'usage, par la Défense belge, robots tueurs et drones armés, DOC 54 3201/001, 27 июня 2018 года, http://www.dekamer.be/ FLWB / PDF / 54/3203 / 54K3203001.pdf (по состоянию на 24 июля 2018 года).

[176] «Рекомендация Европейского парламента от 5 июля 2018 года Совету 73-й сессии Генеральной Ассамблеи Организации Объединенных Наций», P8_TA-PROV (2018) 0312, принята 5 июля 2018 года http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2018-0312+0+DOC+PDF+V0//EN (по состоянию на 24 июля 2018 года), статья 1(av).

[177] Генеральный секретарь ООН Антониу Гутерриш, «Забота о нашем общем будущем: Повестка дня для разоружения» (Нью-Йорк: Управление ООН по вопросам разоружения, 2018 год),https://front.un‑arm.org/documents/SG+disarmament+agenda_1.pdf (по состоянию на 22 июля 2018 года), стр. 55.

[178] Институт «Будущее жизни», «Открытое письмо в отношении Конвенции Организации Объединенных Наций по конкретным видам обычного оружия».

[179] Кампания «Остановить роботов-убийц», Мнение страны о роботах-убийцах.