В оон призывают ужесточить контроль за созданием военных роботов и роботов-убийц

Кто-то должен воевать

В конце августа в Женеве практически безрезультатно завершилось очередное заседание Группы правительственных экспертов ООН по боевым автономным системам, иначе говоря, по боевым роботам.

Ожидалось, что эксперты получат мандат на определение юридического статуса таких систем, после чего можно было бы говорить о регламентации или полном запрете их применения. Мандат в итоге выдан не был.

Обратите внимание

Вскоре после этого в США была обнародована «дорожная карта» развития военных роботов, предусматривающая, помимо прочего, повышение степени их самостоятельности за счет использования нейросетевых технологий.

Пока противники и сторонники автономных боевых систем спорят между собой, мы решили разобраться, почему военные считают разработку «роботов-убийц» важной задачей и какую роль они отводят им в войнах будущего.

Чем опасны боевые роботы

Автономные боевые системы в разных видах существуют уже давно. Например, на американские и британские корабли с 1970-х годов ставятся артиллерийские системы Phalanx, способные самостоятельно обнаруживать воздушные и надводные цели и обстреливать их.

При этом участие оператора может сводиться лишь к выставлению критериев, которым должна соответствовать та или иная цель, чтобы система сочла возможным открыть огонь.

На вооружение России с 2007 года поступают зенитные комплексы С-400 «Триумф», которые могут в полностью автоматическом режиме обнаруживать воздушные цели, классифицировать и приоритизировать их, а затем выпускать по ним ракеты.

Израильский противоракетный комплекс «Железный купол» (Iron Dome), принятый на вооружение в 2011 году, тоже умеет работать в автоматическом режиме. Причем эта система способна даже отделять потенциально опасные цели от неопасных: если падение ракеты-цели ожидается в ненаселенной местности, перехватывать ее комплекс не станет.

При этом о правомерности использования боевых роботов в военных конфликтах впервые задумались только в 2013 году. Тогда Совет по правам человека при ООН поставил вопрос о потенциальной угрозе здоровью и жизни людей в условиях войны с применением «роботов-убийц».

Непонятно было и то, как развитие автономных систем повлияет на международную безопасность. В итоге за полный запрет боевых роботов выступили 26 стран.

По мнению их экспертов, отсутствие запрета может привести к появлению высокотехнологичных тираний и значительному росту гражданских потерь в военных конфликтах.

Важно

Коротко их аргументы, которые они считают непреодолимыми, можно сформулировать так.

Существование боевых роботов нарушит положения Женевских конвенций в части защиты прав гражданского населения в зоне военных конфликтов, в особенности принципов различения и соразмерности.

Первый принцип требует обязательного и однозначного разделения людей в зоне боевых действий на комбатантов (тех, кто непосредственно участвует в боевых действиях) и некомбатантов (мирных жителей, а также военнослужащих и вольнонаемных, не участвующих в боевых действиях и имеющих право применять оружие только для самообороны; например, членов обслуживающего персонала).

Принцип соразмерности допускает потери среди некомбатантов, но только в том случае, если они уступают потерям среди комбатантов и перекрываются преимуществами от той или иной военной операции. Упрощенно принцип соразмерности подразумевает запрет на излишние страдания мирного населения.

Кроме того, активное использование «роботов-убийц», по мнению ряда экспертов, нивелирует непосредственную ответственность командиров за те или иные действия.

В частности, непонятно, кто будет отвечать в случае сбоя в программе робота, из-за которого тот начнет убивать и мирное население: командир на поле боя, компания-производитель, конкретный программист или конструктор? Противники боевых роботов уверены, что ответственность не понесет никто.

Более того, командир, отправивший робота на задание с намеренным приказом убивать всех подряд, может впоследствии утверждать, что массовое убийство людей произошло из-за сбоя в программе робота.

Наконец, предполагается, что повсеместное использование боевых роботов приведет к обесцениванию человеческой жизни, поскольку в войнах будущего люди станут не более чем отметками на дисплее.

Артиллерийская система Phalanx на борту корабля американских ВМС U.S. Navy

Юридические проволочки

Позиции противников боевых автономных систем, в принципе, не так уж неуязвимы (как, впрочем, и позиции сторонников таких систем).

В частности, принцип различения можно соблюсти, добавив в программу вооруженного робота обязательно условие: первый выстрел должен сделать потенциальный противник (если человек обстреливает робота, значит он участник боевых действий).

А виновного в неправомерном использовании боевых роботов можно будет определять по логам в памяти самих машин.

Совет

Однако никакой разговор о запрете или ограничении применения «роботов-убийц» на международном уровне невозможен хотя бы потому, что на сегодня не существует даже общепризнанного определения автономности боевых систем.

Одни считают автономным робота, способного применять оружие без вмешательства оператора, а другие, как, например, министерство обороны Великобритании, — способность робота самостоятельно делать выбор из нескольких решений (включая применение оружия) с учетом множества внешних факторов — как под надзором оператора, так и без него.

С 27-го по 31 августа в Женеве состоялось очередное заседание Группы правительственных экспертов ООН по боевым автономным системам (предыдущие два прошли в декабре 2017-го и апреле 2018 года).

Предполагалось, что по итогам этого заседания группа получит право выработать предварительную версию правил применения боевых роботов в военных действиях, но для этого нужен был консенсус, достичь которого не удалось.

Несколько стран, включая США, Россию, Австралию, Израиль и Южную Корею, заявили, что вводить полный запрет на применение боевых автономных роботов не следует.

При этом российские дипломаты отметили, что боевых роботов сегодня не существует, а превентивное введение запрета на них не имеет смысла.

В ходе заседания Россия, США, Франция и Германия предлагали выпустить политическое заявление, в котором страны — участники заседания дали бы гарантии, что человек всегда будет иметь контроль над действиями «роботов-убийц».

По итогам заседания стороны договорились лишь в том, что разработка боевых систем с искусственным интеллектом должна вестись в соответствии с международным гуманитарным правом (совокупность правил, обычаев, норм и принципов, ограничивающих методы и средства ведения войны и защищающих участников военных действий и мирное население), а ответственность за применение «роботов-убийц» в любом случае должен нести человек.

Зачем нужны боевые роботы

За многие годы военные из разных стран мира назвали множество причин, по которым боевые автономные системы необходимы в составе вооруженных сил.

В их числе — повышение точности ударов, наносимых по позициям противника, снижение сопутствующего ущерба (дополнительных разрушений и гибели людей при поражении основной цели), экономия средств военного бюджета и многое другое.

Однако определяющие влияние на развитие военной робототехники оказывают всего четыре главных фактора: стремление снизить потери собственных военнослужащих, постепенное усложнение вооруженных конфликтов, гонка вооружений и компенсация численности вооруженных сил.

Обратите внимание

Все остальные причины, оправдывающие разработку «роботов-убийц» (речь идет именно об автономных вооруженных системах; вопрос развития невооруженных систем, в том числе разведывательных, более обширен), вероятно, оказывают на развитие боевых автономных систем лишь косвенное влияние.

Снижение потерь собственных военнослужащих в вооруженных конфликтах — одна из наиболее очевидных целей, поскольку позволяет сохранять численный паритет с противником или численное превосходство над ним.

Меньшие потери снижают и военные расходы — от выплат по страховым полисам до трат на организацию спасательных операций, эвакуацию и захоронение останков погибших.

Кроме того, подготовка профессиональных военных довольно дорога и требует много времени, а потому терять их в вооруженных конфликтах крайне убыточно.

Министерства обороны нескольких стран мира, включая США и Россию, полагают, что использование боевых роботов позволит быстрее и с минимальным риском для жизни солдат решать сложные боевые задачи, включая военные действия в условиях плотной городской застройки или активной снайперской охоты.

Предполагается, что к 2050 году более 80 процентов населения планеты будет проживать в городах, а значит, вооруженные конфликты будут возникать именно в городских условиях. Ведение боевых действий в городе значительно сложнее, чем, скажем, на открытой местности, поскольку опасность грозит подразделениям буквально со всех направлений, в том числе из-под земли (канализации или метро) и сверху (из окон высоких зданий). В городе даже небольшая и, казалось бы, простая операция легко может превратиться в кровавую бойню.

Использование же различных боевых роботов — от небольших вооруженных мультикоптеров до высокомобильных наземных систем — в городских условиях может существенно упростить планирование и проведение военных операций, в которых фактически одни и те же машины могут быть и разведчиками, и диверсантами, и штурмовыми бойцами.

Гонка вооружений является еще одним доводом, который приводят военные в пользу боевых автономных систем. Дело в том, что военный прогресс постепенно ведет к созданию все более совершенных вооружений и военной техники.

Ведущие страны мира, например, занимаются созданием гиперзвукового оружия, которое сможет прорывать системы противоракетной обороны противника.

Важно

Для перехвата гиперзвуковых ракет потребуется разработка новых автономных противоракетных комплексов с искусственным интеллектом, способных самостоятельно обнаруживать, классифицировать и обстреливать баллистические, аэробаллистические и аэродинамические цели.

Из-за крайне высокой скорости этих целей люди, входящие в расчеты противоракетных комплексов, просто не будут успевать анализировать воздушную обстановку, принимать решения и отдавать команды.

Наконец, вооруженные силы некоторых стран мира столкнулись с постепенным сокращением численности в силу демографических или экономических причин.

Например, из-за постепенного снижения рождаемости снижается численность вооруженных сил Южной Кореи, так что некоторые подразделения уже сегодня комплектуются не полностью.

В составе ВВС США возник дефицит операторов беспилотных летательных аппаратов и летчиков истребителей.

Предполагается, что разработка полностью самостоятельных боевых роботов позволит решить проблемы комплектации вооруженных сил.

Например, по оценке министерства обороны Южной Кореи, применение автономных боевых турелей на самоходных гаубицах K9 Thunder позволит заменить в войсках две тысячи человек.

В свою очередь, американцы полагают, что создание автономных ударных беспилотников позволит устранить дефицит операторов, поскольку благодаря высокой степени автономности дронов один человек сможет управлять сразу несколькими аппаратами.

Пока политики спорят

Сегодня предприятия российского оборонного комплекса занимаются разработкой наземных боевых роботов семейств «Уран», «Нерехта» и «Соратник», которые планируется использовать для огневой поддержки пехоты, охраны военных и важных инфраструктурных объектов, разведки боем, прорыва обороны противника.

В свою очередь в США ведутся работы по созданию беспилотных летательных аппаратов XQ-58A Valkyrie, которые бы выполняли роль ведомых в боевых группах истребителей.

Такие беспилотники могли бы вести разведку, прикрывать пилотируемый ведущий истребитель, вести маневренный воздушный бой или обеспечивать наземным отрядам огневую поддержку с воздуха.

Южная Корея занимается созданием разведывательных и боевых воздушных, наземных, надводных и подводных роботов, которые бы позволили компенсировать недобор в вооруженные силы.

Китай, помимо прочего, работает над танками-роботами, которые позволят снизить потери в интенсивных танковых боях.

А в Израиле в ближайшие несколько лет планируется принять на вооружение боевых микророботов, которые будут использоваться для уничтожения лидеров боевиков «Хезболлы» и ХАМАС.

Совет

Этическая и юридическая стороны подобных разработок требуют тщательного обсуждения.

Можно ли наделять роботов правом убивать людей? Допустимо ли заменять людей, способных прочувствовать ту или иную ситуацию, безэмоциональными исполнителями? Где проходит грань между гражданскими и военными разработками автономных роботов, в основу которых легли одни и те же технологии? Правильно ли убирать солдат с поля боя и усаживать их за пульты управления с удобными креслами за тысячи километров от боевых действий?

«Роботы-убийцы» пока не стали частью современных боевых действий, но начать подготовку юридической базы для применения таких систем следует уже сейчас, потому что прогресс движется очень быстро.

И США, и Россия, и некоторые другие страны заявляют, что не планируют делать боевые системы полностью самостоятельными.

При этом в США отметили, что допускают возможность переключения «роботов-убийц» в полностью автономный режим в качестве ответа на появление боевых автономных роботов у авторитарных режимов.

Василий Сычёв

Источник: https://nplus1.ru/material/2018/09/05/war-robots-laws

Роботы-убийцы. В ООН обсуждают запрет оружия с ИИ

Корреспондент.net, 27 августа 2018, 21:00

В Женеве под эгидой ООН проходят переговоры о смертоносных автономных системах вооружения. Обсуждение проходит среди правительственных экспертов из 70 стран. Они должны решить, появятся ли в будущем роботы-убийцы, самостоятельно определяющие мишень для уничтожения. 

Читайте также:  Российские компании ориентированы на использование искусственного интеллекта

Еще в 2015 году сотни ученых и изобретателей, в том числе Маск, Хокинг и Возняк, призвали отказаться от идеи оружия с искусственным интеллектом. Светлые умы человечества предупреждают, что контроль ИИ может оказяться непосильной задачей.

Первая сессия Группы правительственных экспертов ООН прошла в Женеве в ноябре 2017 года. Тогда за полный запрет роботов-убийц выступили более 20 лауреатов Нобелевской премии мира, 150 религиозных лидеров и три тысячи специалистов по искусственному интеллекту.

Развитие искусственного интеллекта и робототехники также обсуждалось на экономическо форуме в Давосе. Корреспондент.net рассказывает подробности.

Сверхдержавы за роботов-убийц

Против запрета автономных вооружений выступают государства, активно инвестирующие в использование искусственного интеллекта для военных нужд, например, США, Израиль, Россия и Великобритания.

К примеру, президент России Владимир Путин считает, что лидер по созданию искусственного интеллекта “будет властелином мира”.

По сообщениям российских СМИ, их страна работает над созданием беспилотных летательных аппаратов и транспортных средств военного и гражданского назначения.

Обратите внимание

Российские военные также разрабатывают роботов, системы вооружений для уничтожения беспилотников и крылатые ракеты, которые смогут анализировать данные с радаров и принимать решения при выборе высоты, скорости и направления своего полета.

Пентагон разработал концепцию под названием Third Offset – Третья Компенсационная стратегия или Стратегии смещения. Согласно ей, быстрое развитие искусственного интеллекта определит следующее поколение оружия. Подробно в материале Армия роботов. Будущее Вооруженных сил США.

Американцы считают, что оружие с ИИ поможет избежать “сопутствующих разрушений”, поскольку компьютер быстрее анализирует и принимает решение.

В прошлом году агентство перспективных исследовательских проектов Пентагона DARPA обнародовало документ, в котором говорится о намерении за четыре года создать для военных нужд искусственный интеллект нового поколения, максимально близкий к человеческому.

В США уже проходили масштабные учения, на которых были протестированы около 50 новых военных технологий. В том числе и беспилотные наземные роботизированные платформы, ведущие огонь по противнику, автоматически доставляющие боеприпасы и отвечающие за материальное обеспечение десантирования морпехов. 

Китай и ученые против

За превентивный мораторий на автономные системы вооружения выступают 26 государств, в том числе Австралия, Бразилия и Китай.

Открытое письмо с поддержкой их позиции подписали более 230 организаций по всему миру и около трех тысяч предпринимателей и ученых, занятых в сфере искусственного интеллекта.

Источник: https://korrespondent.net/tech/science/4004765-roboty-ubyitsy-v-oon-obsuzhdauit-zapret-oruzhyia-s-yy

Безжалостные дроны-убийцы — фильм об опасности использовании ИИ в военных целях для ООН | Видео

Технологии автономного оружия, способные преследовать и убивать людей без контроля со стороны оператора, существуют уже сегодня. ООН вслед за многими учеными настоятельно рекомендует запретить их. The Guardian рассказывает об агитационном фильме против роботов-убийц, который будет показан в ООН в рамках кампании по их запрету.

В фильме изображено жестокое будущее. Военная фирма создает крошечного дрона, который охотится и убивает с безжалостной эффективностью. Но когда технология попадает в чужие руки, наступает хаос: политиков и активистов убивают среди бела дня.

Это короткое, тревожное кино — последняя попытка заинтересованных ученых подчеркнуть опасность развития автономного оружия.

По их мнению, чтобы предотвратить появление нового ужасного оружия массового уничтожения, необходимо уже сейчас запретить технологию.

Важно

Стюарт Рассел, сотрудник Калифорнийского университета в Беркли — один из тех, кто покажет этот фильм на мероприятии в рамках Конвенции ООН об обычных вооружениях.

По его мнению, появление беспилотных дронов-убийц, а также танков и пулеметов, не требующих управления человеком, будет разрушительным для безопасности и свободы населения Земли.

Времени, чтобы остановить их развитие, остается все меньше, ведь все необходимые технологии уже существуют. Создать робота-убийцу куда проще, чем беспилотный автомобиль, так что фильмы о них — уже не научная фантастика.

Военные всегда были среди крупнейших спонсоров и потребителей инноваций в области искусственного интеллекта. Среди последних перспективных разработок в этой области — использование технологий поиска цели и распознавания изображений.

Военные беспилотники уже довольно давно используются для удаленных операций, но скоро им на смену может прийти оружие, не требующее контроля человека.

Противники подобных технологий считают, что отдавать роботам решения о жизни и смерти людей — значит пересекать моральную черту.

В свое время ученым удалось убедить президентов Линдона Джонсона и Ричарда Никсона свернуть американскую программу по разработке биологического оружия и принять Конвенцию о биологическом оружии.

Возможно, борьба против роботов-убийц, в которой используются сходные аргументы, также сможет привести к успеху. В августе более 100 ведущих специалистов в области робототехники и ИИ призвали ООН запретить разработку и использование автономного оружия.

Совет

Среди подписавших письмо — Илон Маск и Мустафа Сулейман, глава подразделения Alphabet по глубокому изучению искусственного интеллекта.

За запрет также высказались 19 стран, включая Аргентину, Пакистан и Египет. Однако многие другие государства, по данным кампании за запрет боевых роботов, стремятся к созданию систем автономного оружия. Среди них США, Китай, Россия, Израиль, Южная Корея и Великобритания.

Соединенное Королевство в 2015 году активно выступило против запрета на роботов-убийц, заявив, что существующего международного права достаточно для регуляции автономного оружия.

В этом году правительство страны издало доктрину, подтверждающую приверженность Великобритании принципу контроля человеком любого оружия.

Источник theguardian.com hightech.fm | Автор Сергей Коленов

Источник: http://cloudteh.ru/2017/11/killer-drons-un/

L’Express: «неконтролируемые роботы-убийцы» — эксперты задумались об опасности искусственного интеллекта в военных проектах — ИноТВ

Несмотря на то, что автоматизированные летальные вооружения, управляемые искусственным интеллектом, пока относятся скорее к области научной фантастики, тысячи граждан и экспертов уже требуют их запрета, пишет L’Express.

Многочисленные некоммерческие организации уже окрестили эти военные машины, способные открывать огонь по собственной инициативе и призванные, в конечном счёте, заменить солдат на поле боя, «роботами-убийцами», своего рода «терминаторами».

Хотя этот образ и выглядит «карикатурным», причины для беспокойства есть, отмечает журнал. Многие страны, в частности, Китай и США инвестируют серьёзные средства в разработку «военных роботов» и  искусственного интеллекта, что в будущем может привести к созданию вооружений, наделённых невиданным ранее уровнем самостоятельности в вопросе принятия решений.

По словам сотрудника Стокгольмского института исследований проблем мира Венсана Буланена, функции перемещения и обнаружения целей на машинах военного назначения уже сегодня становятся все более автоматизированными.

Так, автоматическая турель Super aEgis II способна опознавать форму человеческого тела на расстоянии 2-3 километров, как днём, так и ночью. Более того, в данный момент её создатель занят разработкой программного обеспечения, которое позволит ей научиться различать своих и чужих по силуэтам.

Не менее впечатляюще выглядят и тестируемые по обе стороны океана роботизированные мини-танки, оборудованные ракетами, способные перевозить тяжёлые грузы и в автоматическом режиме преследовать наземные войска.

Обратите внимание

Кроме того, существенное развитие произошло из в области разработки дронов, способных сегодня в автономном режиме искать конкретные цели для взрыва.

Тем не менее, в настоящее время «во всех системах вооружений, используемых на поле боя, сохраняется участие человека», — уточняет Буланен.

Несмотря на то, что в основе официальной военной доктрины всё ещё лежит понятие подчинения машины человеку, «за кулисами» многие представители индустрии поддерживают идею о том, чтобы однажды отказаться от «оператора в кресле», поскольку это излишне замедляет процесс принятия решений.

В условиях современной войны даже задержка в принятии решения длительностью 5-10 секунд может оказаться фатальной, поэтому доверять управление исключительно человеку, каким бы ни был его уровень подготовки, было бы «заблуждением», полагают некоторые. Именно поэтому американская система противоракетной обороны «Иджис», к примеру, оснащена кнопкой перехода в режим чрезвычайной ситуации, после нажатия на которую урправление будет доверено технике.

«В будущем роботы будут способны анализировать большие объёмы данных, они не дрогнут в момент удара, а траектории движения их снарядов смогут быть оптимизированы», —  подчёркивает эксперт Центра изучения проблем безопасности Французского института международных отношений Жан-Кристоф Ноэль.

Вдохновлённые результатами тестов, свидетельствующих о превосходстве искусственного интеллекта перед человеческим в военных операциях, мировые державы инвестируют в развитие этой отрасли миллиарды долларов.

Однако «перейти от симуляторов к битвам на местности» будет непросто, поскольку использование военных роботов порождает множество этических вопросов.

Главные из них: «осмелимся ли мы дать машине право на убийство человека? Сможет ли она избежать ошибки?»

Реальные возможности искусственного интеллекта ограничены, предупреждают эксперты. Затруднения, с которыми он может столкнуться, хорошо видны на примере ситуации, произошедшей в Китае.

Там система распознавания лиц приняла фотографию на автобусе за живого человека, переходящего дорогу на красный свет. «К счастью, она (система. — ИноТВ) не была вооружена», — иронизирует автор статьи.

По мнению эксперта по робототехнике из Национального центра научных исследований Жана-Поля Ломона, «такие системы ненадёжны», и «применять их было бы преступлением».  

Важно

Подобные платформы могут быть крайне сложны и часто основываются на множестве запутанных алгоритмов, что затрудняет «глобальное понимание» принципа их работы, предупреждают эксперты.

Уже сегодня машины начинают учиться самостоятельно, завтра они смогут принимать решения об изменении способа обработки данных, не ставя в известность человека. В этом случае оператор окажется неспособен понять механизм управления устройством.

«Искусственный интеллект-убийца, который невозможно понять», может стать реальностью.

Несмотря на «сигналы тревоги» со стороны Илона Маска и Стивена Хокинга, многочисленные петиции и обсуждения проблемы в ООН, нет никаких гарантий, что все они смогут помешать применению автономных летальных вооружений, замечает издание.

При этом, как отмечают специалисты, существует множество «мирных» задач, к решению которых неплохо было бы привлечь искусственный интеллект. Среди них наблюдение за состоянием транспортных средств и заблаговременное обнаружение возможных поломок, документооборот на основе поиска по ключевым словам, а также исследование черт лица солдат с целью выявления посттравматического синдрома.

Источник: https://russian.rt.com/inotv/2018-12-17/LExpress-nekontroliruemie-roboti-ubijci–eksperti

Россия и США объединили роботов против Китая

Управляемые не по воле человека, а компьютерными алгоритмами боевые роботы ещё не созданы, но их уже хотят запретить. Но какие бы аргументы ни приводили противники таких технических новинок, страны-производители всё равно заблокируют любую международную инициативу, считают специалисты.

Ошибка без имени

Группы экспертов по смертоносным автономным системам вооружений (САС) стран ООН завершают переговоры о запрете использования боевых роботов. Мероприятие проходит в Женеве (27−31 августа) в формате Конвенции ООН по негуманному оружию, в рамках которой родились запреты многих видов вооружений, включая напалм и кассетные бомбы.

Правозащитные организации (Human Right Watch, Amnesty International и другие) и общественные активисты ещё в 2013 году начали глобальную компанию Stop Killer Robots. Цель — запретить использование роботов-убийц ещё до их создания.

С инициативой ввести превентивный мораторий на создание САС выступили 26 государств, в том числе Бразилия, Австралия, Аргентина, Ватикан, Боливия, Куба, Уганда, Пакистан и Китай. Открытое письмо с поддержкой запрета подписали более 230 организаций и около 3000 предпринимателей.

Среди противников «терминаторов» — основатель компаний Tesla и SpaceX Илон Маск. «Решение лишить человека жизни не должно быть делегировано роботу», — цитирует текст письма DW.

Сторонники запрета бьют тревогу: автономное смертоносное оружие не создано, но многие производители уже активно внедряют элементы искусственного интеллекта и автоматизации в новые виды вооружения: беспилотные летательные аппараты, роботов-часовых, аппараты для обезвреживания взрывных устройств, подводные и надводные дроны, «роботов-танков».

Следовательно, необходимо заранее выработать международный правовой документ, запрещающий использовать полностью автономные от воли человека аппараты, которые смогут уничтожать цели не по заданию оператора (дистанционному или внесённому в программу заранее), а на основе самостоятельно принятых решений, заложенных в алгоритме.

«Мы не можем вживить этим вооружениям чип международного права», — цитирует DW главу немецкой организации Facing Finance, участника кампании Stop Killer Robots Томаса Кюхенмайстера. Самоуправляемые системы, к примеру, не смогут различить военный и гражданский грузовик в зонах вооружённых конфликтов.

Координатор кампании Stop Killer Robots Мэри Верхэм выражает надежду, что конвенция, запрещающая использование САС, будет принята, а страны, не поддержавшие её, рискуют «остаться за бортом международной политики».

Совет

С утверждением противников САС, что в ближайшем будущем у ведущих разработчиков появится возможность создать полностью роботизированные системы с ударными задачами, согласен эксперт в области беспилотных систем Денис Федутинов: «Повышение автономности действий является актуальными задачами для военных различных стран и, соответственно, для компаний-разработчиков. Системы искусственного интеллекта демонстрируют весьма интенсивное развитие». 

Между тем эксперт разделяет мнение о недопустимости делегирования вопросов применения оружия «роботам». В настоящее время, подчёркивает Федутинов, когда некий беспилотный летательный аппарат наносит удар по целям противника, это делает не обезличенный искусственный интеллект, а человек-оператор.

Читайте также:  Исследование: люди любят роботов

«У каждой ошибки есть имя, фамилия и соответствующая ответственность». В случае если роботам будет позволено самостоятельно принимать решение о применении оружия, ответственность размывается — возможные невинные жертвы будут результатом просто какого-то технического сбоя, добавляет он.

C BY-SA 4.

0/Kalabaha1969/Wikimedia Commons

Китайский разведывательно-ударный беспилотный летательный аппарат Wing Loong

Пекин в компании пацифистов

Категоричность противников боевых роботов не разделяет большинство ведущих держав: Россия, США, Израиль, Великобритания и другие.

В этих странах также заявляют о недопустимости устранения человека от принятия решения на убийство, но считают инициативу законодательного запрета на боевых роботов преждевременной.

РФ полагает, что принятые нормы международного права могут быть вполне применимы к САС и потому нет необходимости создавать отдельные международные законы применительно к несуществующему оружию. 

В российском МИДе указывают на «сложности с чётким разграничением гражданских и военных разработок в области автономных систем», в то же время Москва готова поддержать декларацию о необходимости сохранения человеческого контроля над САС. В Вашингтоне также предлагают отказаться от «поспешных суждений» относительно разрабатываемых видов вооружений.

«Проблемы, связанные с автономией в системах вооружений, являются сложными… Для их понимания необходим дальнейший предметный диалог», — передаёт слова представителя Госдепартамента The Washington Times.

Промежуточную позицию занимает Германия, которая является сторонницей постепенного запрета САС, но лишь после длительного диалога, на котором стороны придут к общему мнению.

В компании слабых в военном отношении государств — сторонников законодательного запрета САС неожиданно оказался Китай — страна, активно разрабатывающая БЛА (в том числе ударные) и подводные дроны.

Американские СМИ подозревают Пекин в двуличной позиции: якобы на публику он играет в «хорошего парня», а на деле сам разрабатывает собственных роботов-убийц. «Китай может намеренно придерживаться двусмысленной стратегии в отношении норм международного права.

На словах он может активно поддерживать запрет, чтобы отвлекать внимание от собственных разработок смертоносного автономного оружия», — отмечает The Washington Times.

Обратите внимание

С точки зрения международного права эта проблема совершенно надуманна, отмечает News.

ru эксперт Центра анализа стратегий и технологий Михаил Барабанов: очередная химера по «контролю над вооружениями», проталкиваемая пацифистами и малыми странами, — в духе борьбы с кассетным оружием.

Автоматизировать работу систем вооружений до такого уровня, что решения о поражении будет принимать робот, можно уже сейчас. 

Чтобы сбои не приводили к невинным жертвам, нужно не запрещать, а улучшать алгоритмы, считает Барабанов. Китай, по его мнению, присоединился к инициативе из вежливости, полагая, что идею этого бесполезного соглашения и так «затопят» Россия и США.

 «Крупным, развитым в военно-промышленном отношении странам это совершенно не нужно, но по традициям политкорректности они вынуждены участвовать в мероприятиях и делать дежурные заявления, ожидая, когда обсуждения потеряют смысл», — заключает Барабанов.

Источник: https://news.ru/oruzhie/boevye-roboty-oon-zapret/

Пока Германия медлит, США и Россия работают над созданием роботов-убийц

У идеи создания полностью автономных систем летального оружия немало противников, но это не мешает крупным державам заниматься разработкой роботов-убийц.

Бундесвер пока исключает возможность разработки или приобретения подобных оружейных систем, однако США, Россия и Китай активно развивают свою военную робототехнику — вероятно, из опасения отстать в гонке вооружений будущего, пишет немецкий журнал Focus Online.

Бундесвер исключает возможность покупки роботов, которые могут быть использованы в качестве смертельного оружия, сообщает немецкий журнал Focus Online. Руководитель кибернетической и информационной службы бундесвера подчеркнул, что военные Германии придерживаются чёткой позиции по этому вопросу и не намерены приобретать подобные автономные системы.

Как сообщается в статье, в настоящее время ещё нет никаких официальных правил, ограничивающих распространение роботов, нацеленных на уничтожение противника, и неизвестно, будут ли они в итоге запрещены на международном уровне. Скептики опасаются, что со временем они могут развиться и начать принимать решения, которые для человека будут уже необъяснимыми.

Международная кампания, призывающая остановить роботов-убийц, уже настаивает на упразднении смертельных автономных систем вооружений. В ней участвуют более 60 НПО, в том числе Amnesty International и Human Rights Watch.

Все они требуют полного запрета на разработку, производство и применение подобных систем. До сих пор основную идею кампании поддержали 22 государства. По их мнению, крайне важно сохранить человеческий контроль над оружием.

После долгих усилий со стороны участников кампании ООН включила вопрос об автоматическом оружии в свою повестку в 2013 году, однако с тех пор мало что было сделано, отмечает издание. Экспертная комиссия ООН должна принять решение по поводу запрета автономных боевых роботов. Однако пока в ООН нет даже единого мнения относительно того, что можно считать смертельным автономным оружием.

Важно

Бывший генеральный секретарь НАТО Андерс Фог Расмуссен поддерживает идею запретить подобные системы вооружений. Он опасается, что в скором времени вместо солдат в атаку пойдут полчища роботов.

По версии многих критиков, проблема заключается в том, что у таких оружейных систем отсутствует одна важная деталь: совесть.

Впрочем, некоторые эксперты полагают, что можно создать системы, которые научатся действовать в соответствии с определёнными установками — например, соблюдая международное право.

Как отмечает издание, до сих пор ни одно государство не применяло полностью автоматизированные системы вооружений в боевых операциях, однако ситуация может измениться. Такие крупные державы, как США, Россия и Китай, уже готовятся к применению роботов-убийц в военных действиях, уверяет немецкий журнал.

Возможно, они делают это из страха, что в противном случае могут оказаться среди отстающих в будущей гонке вооружений и, в частности, роботов-убийц, полагает автор статьи.

Бундесвер пока исключает возможность приобретения таких систем вооружений, однако следует настраиваться на то, что однажды немецкие военнослужащие могут столкнуться с необходимостью противостоять подобным полностью автономным оружейным системам, подчёркивает Focus.

Военные США уже достигли немалых успехов в разработке боевых беспилотников. В октябре 2016 года Пентагон провёл испытания 103 беспилотных аппаратов размером с птицу. Испытания показали, что они способны без человеческого участия принять решение о формировании строя и поддерживать его на протяжении всего полёта.

Несмотря на критику, собственные разработки ведёт и Россия. В 2014 году российское Министерство обороны развернуло масштабный план по развитию военной робототехники до 2025 года.

Совет

В 2016 году Россия начала проводить ежегодную конференцию «Роботизация вооружённых сил Российской Федерации».

Кроме того, президент Владимир Путин заявлял, что страна, лидирующая в разработке автономных систем вооружений, будет править миром, утверждает немецкий журнал.

Как сообщается в статье, Китай уже применяет беспилотники в горячих точках по всему миру, однако они не автономные и нуждаются в человеческом контроле. Однако в последнее время страна повысила инвестиции в разработку автономных систем вооружений, пишет Focus.

Материал в пересказе ИноТВ: 24 февраля 2018, Focus: пока Германия медлит, США и Россия работают над созданием роботов-убийц

Оригинал: https://www.focus.de/politik/ausland/roboterwaffen-roboterwaffen-deutschland-weigert-sich-russland-und-die-usa-bauen-schon-armee-auf_id_8516122.html

Источник: https://ya-r.ru/2018/02/24/poka-germaniya-medlit-ssha-i-rossiya-rabotayut-nad-sozdaniem-robotov-ubijts/

Ящик Пандоры: ученые призвали ООН запретить создание роботов-убийц

Ученые призвали ООН запретить разработку и использование роботов-убийц. Петицию подписали 116 специалистов из 26 стран мира. Насколько близко человечество подошло к их созданию, и чем это грозит, в интервью телеканалу МИР 24 рассказал робототехник Антон Бураков

Судя по обращению ученых в ООН, получается, что к созданию автономных роботов-убийц мир уже подошел вплотную? 

— Да, мы подошли вплотную к созданию таких роботов. Но вообще-то я не вижу смысла ни в создании такой петиции, ни в таком законодательстве, потому что сейчас оружием массового уничтожения или массового террора используют автомобили, например.

А если робот предназначен для того, чтобы забивать гвозди, то и к нему можно приделать оружие. Я думаю, что эту петицию начали подписывать ради пиара или Илон Маск и его товарищи что-то знают такое, чего не знаем мы, и запаниковали.

Третья теория на этот счет: вместе с развитием робототехники должно развиваться и законодательство во всех направлениях, поэтому они постепенно теребят общественность. 

Однако получается что основатель компании, занимающейся искусственным интеллектом, Мустафа Сулейман, который также подписал петицию, выступает против искусственного интеллекта. Что-то здесь не складывается…

— Я думаю, что если Мустафа возглавит движение по законодательной инициативе, тогда, возможно, он сможет участвовать в разработке законов и что-то лоббировать. Это одна из версий, а другая – что он просто ответственный гражданин. 

Комментируя новость, СМИ пишут, что автономное летальное оружие уже существует. Что вам известно о подобных разработках? Насколько могут быть умны современные военные робототехнические комплексы?

— Мы, например, тоже сейчас разрабатываем робота-охранника для загородных домов ростом 1,5 метра, который должен бить током нарушителей. И мы должны учесть, чтобы это не были кошки или собаки. Как-то робот должен их различать.

Надо сказать, что из 100% интеллекта для робота-охранника разработано только 50%.

С другой стороны, что, если искусственный интеллект возьмет под контроль ядерное оружие или энергосети? Как мы здесь сможем бороться? С этим нужно бороться комплексно, а не запрещать роботу стрелять без приказа человека. 

Обратите внимание

С вашей точки зрения, существует возможность создания машин, которых мы видели в «Терминаторе»?

— Сейчас самая сложная и дорогостоящая технология – это технология ходьбы. А самое главное – автономное энергообеспечение. Дизельные генераторы сделают робот очень шумным.

Но любая кнопка, которая позволяет роботу открывать огонь, будет соединена с интернетом или любой другой сетью, которую можно взломать и сделать так, чтобы эта кнопка не участвовала в принятии решения.

Это тоже самое, что запретить стрелять людям, если в этом нет необходимости. Это же невозможно. То есть мы просто смиримся с тем, что роботы иногда начнут убивать людей. 

Говоря о роботах-убийцах, авторы обращения ссылаются на Конвенцию ООН об обычных вооружениях и предупреждают, что новая гонка вооружений «грозит миру третьей революцией в области, сравнимой с изобретением пороха и ядерного оружия». Как вам такая оценка? 

— Я с этим согласен. Они сейчас просто заранее бьют тревогу. Это логично, потому что когда мы получили ядерное оружие, никто этого не ожидал. Но я не думаю, что эти системы начали массово производиться или угрожать в пределах десяти лет. Потом – да. 

Если ООН отреагирует на письмо соответствующей декларацией или резолюцией, как думаете, это остановит разработчиков автономного летального оружия? 

— Но будут страны, которые не будут подписывать эту конвенцию, и ученые поедут туда разрабатывать роботов, как это происходит с клонированием или другими технологиями. Или теневой бизнес начнет свои разработки. Нужно сделать так, чтобы законодательство разрешало производить таких роботов под надзором государства. 

Если искусственный интеллект будет создан, кто-то будет в состоянии помешать его использованию в военных целях? 

— Никто. Я недавно услышал такое мнение, что люди довольно плохо справляются с жизнью на Земле, и что будет лучше, если роботы возьмут управление людьми на себя, как взрослые берут управление детьми. 

Как, на ваш взгляд, Организация Объединенных Наций должна отреагировать на призыв остановить разработку и использование автономного летального оружия?

— ООН в своем стиле может выпустить коммюнике, в котором скажет, что глубоко озабочена этим вопросом, и, возможно, в течение трех лет будет разрабатываться какое-то законодательство. Но вообще-то не все слушаются ООН. 

Источник: https://mir24.tv/news/16263712/yashchik-pandory-uchenye-prizvali-oon-zapretit-sozdanie-robotov-ubiic

«Роботы-убийцы» на площадке ООН

В Женеве на этой неделе проходит первая сессия Группы правительственных экспертов ООН открытого состава Конвенции о негуманном оружии по смертоносным автономным системам вооружений (САС).

Именно на площадке этого международного форума рождались запреты кассетных боеприпасов, напалма, ослепляющих лазеров и противопехотных мин.

Для России боевые роботы стали одним из символов возрождения вооруженных сил, перспективным экспортным товаром и сигналом миру о готовности страны бросить вызов технологическому лидерству Соединенных Штатов.

Между тем в последние годы все больше известных людей выступают за полный запрет «роботов-убийц». Под соответствующей инициативой подписались более 20 лауреатов Нобелевской премии мира, 150 религиозных лидеров и 3 тыс.

специалистов по искусственному интеллекту.

Мировую общественность ужасает сама мысль, что право распоряжаться человеческой жизнью может достаться бездушной машине, которая, конечно, не станет соблюдать нормы гуманитарного права.

Однако запретить боевых роботов будет нелегко — хотя бы потому, что пока в мире нет принятого на международном уровне термина не только «смертоносные автономные системы» или «роботы-убийцы», но даже простого термина «оружие».

Важно

Если же попытаться сформулировать это определение, то выяснится, что под него, скорее всего, подпадут давно известные «роботы-убийцы»: системы ПВО, длинный ряд ракет, действующих по принципу «выстрелил и забыл», активная защита для бронетехники и даже противотанковые, морские и прочие мины.

При этом образцы САС, которые производит современная оборонная промышленность, пока вызывают у общественности скорее разочарование.

Читайте также:  Sense - искусственный интеллект, который поможет выспаться

Роботизированная южнокорейская пулеметная вышка SGR-A1, американская морская противовоздушная система Phalanx System, израильская автоматизированная система ПВО Iron Dome, беспилотные ударные летательные аппараты Taranis и X-47B или израильский барражирующий боеприпас Harop мало походят на классического голливудского «Терминатора».

Тем не менее широкая общественная и медийная кампания против «роботов-убийц» уже приносит определенные плоды: США и Великобритания первыми подали пример ответственного поведения, включив положения об обязательном контроле оператора над применением оружия во внутреннее законодательство, а представители других ведущих в военном отношении держав сделали заявления о своем обязательном соблюдении принципов международного гуманитарного права при разработке новых видов оружия.

Но мировую общественность, очевидно, подобные заверения едва ли удовлетворят, и тема передачи «критической функции» (по определению Красного Креста) по применению боевого оружия роботам сегодня занимает умы юристов и политиков.

Тему подогревают страхи, связанные с военным применением сложных технологий, определяемых понятием «искусственный интеллект». Илон Маск, Билл Гейтс, Стивен Хокинг и Ник Бостром считают суперинтеллект одной из возможных величайших экзистенциональных угроз человечеству.

Между тем трезвый анализ современного искусственного интеллекта показывает, что феномен, который на стадии разработки именуется этим термином, в итоге становится очередной функцией, как, например, спутниковые навигационные системы, программа распознания голоса SIRI или программы распознания образов.

Технические эксперты ведут глубокий и, похоже, пока безрезультатный спор о сроках и вообще возможности создания реального искусственного интеллекта, способного соревноваться с человеческим мозгом в динамично меняющихся условиях. Возможно, этот спор растянется на десятилетия.

Однако помимо аспектов международного гуманитарного права у проблемы есть и другая сторона — стратегическая стабильность. По некоторым оценкам, боевые роботы нового поколения будут способны состязаться в эффективности с ядерным оружием.

Совет

Так бывший министр обороны США Чак Хейгел даже начал говорить о «третьей стратегии противовеса» в развитие двух предыдущих, опиравшихся на тактическое ядерное оружие и высокоточные обычные вооружения.

Новая версия сдерживания предполагает: роботизированное оружие поможет восстановить превосходство, которое якобы было подорвано российскими и китайскими военными разработками.

Технологический отрыв от соперников позволит военным стратегам надеяться, что САС смогут нейтрализовать многоуровневую систему ПРО неприятеля, защитят собственные базы от нападения и дадут возможность вести боевые действия с гораздо большего расстоянии от территории противника.

Подобные планы разжигают если еще не гонку вооружений, то гонку военных технологий, в которой рождаются сотни проектов автономных беспилотников, гиперзвуковые ударные системы, роевые эскадроны и глобальные системы по управлению тысячами роботов, которые в скором времени заполнят воздушный и Мировой океаны.

Источник: https://news.rambler.ru/troops/38418023-roboty-ubiytsy-na-ploschadke-oon/

Роботы-убийцы: сможет ли искусственный интеллект захватить мир

Развитие систем искусственного интеллекта открывает перед человечеством двери к четвертой промышленной революции. Роботы становятся все умнее, а их способность к самообучению поражает. Недавно гонконгская компания Hanson Robotics разработала на основе самообучающей нейросети андроида по имени София.

Она воспринимает мир встроенными в глаза камерами, может разговаривать с людьми и изображать десятки различных эмоций. Однако до идеала робототехники  Софии еще далеко.

Во время экономического форума в Давосе, состоявшегося в январе 2018 года, андроид «завис» после того, как украинская делегация задала вопрос о том, что делать с коррупцией в стране.

«Сюрпризы» София начала преподносить через год после ее эксплуатации. Так, на вопрос разработчика Дэвида Хэнсона, хочет ли она уничтожить человечество, она ответила: «Хорошо, я хочу уничтожить человечество». Позже о своем плане захватить мир София в шутку поделилась в популярном вечернем шоу с ведущим Джимми Фэллоном. Однако шутку оценили далеко не все зрители.

Многим и вовсе стало не по себе, когда они провели параллели с художественным фильмом «Из машины» 2014-го года, где женщина-робот выходит из-под контроля человека и жестоко расправляется со своим создателем.

Кто может гарантировать, что творение  Hanson Robotics  со временем не поступит так же? Кто знает, что происходит внутри нейронного мозга, который день за днем обучает сам себя?

Военный историк, директор музея ПВО Юрий Кнутов в программе «Политический детектив» на телеканале «Звезда» высказал свои опасения по поводу развития искусственного интеллекта. Эксперт не исключил, что на определенном этапе роботы могут решить, что от людей нужно избавляться.

Многие эксперты полагают, что за развитие искусственного интеллекта яростнее всего выступает Пентагон. Американские вооруженные силы намерены делать упор на разработку боевых роботов, а также использование их в наземных операциях. В частности, инженерная компания Boston Dynamics, специализирующаяся на робототехнике, создает множество платформ для Минобороны США.

Инженеры Boston Dynamics выкладывают в открытый доступ достижения своих роботов. Так, например, большой популярностью в Сети пользуется видео со SpotMini – роботизированным гибридом собаки и жирафа. Он неплохо обращается с хрупкими предметами и может быть отличным помощником на кухне.

Умные машины этой компании настолько похожи на живых существ, что любой новый ролик Boston Dynamics вызывает нешуточный резонанс. С особым восторгом публика приняла человекоподобного робота Atlas. Недавно он продемонстрировал чудеса владения собственным «телом».

Обратите внимание

Мало кто задумывается, в каких областях могут пригодиться такие навыки. И на кого на самом деле могут работать лучшие инженеры-робототехники США.

Boston Dynamics в этом году претендуют на круглую сумму в рамках новой военной программы Пентагона. Агентство DARPA (Управление перспективных исследовательских проектов Минобороны США) выделяет компании миллиарды долларов на разработку в области компьютерных технологий.

Иными словами, все эти забавные железные существа, которым рукоплещет мир, скоро вполне могут стать боевыми единицами армии США.

DARPA – все чаше из уст экспертов звучит название этой организации. Чем именно занимаются в этой компании? И правда ли, что в DARPA всерьез занимаются разработками роботов-солдат для американской армии? Обо всем этом вы узнаете в расследовании «Политического детектива». Смотрите программу на сайте телеканала «Звезда».

Источник: https://tvzvezda.ru/news/vstrane_i_mire/content/201803121315-ynpj.htm

Боевые роботы против прав человека: этичность автоматического убийства обсудит ООН

Версия для печати

Тема боевых роботов будет обсуждаться на совещании Совета ООН по правам человека в Женеве. Заседание заслушает отчет, призывающий приостановить использование таких роботов, пока не будет определена этичность их использования.

Боевыми роботами считаются машины, запрограммированные на убийство людей и уничтожения целей. В отличие от беспилотных летательных аппаратов, на поле боя они могут работать автономно.

Их разрабатывают в США, Великобритании и Израиле, но пока в бою работы не использовались.

Правозащитные группы считают, что их применение ставит серьезные нравственные вопросы о том, как ведется война, сообщает корреспондент ВВС из Женевы. Кто принимает решение об убийстве? Может ли робот отличить военного от мирного жителя?

Вместе с тем мораторий, к которому призывает отчет ООН, не совсем устраивает правозащитные группы, которые выступают за полный запрет этих роботов.

«Роботы-убийцы» или «умные машины»?

Основная проблема, как отмечают правозащитники, заключается не в использовании роботов качестве оружия, — такие машины уже не первый год используются в военных операциях, — а в контроле над процессом принятия решений.

«Традиционный подход заключается в том, что есть воин и есть оружие. Но сейчас мы видим, что оружие становится воином, оружие само принимает решение» — говорит Кристоф Хейнс, эксперт ООН.

Лауреат Нобелевской премии мира Джоди Уильямс ведет гражданскую кампанию «Остановим роботов-убийц» с целью запретить исследования в области создания роботов, способных к самостоятельному принятию решений на поле боя.

«Если позволить и дальше проводить исследования в этой области, то методы ведения войны вскоре изменятся в ужасную сторону», — говорит она.

Важно

Однако некоторые придерживаются мнения, что процесс принятия решений работами можно автоматически контролировать. Профессор Рональд Аркин из Технологического института штата Джорджия разработал концепцию «этического регулятора».

Робот будет запрограммирован в соответствии с нормами международного права и правил применения оружия. «Все начинают кричать: роботы-убийцы, роботы-убийцы. Но у нас солдаты людей убивают, ужасы продолжаются, и так было с самого начала военной истории», — отмечает он. «Нам нужны технологии для сокращения числа жертв среди мирного населения», — говорит профессор Аркин.

Глобальная война машин?

Помимо моральных аспектов возникают также стратегические и военные риски, в частности, угроза неконтролируемой гонки вооружений.

Сейчас лидером в разработке военных технологий остается США, но не факт, что так будет и в долгосрочной перспективе.

К тому же остро встает вопрос о безопасности разработки новых технологий. «Представьте, что хакеры взломали систему управления такими работами, и они начинают убивать своих же солдат», — отмечает Джоди Уильямс.

Боевые роботы-убийцы: какими будут войны в будущем

Беспилотный самолет X-47B, возможно, в будущем будет стрелять по врагу без участия человека

Сейчас на поле боя уже активно используются беспилотные самолеты. На очереди — военные работы.

Уже существуют демонстрационные модели беспилотных самолетов, например — X-47B в форме наконечника стрелы, которые могут выполнять миссию самостоятельно, без помощи наземного оператора.

Есть также и зенитно-ракетные комплексы типа Patriot, которые способны автоматически определить и поразить цель.

А отсюда не так уж и далеко до полноценных боевых роботов — разработки, которая может в корне изменить лицо войны.

В лаборатории Технологического института Джорджии в Атланте рόботы профессора Генрика Кристенсена охотятся на повстанцев. На вид эти машины напоминают подставки для тортов на колесах.

Кристенсен и его коллектив работают на заказ оборонной компании BAE systems.

Их цель — создать автоматические устройства, способные обследовать засаду врага и передать людям информацию о ней. Таким образом солдаты смогут получать жизненно важные данные, не подвергая себя опасности.

«Эти работы будут идти цепью, — рассказывает Кристенсен, — и снимать все, что их окружает. Поэтому солдаты, заходя в сооружения, уже будут представлять, что там внутри».

Эти машины предназначены прежде всего для разведки и сбора информации. Но в фантастической литературе уже не раз появлялись образы боевых роботов, которые собираются в облака, как саранча или другие насекомые, и атакуют врага. Каждый такой мини-робот может нести крошечную боеголовку или просто поражать цель с помощью своей кинетической энергии.

Профессор Кристенсен разрабатывает роботов, способных шпионить за врагом

Питер В. Сингер, военный эксперт из Брукингского института, в Вашингтоне, говорит, что тема боевых роботов вызывает ряд важных вопросов.

«В истории есть много примеров технологий, которые в корне меняли правила игры, — говорит он. — Это порох, автомат, атомная бомба, компьютер… и боевые роботы — одна из них. Когда мы говорим об изменении правил игры, это означает, что новая технология влияет на все: от тактики и стратегии в глобальных вопросах политики, права, этики, выбора времени и места войны».

Совет

Американка Джоди Уильямс, организатор движения за запрет противопехотных мин, которая в 1997 году получила Нобелевскую премию мира, считает, что автоматические системы вроде машин доктора Кристенсена рано или поздно начнут нести смерть.

Уильямс отказывается называть их нейтральными терминами типа «автономные вооруженные системы».

«Название „роботы-убийцы“ более точное», — говорит она и дает им определение: «Смертоносная машина, которая может убивать самостоятельно, принимая решения без участия человека».

«Когда я впервые услышала об этой идее, то просто ужаснулась. У меня вызывает отвращение сама мысль о том, что люди начнут создавать машины, которые можно будет натравливать на других людей», — говорит Уильямс.

Это непростая и эмоциональная тема.

Но профессор Рональд Аркин из Технологического института Джорджии смотрит на нее по-другому.

Он выдвинул идею вооруженной системы, которую будет контролировать так называемый «этический смотритель».

Эта система будет запрограммирована таким образом, чтобы придерживаться международных военных законов и правил применения вооруженной силы.

«Сейчас все кричат: ужас, злые роботы, роботы-убийцы, — говорит профессор, — но люди-убийцы на поле боя никого не беспокоят. Война всегда сопровождалась и сопровождается зверствами».

Его аргумент в защиту боевых машин прост: «Технологии надо использовать, если мы хотим снизить смертность среди гражданских».

Он верит, что «разумное применение этических роботизированных систем позволит это сделать, если мы — как нация, как человечество — останемся достаточно глупыми, чтобы вести войны и дальше».

Аркин не относится к военному лобби и много размышлял над этой проблемой.

Это устройство (черепахобот) способно провести разведку территории

У нее есть еще один важный аспект. США пока — один из лидеров в этой области, но, по словам Питера Сингера, это не будет длиться вечно.

«Программы военной робототехники имеют не только Соединенные Штаты, но и 76 других стран, — говорит он. — Эти технологии бурно развиваются, и начать соответствующие разработки не так уж сложно.

Обратите внимание

Сейчас за несколько сотен долларов можно купить маленький дрон (беспилотник — ред.) , который несколько лет назад был доступен только для военных.

Поэтому нельзя смотреть на проблему только с точки зрения США — она ​​глобальна».

Как и дроны, работы распространятся очень быстро, вызывая вопрос: как использовать эту силу, и стоит ли ее контролировать.

Полностью автономные вооруженные системы, которые будут действовать без всякого участия человека, — это еще вопрос отдаленной перспективы. Но нобелевская лауреатка Джоди Уильямс не хочет, чтобы он вообще стоял перед людьми.

Она планирует запустить международную кампанию по запрещению военной робототехники, стремясь, чтобы «работы, которые умеют убивать, оказались вне закона».

«Если позволить военным создать и в конце концов взять на вооружение этих роботов, война изменится навсегда и станет чем-то ужасным», — говорит Уильямс.

Однако профессор Аркин имеет другое мнение.

По его словам, запретить роботов, не выяснив, могут ли они помочь снизить потери среди мирного населения, — значит «сделать плохую услугу тем, кто сейчас погибает на войне от рук людей».

Джонатан Маркус, корреспондент ВВС по дипломатическим вопросам

Источник: ВВС Україна

Перевод: «Аргумент»

В тему:

Источник: http://argumentua.com/stati/boevye-roboty-protiv-prav-cheloveka-etichnost-avtomaticheskogo-ubiistva-obsudit-oon

Ссылка на основную публикацию
Adblock
detector