Сша и россия активно занимаются разработкой роботов-убийц

Пока Германия медлит, США и Россия работают над созданием роботов-убийц

У идеи создания полностью автономных систем летального оружия немало противников, но это не мешает крупным державам заниматься разработкой роботов-убийц.

Бундесвер пока исключает возможность разработки или приобретения подобных оружейных систем, однако США, Россия и Китай активно развивают свою военную робототехнику — вероятно, из опасения отстать в гонке вооружений будущего, пишет немецкий журнал Focus Online.

Бундесвер исключает возможность покупки роботов, которые могут быть использованы в качестве смертельного оружия, сообщает немецкий журнал Focus Online. Руководитель кибернетической и информационной службы бундесвера подчеркнул, что военные Германии придерживаются чёткой позиции по этому вопросу и не намерены приобретать подобные автономные системы.

Обратите внимание

Как сообщается в статье, в настоящее время ещё нет никаких официальных правил, ограничивающих распространение роботов, нацеленных на уничтожение противника, и неизвестно, будут ли они в итоге запрещены на международном уровне. Скептики опасаются, что со временем они могут развиться и начать принимать решения, которые для человека будут уже необъяснимыми.

Международная кампания, призывающая остановить роботов-убийц, уже настаивает на упразднении смертельных автономных систем вооружений. В ней участвуют более 60 НПО, в том числе Amnesty International и Human Rights Watch.

Все они требуют полного запрета на разработку, производство и применение подобных систем. До сих пор основную идею кампании поддержали 22 государства. По их мнению, крайне важно сохранить человеческий контроль над оружием.

После долгих усилий со стороны участников кампании ООН включила вопрос об автоматическом оружии в свою повестку в 2013 году, однако с тех пор мало что было сделано, отмечает издание. Экспертная комиссия ООН должна принять решение по поводу запрета автономных боевых роботов. Однако пока в ООН нет даже единого мнения относительно того, что можно считать смертельным автономным оружием.

Бывший генеральный секретарь НАТО Андерс Фог Расмуссен поддерживает идею запретить подобные системы вооружений. Он опасается, что в скором времени вместо солдат в атаку пойдут полчища роботов.

По версии многих критиков, проблема заключается в том, что у таких оружейных систем отсутствует одна важная деталь: совесть.

Впрочем, некоторые эксперты полагают, что можно создать системы, которые научатся действовать в соответствии с определёнными установками — например, соблюдая международное право.

Как отмечает издание, до сих пор ни одно государство не применяло полностью автоматизированные системы вооружений в боевых операциях, однако ситуация может измениться. Такие крупные державы, как США, Россия и Китай, уже готовятся к применению роботов-убийц в военных действиях, уверяет немецкий журнал.

Важно

Возможно, они делают это из страха, что в противном случае могут оказаться среди отстающих в будущей гонке вооружений и, в частности, роботов-убийц, полагает автор статьи.

Бундесвер пока исключает возможность приобретения таких систем вооружений, однако следует настраиваться на то, что однажды немецкие военнослужащие могут столкнуться с необходимостью противостоять подобным полностью автономным оружейным системам, подчёркивает Focus.

Военные США уже достигли немалых успехов в разработке боевых беспилотников. В октябре 2016 года Пентагон провёл испытания 103 беспилотных аппаратов размером с птицу. Испытания показали, что они способны без человеческого участия принять решение о формировании строя и поддерживать его на протяжении всего полёта.

Несмотря на критику, собственные разработки ведёт и Россия. В 2014 году российское Министерство обороны развернуло масштабный план по развитию военной робототехники до 2025 года.

В 2016 году Россия начала проводить ежегодную конференцию «Роботизация вооружённых сил Российской Федерации».

Кроме того, президент Владимир Путин заявлял, что страна, лидирующая в разработке автономных систем вооружений, будет править миром, утверждает немецкий журнал.

Как сообщается в статье, Китай уже применяет беспилотники в горячих точках по всему миру, однако они не автономные и нуждаются в человеческом контроле. Однако в последнее время страна повысила инвестиции в разработку автономных систем вооружений, пишет Focus.

Материал в пересказе ИноТВ: 24 февраля 2018, Focus: пока Германия медлит, США и Россия работают над созданием роботов-убийц

Совет

Оригинал: https://www.focus.de/politik/ausland/roboterwaffen-roboterwaffen-deutschland-weigert-sich-russland-und-die-usa-bauen-schon-armee-auf_id_8516122.html

Источник: https://ya-r.ru/2018/02/24/poka-germaniya-medlit-ssha-i-rossiya-rabotayut-nad-sozdaniem-robotov-ubijts/

Кто-то должен воевать

В конце августа в Женеве практически безрезультатно завершилось очередное заседание Группы правительственных экспертов ООН по боевым автономным системам, иначе говоря, по боевым роботам.

Ожидалось, что эксперты получат мандат на определение юридического статуса таких систем, после чего можно было бы говорить о регламентации или полном запрете их применения. Мандат в итоге выдан не был.

Вскоре после этого в США была обнародована «дорожная карта» развития военных роботов, предусматривающая, помимо прочего, повышение степени их самостоятельности за счет использования нейросетевых технологий.

Пока противники и сторонники автономных боевых систем спорят между собой, мы решили разобраться, почему военные считают разработку «роботов-убийц» важной задачей и какую роль они отводят им в войнах будущего.

Чем опасны боевые роботы

Автономные боевые системы в разных видах существуют уже давно. Например, на американские и британские корабли с 1970-х годов ставятся артиллерийские системы Phalanx, способные самостоятельно обнаруживать воздушные и надводные цели и обстреливать их.

При этом участие оператора может сводиться лишь к выставлению критериев, которым должна соответствовать та или иная цель, чтобы система сочла возможным открыть огонь.

Обратите внимание

На вооружение России с 2007 года поступают зенитные комплексы С-400 «Триумф», которые могут в полностью автоматическом режиме обнаруживать воздушные цели, классифицировать и приоритизировать их, а затем выпускать по ним ракеты.

Израильский противоракетный комплекс «Железный купол» (Iron Dome), принятый на вооружение в 2011 году, тоже умеет работать в автоматическом режиме. Причем эта система способна даже отделять потенциально опасные цели от неопасных: если падение ракеты-цели ожидается в ненаселенной местности, перехватывать ее комплекс не станет.

При этом о правомерности использования боевых роботов в военных конфликтах впервые задумались только в 2013 году. Тогда Совет по правам человека при ООН поставил вопрос о потенциальной угрозе здоровью и жизни людей в условиях войны с применением «роботов-убийц».

Непонятно было и то, как развитие автономных систем повлияет на международную безопасность. В итоге за полный запрет боевых роботов выступили 26 стран.

По мнению их экспертов, отсутствие запрета может привести к появлению высокотехнологичных тираний и значительному росту гражданских потерь в военных конфликтах.

Коротко их аргументы, которые они считают непреодолимыми, можно сформулировать так.

Существование боевых роботов нарушит положения Женевских конвенций в части защиты прав гражданского населения в зоне военных конфликтов, в особенности принципов различения и соразмерности.

Первый принцип требует обязательного и однозначного разделения людей в зоне боевых действий на комбатантов (тех, кто непосредственно участвует в боевых действиях) и некомбатантов (мирных жителей, а также военнослужащих и вольнонаемных, не участвующих в боевых действиях и имеющих право применять оружие только для самообороны; например, членов обслуживающего персонала).

Принцип соразмерности допускает потери среди некомбатантов, но только в том случае, если они уступают потерям среди комбатантов и перекрываются преимуществами от той или иной военной операции. Упрощенно принцип соразмерности подразумевает запрет на излишние страдания мирного населения.

Важно

Кроме того, активное использование «роботов-убийц», по мнению ряда экспертов, нивелирует непосредственную ответственность командиров за те или иные действия.

В частности, непонятно, кто будет отвечать в случае сбоя в программе робота, из-за которого тот начнет убивать и мирное население: командир на поле боя, компания-производитель, конкретный программист или конструктор? Противники боевых роботов уверены, что ответственность не понесет никто.

Более того, командир, отправивший робота на задание с намеренным приказом убивать всех подряд, может впоследствии утверждать, что массовое убийство людей произошло из-за сбоя в программе робота.

Наконец, предполагается, что повсеместное использование боевых роботов приведет к обесцениванию человеческой жизни, поскольку в войнах будущего люди станут не более чем отметками на дисплее.

Артиллерийская система Phalanx на борту корабля американских ВМС U.S. Navy

Юридические проволочки

Позиции противников боевых автономных систем, в принципе, не так уж неуязвимы (как, впрочем, и позиции сторонников таких систем).

В частности, принцип различения можно соблюсти, добавив в программу вооруженного робота обязательно условие: первый выстрел должен сделать потенциальный противник (если человек обстреливает робота, значит он участник боевых действий).

А виновного в неправомерном использовании боевых роботов можно будет определять по логам в памяти самих машин.

Однако никакой разговор о запрете или ограничении применения «роботов-убийц» на международном уровне невозможен хотя бы потому, что на сегодня не существует даже общепризнанного определения автономности боевых систем.

Одни считают автономным робота, способного применять оружие без вмешательства оператора, а другие, как, например, министерство обороны Великобритании, — способность робота самостоятельно делать выбор из нескольких решений (включая применение оружия) с учетом множества внешних факторов — как под надзором оператора, так и без него.

С 27-го по 31 августа в Женеве состоялось очередное заседание Группы правительственных экспертов ООН по боевым автономным системам (предыдущие два прошли в декабре 2017-го и апреле 2018 года).

Предполагалось, что по итогам этого заседания группа получит право выработать предварительную версию правил применения боевых роботов в военных действиях, но для этого нужен был консенсус, достичь которого не удалось.

Несколько стран, включая США, Россию, Австралию, Израиль и Южную Корею, заявили, что вводить полный запрет на применение боевых автономных роботов не следует.

Совет

При этом российские дипломаты отметили, что боевых роботов сегодня не существует, а превентивное введение запрета на них не имеет смысла.

В ходе заседания Россия, США, Франция и Германия предлагали выпустить политическое заявление, в котором страны — участники заседания дали бы гарантии, что человек всегда будет иметь контроль над действиями «роботов-убийц».

По итогам заседания стороны договорились лишь в том, что разработка боевых систем с искусственным интеллектом должна вестись в соответствии с международным гуманитарным правом (совокупность правил, обычаев, норм и принципов, ограничивающих методы и средства ведения войны и защищающих участников военных действий и мирное население), а ответственность за применение «роботов-убийц» в любом случае должен нести человек.

Зачем нужны боевые роботы

За многие годы военные из разных стран мира назвали множество причин, по которым боевые автономные системы необходимы в составе вооруженных сил.

В их числе — повышение точности ударов, наносимых по позициям противника, снижение сопутствующего ущерба (дополнительных разрушений и гибели людей при поражении основной цели), экономия средств военного бюджета и многое другое.

Однако определяющие влияние на развитие военной робототехники оказывают всего четыре главных фактора: стремление снизить потери собственных военнослужащих, постепенное усложнение вооруженных конфликтов, гонка вооружений и компенсация численности вооруженных сил.

Все остальные причины, оправдывающие разработку «роботов-убийц» (речь идет именно об автономных вооруженных системах; вопрос развития невооруженных систем, в том числе разведывательных, более обширен), вероятно, оказывают на развитие боевых автономных систем лишь косвенное влияние.

Снижение потерь собственных военнослужащих в вооруженных конфликтах — одна из наиболее очевидных целей, поскольку позволяет сохранять численный паритет с противником или численное превосходство над ним.

Меньшие потери снижают и военные расходы — от выплат по страховым полисам до трат на организацию спасательных операций, эвакуацию и захоронение останков погибших.

Кроме того, подготовка профессиональных военных довольно дорога и требует много времени, а потому терять их в вооруженных конфликтах крайне убыточно.

Министерства обороны нескольких стран мира, включая США и Россию, полагают, что использование боевых роботов позволит быстрее и с минимальным риском для жизни солдат решать сложные боевые задачи, включая военные действия в условиях плотной городской застройки или активной снайперской охоты.

Читайте также:  Ford fusion hybrid — автомобиль с автопилотом от ford

Предполагается, что к 2050 году более 80 процентов населения планеты будет проживать в городах, а значит, вооруженные конфликты будут возникать именно в городских условиях. Ведение боевых действий в городе значительно сложнее, чем, скажем, на открытой местности, поскольку опасность грозит подразделениям буквально со всех направлений, в том числе из-под земли (канализации или метро) и сверху (из окон высоких зданий). В городе даже небольшая и, казалось бы, простая операция легко может превратиться в кровавую бойню.

Использование же различных боевых роботов — от небольших вооруженных мультикоптеров до высокомобильных наземных систем — в городских условиях может существенно упростить планирование и проведение военных операций, в которых фактически одни и те же машины могут быть и разведчиками, и диверсантами, и штурмовыми бойцами.

Гонка вооружений является еще одним доводом, который приводят военные в пользу боевых автономных систем. Дело в том, что военный прогресс постепенно ведет к созданию все более совершенных вооружений и военной техники.

Обратите внимание

Ведущие страны мира, например, занимаются созданием гиперзвукового оружия, которое сможет прорывать системы противоракетной обороны противника.

Для перехвата гиперзвуковых ракет потребуется разработка новых автономных противоракетных комплексов с искусственным интеллектом, способных самостоятельно обнаруживать, классифицировать и обстреливать баллистические, аэробаллистические и аэродинамические цели.

Из-за крайне высокой скорости этих целей люди, входящие в расчеты противоракетных комплексов, просто не будут успевать анализировать воздушную обстановку, принимать решения и отдавать команды.

Наконец, вооруженные силы некоторых стран мира столкнулись с постепенным сокращением численности в силу демографических или экономических причин.

Например, из-за постепенного снижения рождаемости снижается численность вооруженных сил Южной Кореи, так что некоторые подразделения уже сегодня комплектуются не полностью.

В составе ВВС США возник дефицит операторов беспилотных летательных аппаратов и летчиков истребителей.

Предполагается, что разработка полностью самостоятельных боевых роботов позволит решить проблемы комплектации вооруженных сил.

Важно

Например, по оценке министерства обороны Южной Кореи, применение автономных боевых турелей на самоходных гаубицах K9 Thunder позволит заменить в войсках две тысячи человек.

В свою очередь, американцы полагают, что создание автономных ударных беспилотников позволит устранить дефицит операторов, поскольку благодаря высокой степени автономности дронов один человек сможет управлять сразу несколькими аппаратами.

Пока политики спорят

Сегодня предприятия российского оборонного комплекса занимаются разработкой наземных боевых роботов семейств «Уран», «Нерехта» и «Соратник», которые планируется использовать для огневой поддержки пехоты, охраны военных и важных инфраструктурных объектов, разведки боем, прорыва обороны противника.

В свою очередь в США ведутся работы по созданию беспилотных летательных аппаратов XQ-58A Valkyrie, которые бы выполняли роль ведомых в боевых группах истребителей.

Такие беспилотники могли бы вести разведку, прикрывать пилотируемый ведущий истребитель, вести маневренный воздушный бой или обеспечивать наземным отрядам огневую поддержку с воздуха.

Южная Корея занимается созданием разведывательных и боевых воздушных, наземных, надводных и подводных роботов, которые бы позволили компенсировать недобор в вооруженные силы.

Китай, помимо прочего, работает над танками-роботами, которые позволят снизить потери в интенсивных танковых боях.

А в Израиле в ближайшие несколько лет планируется принять на вооружение боевых микророботов, которые будут использоваться для уничтожения лидеров боевиков «Хезболлы» и ХАМАС.

Этическая и юридическая стороны подобных разработок требуют тщательного обсуждения.

Совет

Можно ли наделять роботов правом убивать людей? Допустимо ли заменять людей, способных прочувствовать ту или иную ситуацию, безэмоциональными исполнителями? Где проходит грань между гражданскими и военными разработками автономных роботов, в основу которых легли одни и те же технологии? Правильно ли убирать солдат с поля боя и усаживать их за пульты управления с удобными креслами за тысячи километров от боевых действий?

«Роботы-убийцы» пока не стали частью современных боевых действий, но начать подготовку юридической базы для применения таких систем следует уже сейчас, потому что прогресс движется очень быстро.

И США, и Россия, и некоторые другие страны заявляют, что не планируют делать боевые системы полностью самостоятельными.

При этом в США отметили, что допускают возможность переключения «роботов-убийц» в полностью автономный режим в качестве ответа на появление боевых автономных роботов у авторитарных режимов.

Василий Сычёв

Источник: https://nplus1.ru/material/2018/09/05/war-robots-laws

Россия и США объединили роботов против Китая

Управляемые не по воле человека, а компьютерными алгоритмами боевые роботы ещё не созданы, но их уже хотят запретить. Но какие бы аргументы не приводили противники таких технических новинок страны-производители всё равно заблокируют любую международную инициативу, считают специалисты.

Ошибка без имени

Группы экспертов по смертоносным автономным системам вооружений (САС) стран ООН завершают переговоры о запрете использования боевых роботов. Мероприятие проходит в Женеве (27−31 августа) в формате Конвенции ООН по негуманному оружию, в рамках которой родились запреты многих видов вооружений, включая напалм и кассетные бомбы.

Правозащитные организации (Human Right Watch, Amnesty International и другие) и общественные активисты ещё в 2013 году начали глобальную компанию Stop Killer Robots. Цель — запретить использование роботов-убийц ещё до их создания.

С инициативой ввести превентивный мораторий на создание САС выступили 26 государств, в том числе Бразилия, Австралия, Аргентина, Ватикан, Боливия, Куба, Уганда, Пакистан и Китай. Открытое письмо с поддержкой запрета подписали более 230 организаций и около 3000 предпринимателей. Среди противников «терминаторов» — основатель компаний Tesla и SpaceX Илон Маск.

«Решение лишить человека жизни не должно быть делегировано роботу», — цитирует текст письма DW.

Сторонники запрета бьют тревогу: автономное смертоносное оружие не создано, но многие производителя уже активно внедряют элементы искусственного интеллекта и автоматизации в новые виды вооружения: беспилотные летательные аппараты, роботы-часовые, аппараты для обезвреживания взрывных устройств, подводные и надводные дроны, «роботы-танки».

Следовательно, необходимо заранее выработать международный правовой документ, запрещающий использовать полностью автономные от воли человека аппараты, которые смогут уничтожать цели не по заданию оператора (дистанционному или внесённому в программу заранее), а на основе самостоятельно принятых решений, заложенных в алгоритме.

«Мы не можем вживить этим вооружениям чип международного права», — цитирует DW главу немецкой организации Facing Finance, участника кампании Stop Killer Robots Томаса Кюхенмайстера. Самоуправляемые системы, к примеру, не смогут различить военный и гражданский грузовик в зонах вооружённых конфликтов. Координатор кампании Stop Killer Robots Мэри Верхэм выражает надежду, что конвенция, запрещающая использование САС, будет принята, а страны, не поддержавшие её, рискуют «остаться за бортом международной политики».

С утверждением противников САС, что в ближайшем будущем у ведущих разработчиков появится возможность создать полностью роботизированные системы с ударными задачами, согласен эксперт в области беспилотных систем Денис Федутинов: «Повышение автономности действий является актуальными задачами для военных различных стран и, соответственно, для компаний-разработчиков. Системы искусственного интеллекта демонстрируют весьма интенсивное развитие».

Между тем, эксперт разделяет мнение о недопустимости делегирования вопросов применения оружия «роботам». В настоящее время, подчеркивает Федутинов, когда некий беспилотный летательный аппарат наносит удар по целям противника, это делает не обезличенный искусственный интеллект, а человек-оператор. «У каждой ошибки есть имя, фамилия, и соответствующая ответственность». В случае, если роботам будет позволено самостоятельно принимать решение о применении оружия, ответственность размывается — возможные невинные жертвы будут результатом просто какого-то технического сбоя, добавляет он.

Пекин в компании пацифистов

Категоричность противников боевых роботов не разделяет большинство ведущих держав: Россия, США, Израиль, Великобритания и другие.

В этих странах также заявляют о недопустимости устранения человека от принятия решения на убийство, но считают инициативу законодательного запрета на боевых роботов преждевременной.

Обратите внимание

РФ полагает, что принятые нормы международного права могут быть вполне применимы к САС, и потому нет необходимости создавать отдельные международные законы применительно к несуществующему оружию.

В российском МИД указывают на «сложности с чётким разграничением гражданских и военных разработок в области автономных систем», в то же время Москва готова поддержать декларацию о необходимости сохранения человеческого контроля над САС.

В Вашингтоне также предлагают отказаться от «поспешных суждений» относительно разрабатываемых видов вооружений. «Проблемы, связанные с автономией в системах вооружений, являются сложными… Для их понимания необходим дальнейший предметный диалог», — передаёт слова представителя Госдепартамента The Washington Times.

Промежуточную позицию занимает Германия, которая является сторонницей постепенного запрета САС, но лишь после длительного диалога, на котором стороны придут к общему мнению.

В компании слабых в военном отношении государств-сторонников законодательного запрета САС неожиданно оказался Китай — страна, активно разрабатывающая БЛА (в том числе ударные) и подводные дроны.

Американские СМИ подозревают Пекин в двуличной позиции: якобы на публику он играет в «хорошего парня», а на деле сам разрабатывает собственных роботов-убийц. «Китай может намеренно придерживаться двусмысленной стратегии в отношении норм международного права. На словах он может активно поддерживать запрет, чтобы отвлекать внимание от собственных разработок смертоносного автономного оружия», — отмечает The Washington Times.

С точки зрения международного права эта проблема совершенно надумана, отмечает News.ru эксперт Центра анализа стратегий и технологий Михаил Барабанов: очередная химера по «контролю над вооружениями», проталкиваемая пацифистами и малыми странами — в духе борьбы с кассетным оружием.

Автоматизировать работу систем вооружений до такого уровня, что решения о поражении будет принимать робот, можно уже сейчас.

Чтобы сбои не приводили к невинным жертвам, нужно не запрещать, а улучшать алгоритмы, считает Барабанов.

Китай, по его мнению, присоединился к инициативе из вежливости, полагая, что идею этого бесполезного соглашения и так «затопят» Россия и США.

«Крупным, развитым в военно-промышленном отношении странам это совершенно не нужно, но по традициям политкорректности они вынуждены участвовать в мероприятиях и делать дежурные заявления, ожидая, когда обсуждения потеряют смысл», — заключает Барабанов.

Источник: https://news.rambler.ru/other/40687485-rossiya-i-ssha-obedinili-robotov-protiv-kitaya/

Автомат с «калашниковым»

Как стало известно “Ъ”, Россия готова поддержать предложение Франции и Германии о принятии в ООН политической декларации, в которой говорилось бы о важности сохранения человеческого контроля над автономными системами вооружений. Эту инициативу в конце августа в Женеве обсудят представители более 80 стран и международных организаций.

Между тем, как пояснили “Ъ” в МИД РФ, Москва выступает категорически против введения юридически обязывающих ограничений в этой сфере, поскольку полноценного искусственного интеллекта еще не существует. Сторонники запрета «роботов-убийц», однако, предупреждают: технологии развиваются так быстро, что дипломаты могут просто не успеть предотвратить катастрофу.

“Ъ” разбирался в тонкостях нового направления мировой дипломатии.

Сохранить человеческий контроль

27–31 августа в Женеве под эгидой ООН пройдут переговоры Группы правительственных экспертов по смертоносным автономным системам вооружений (САС).

Важно

Эту тему дипломаты начали предметно обсуждать совсем недавно: первая такая встреча состоялась в декабре 2017 года, вторая — в апреле 2018-го. В качестве дискуссионной площадки был выбран формат Конвенции по негуманному оружию.

Именно в ее рамках в свое время рождались запреты кассетных боеприпасов, напалма, ослепляющих лазеров и противопехотных мин.

С инициативой запретить и САС выступили несколько государств. Среди них, например, Австрия, Аргентина, Бразилия, Боливия и Ватикан. Всего на текущий момент идею запрета поддерживают 26 стран.

Логика инициаторов радикальных мер такова: технологии искусственного интеллекта развиваются быстрыми темпами, и появление полностью автономных машин, способных принимать решения и действовать без контроля со стороны человека, не за горами; государства инвестируют значительные средства в адаптацию этих технологий для военных нужд и на вооружении целого ряда стран уже стоят системы с элементами искусственного интеллекта (от интеграции систем противовоздушной обороны до «стай» беспилотников, способных нападать «роем», роботов-часовых и аппаратов для обезвреживания взрывных устройств); значит, через пять-десять лет мир может столкнуться с выведением на поле боя роботов-убийц, которые будут самостоятельно выбирать цели и атаковать их. Отсюда и требование о запрете полностью автономных смертоносных систем: его инициаторы настаивают на принятии юридически обязывающего международного договора, который требовал бы от государств обеспечивать сохранение должного человеческого контроля над машинами. Как пояснила “Ъ” координатор глобальной кампании «Остановите роботов-убийц» (Stop Killer Robots) Мэри Верхэм, под «должным контролем» подразумевается возможность вмешательства оператора в процесс выбора мишени и осуществления атаки.

У сторонников этой идеи большая общественная поддержка. Опубликованную американской организацией «Институт будущего жизни» (Future of Life Institute) 18 июля петицию с требованием запретить создание полностью автономных боевых роботов подписали уже почти 2,5 тыс.

ученых, инженеров, общественных деятелей и представителей IT-бизнеса. Определенного успеха сторонникам радикальных мер уже удалось добиться. Так, до декабря 2017 году тематику САС в Женеве на протяжении трех лет обсуждали лишь неформально.

Однако в конце прошлого года 123 государства одобрили идею официально наделить группу дискуссионным мандатом.

Читайте также:  Экспертные системы

Инициаторы запрета автономных боевых роботов надеются, что намеченная на конец августа встреча станет шагом к наделению группы полноценным переговорным форматом — то есть откроет путь к выработке конвенции о запрещении САС.

Умозрительные системы

Однако многие страны скептически относятся к идее запрета подобных систем. Среди них и Россия. Ее делегация (в составе представителей МИДа, Минобороны и Минпромторга) хоть и готовится к отъезду в Женеву, но о существенном ограничении или полном запрещении САС говорить не готова, а потому выступает против наделения Группы правительственных экспертов переговорным мандатом.

Совет

Как пояснили “Ъ” в МИД РФ, такое «осторожное» отношение «связано с целым рядом обстоятельств». «Во-первых, надо учитывать, что речь идет о технике, не имеющей пока реально действующих образцов. Представление о таких системах имеется пока лишь весьма поверхностное и умозрительное,— напоминают в ведомстве.

— Серьезные затруднения наблюдаются даже при выработке рабочей версии определения термина САС».

Во-вторых, в МИДе указывают на «сложности с четким разграничением гражданских и военных разработок в области автономных систем».

И в-третьих, в министерстве «имеются значительные сомнения относительно обозначаемой радикально настроенными государствами и неправительственными организациями недостаточности действующей международно-правовой базы для регулирования САС».

«На наш взгляд, международное право (в том числе его гуманитарная отрасль) полностью применимо к САС и не нуждается в модернизации или адаптации под такие пока еще не существующие системы вооружений»,— заверяют на Смоленской площади.

И добавляют: «Россия неукоснительно придерживается норм международного гуманитарного права, применимых к этому перспективному виду вооружений. Российское национальное законодательство содержит положения, ставящие барьер возможному вводу в эксплуатацию вооружений, не соответствующих международно-правовым обязательствам России».

Отметим, что российские военные активно адаптируют элементы искусственного интеллекта для своих целей. На вооружении ВС РФ стоят роботизированные морские комплексы «Галтель», способные после получения задания самостоятельно анализировать обстановку и выбирать способы ее решения.

Член коллегии военно-промышленной комиссии РФ Олег Мартьянов рассказал агентству «Интерфакс», что эти системы с 2017 года занимаются поиском неразорвавшихся боеприпасов и охраной акватории в районе сирийского порта Тартус.

Сообщалось также о поступлении в войска радиоэлектронной борьбы ВС РФ системы РБ-109А «Былина», способной самостоятельно анализировать боевую обстановку и выбирать способы подавления сигналов противника.

Элементами искусственного интеллекта планируется наделять едва ли не все новейшие российские системы вооружений — от крылатых ракет до танков и истребителей. Президент РФ Владимир Путин в сентябре прошлого года заявил, что страна, добившаяся лидерства в создании искусственного интеллекта, «будет властелином мира».

Пока же Россия в этой сфере уступает позиции США и Китаю.

Обратите внимание

В целом, по данным аналитиков американской исследовательской компании MarketsandMarkets, мировой рынок технологий искусственного интеллекта военного назначения в 2017 году составил $6,26 млрд.

Эксперты полагают, что к 2025 году этот показатель поднимется до $18,82 млрд. Среди компаний—лидеров глобального рынка первые три позиции занимают гиганты американского военно-промышленного комплекса: Lockheed Martin, Raytheon и Northrop Grumman.

В связи с этим не вызывает удивления, что и власти США не готовы предметно обсуждать мораторий на создание автономных боевых роботов. Такой же позиции придерживаются и другие страны, активно инвестирующие в инновационные вооружения: Великобритания, Франция, Германия, Израиль, Япония, Южная Корея.

Единственным государством—членом Совета Безопасности ООН, поддержавшим разработку конвенции о запрете САС, неожиданно стал в апреле этого года Китай.

Впрочем, в Пекине оговариваются: речь может идти только о запрещении применения полностью автономных боевых систем, но не об ограничениях на их разработку и создание.

Как бы то ни было, с учетом неготовности ведущих стран обсуждать какие-либо запреты в этой сфере сторонникам радикальных мер вряд ли стоит надеяться на быстрый прогресс.

Компромиссом может стать предложение Франции и Германии, которое, как ожидается, будет рассмотрено на сессии в Женеве.

Париж и Берлин предлагают принять политическое заявление, в котором страны гарантировали бы, что человек в любом случае будет играть ключевую роль при задействовании автономных боевых систем и сможет сохранять контроль над их действиями.

Важно

В МИД РФ “Ъ” пояснили, что Москва не возражает против начала подготовки на площадке Конвенции о негуманном оружии политической декларации по САС при том понимании, что она будет согласована по итогам работы профильной Группы правительственных экспертов.

В ведомстве подчеркивают, что действия российской делегации будут зависеть от «конкретного наполнения» этой декларации и от того, будет ли в документе учтена позиция России.

Российские переговорщики, как заверили “Ъ” в МИД РФ, готовы «включиться в работу» по составлению текста и в целом считают, что его принятие было бы «полезным итогом» деятельности Группы правительственных экспертов.

Как следует из интервью Мэри Верхэм, сторонников запрета роботов-убийц эта мера не удовлетворит. Но на большее им на текущий момент рассчитывать не приходится.

Елена Черненко

Источник: https://www.kommersant.ru/doc/3714419

Безжалостные дроны-убийцы — фильм об опасности использовании ИИ в военных целях для ООН | Видео

Технологии автономного оружия, способные преследовать и убивать людей без контроля со стороны оператора, существуют уже сегодня. ООН вслед за многими учеными настоятельно рекомендует запретить их. The Guardian рассказывает об агитационном фильме против роботов-убийц, который будет показан в ООН в рамках кампании по их запрету.

В фильме изображено жестокое будущее. Военная фирма создает крошечного дрона, который охотится и убивает с безжалостной эффективностью. Но когда технология попадает в чужие руки, наступает хаос: политиков и активистов убивают среди бела дня.

Это короткое, тревожное кино — последняя попытка заинтересованных ученых подчеркнуть опасность развития автономного оружия.

По их мнению, чтобы предотвратить появление нового ужасного оружия массового уничтожения, необходимо уже сейчас запретить технологию.

Стюарт Рассел, сотрудник Калифорнийского университета в Беркли — один из тех, кто покажет этот фильм на мероприятии в рамках Конвенции ООН об обычных вооружениях.

По его мнению, появление беспилотных дронов-убийц, а также танков и пулеметов, не требующих управления человеком, будет разрушительным для безопасности и свободы населения Земли.

Времени, чтобы остановить их развитие, остается все меньше, ведь все необходимые технологии уже существуют. Создать робота-убийцу куда проще, чем беспилотный автомобиль, так что фильмы о них — уже не научная фантастика.

Совет

Военные всегда были среди крупнейших спонсоров и потребителей инноваций в области искусственного интеллекта. Среди последних перспективных разработок в этой области — использование технологий поиска цели и распознавания изображений.

Военные беспилотники уже довольно давно используются для удаленных операций, но скоро им на смену может прийти оружие, не требующее контроля человека.

Противники подобных технологий считают, что отдавать роботам решения о жизни и смерти людей — значит пересекать моральную черту.

В свое время ученым удалось убедить президентов Линдона Джонсона и Ричарда Никсона свернуть американскую программу по разработке биологического оружия и принять Конвенцию о биологическом оружии.

Возможно, борьба против роботов-убийц, в которой используются сходные аргументы, также сможет привести к успеху. В августе более 100 ведущих специалистов в области робототехники и ИИ призвали ООН запретить разработку и использование автономного оружия.

Среди подписавших письмо — Илон Маск и Мустафа Сулейман, глава подразделения Alphabet по глубокому изучению искусственного интеллекта.

За запрет также высказались 19 стран, включая Аргентину, Пакистан и Египет. Однако многие другие государства, по данным кампании за запрет боевых роботов, стремятся к созданию систем автономного оружия. Среди них США, Китай, Россия, Израиль, Южная Корея и Великобритания.

Соединенное Королевство в 2015 году активно выступило против запрета на роботов-убийц, заявив, что существующего международного права достаточно для регуляции автономного оружия.

Обратите внимание

В этом году правительство страны издало доктрину, подтверждающую приверженность Великобритании принципу контроля человеком любого оружия.

Источник theguardian.com hightech.fm | Автор Сергей Коленов

Источник: http://cloudteh.ru/2017/11/killer-drons-un/

Топ-страны хотят поиграться в роботов-убийц, несмотря на протесты ученых

Мир стал на шаг ближе к апокалипсису, описанному в «Терминаторе». В Женеве в рамках конференции ООН решается судьба автономных систем вооружения.

Печальнее всего тот факт, что больше всего поиграться роботами-убийцами хотят топ-страны. США, Израиль, Россия и Великобритания больше других горят желанием поскорее внедренить ИИ в военную отрасль. Мистер Путин и вовсе оговорился, что обладатель «терминаторов» станет «властелином мира». Несложно догадаться, кого именно он видит в данной роли.

Если мощь российского искусственного интеллекта – скорее шутка, то в США по полной программе обсуждают концепцию Пентагона Third Offset, по которой именно внедрение сверхмашин определит новое поколение оружия. Одержимые идеей мирового господства, Штаты, несомненно, будут развивать эти идеи на фоне укрепления оборонных «мощей» Китая и России.

Тем временем правозащитники из Amnesty International указали на еще одно слабое место — международное право. Оно попросту не успевает за развитием технологий, в итоге в законодательстве – гигантская дыра в вопросе автономных систем вооружения.

Также против вооруженного до зубов ИИ активно выступают топовые общественные деятели и специалисты в сфере технологий. В 2015 году сотни крупнейших ученых мужей выступили категорически против таких «игрушек» в руках военных. Соответствующее письмо подписали 230 организаций и тысячи бизнесменов и ученых, которые тесно связаны со сферой искусственного интеллекта.

Изобретатель Илон Маск и вовсе назвал искусственный интеллект самой большой угрозой из всех возможных:

Знаменитый физик Стивен Хокинг даже посоветовал человечеству искать новые планеты, отведя нам срок жизни не более чем в тысячу лет. И среди вероятных причин гибели он называл как раз ИИ. В одном из своих выступлений он прямо сказал, что у людей нет никаких шансов против машин.

По иронии судьбы на острие внедрения роботов-убийц будут никто иные как паны айтишники. За свои франклины и по душевной наивности они будут писать алгоритмы для истребления хомо сапиенс, слабо понимая, что сами же находятся в списке на расстрел. Накидать какой-нить скриптик за 15 мин? — С удовольствием. Подумать своей ботанской башкой хотя бы на шаг вперед? — Извините, это слишком сложно.

Важно

В итоге все происходящее очень напоминает развитие сюжета в романе-постапокалипсисе.

У сильных мира сего чешутся руки, чтобы поскорее проверить в деле боевых роботов, а те, кто действительно разбираются в теме, предупреждают, что такие забавы закончатся гибелью всего человечества.

Хочется верить, что в нашем случае история закончится хэппи-эндом, однако в свое время люди все-таки не удержались от того, чтобы поиграть с ядерными бомбами.

Источник: korrespondent.net

Источник: http://itpravda.com/2018/08/31/robots-vs-humans/

Войны разума

В сентябре 2017 года во время телемоста с российскими школьниками Владимир Путин выступил с громким прогнозом: «Искусственный интеллект — это будущее не только России, это будущее всего человечества. Тот, кто станет лидером в этой сфере, будет властелином мира».

Полгода спустя президент в красках описал, что будет со странами, которые не смогут перестроиться на цифровые рельсы: новая технологическая волна их «просто захлестнет, утопит».

В послании Федеральному собранию Путин анонсировал «масштабную программу национального уровня», посвященную развитию искусственного интеллекта в России.

В течение 2019 года правительство должно представить набор стратегических документов, которые позволят России избежать участи технологического аутсайдера. «Новая» разбиралась, с какими стартовыми позициями наша страна включается в новую «гонку вооружений».

25 февраля истекает срок, к которому правительству поручено подготовить варианты «дорожной карты» развития искусственного интеллекта в России. В конкурсе на разработку национальной стратегии в области ИИ могут принять участие Сбербанк, Ростех, Ростелеком, «Яндекс», Mail.Ru Group, Rambler Group и МТС.

Читайте также:  Макс тегмарк продолжает финансировать исследования в области искусственного интеллекта

Центральную роль в этом процессе отводят Сбербанку, который в последние годы дрейфует от банковского бизнеса в сторону универсальной «цифровой экосистемы».

«Сбер» собрал под своим крылом ведущих специалистов в отрасли, включая сотрудников «Физтеха» — одного из основных центров научных компетенций в сфере машинного обучения в России.

При банке действует лаборатория исследований искусственного интеллекта, конкурировать с которой среди российских компаний может, пожалуй, только «Яндекс».

Совет

Ориентированный на гражданские технологии Сбербанк уравновешивает госкорпорация Ростех, специализирующаяся на безопасности.

При Ростехе с осени прошлого года действует собственный Центр искусственного интеллекта, однако из-за непубличного характера большинства разработок оценить их уровень сложно.

Во всяком случае, российские военные активно тестируют «умные ракеты», беспилотные дроны и прочие интеллектуальные системы вооружения, что вызывает немалое беспокойство у лидеров западных стран.

Впрочем, ИИ сегодня — это в первую очередь гражданская сфера. «Во всем мире время, когда новые технологии появлялись из войны, прошло несколько десятков лет назад. Сейчас все происходит ровно наоборот.

К сожалению, в России мы этого не заметили, и ведем себя так, будто на дворе сейчас 1960 год», — говорит заведующий лабораторией изучения цифровой трансформации государства и общества РАНХиГС Василий Буров.

Летальное оружие с интеллектуальной компонентой испытывают все крупные страны, но даже военные делают акцент на «мирных» разработках. К примеру, министерство обороны США под технологиями ИИ подразумевает не автономных роботов-убийц, а системы предотвращения природных бедствий и автоматизацию техобслуживания военной техники.

При этом для описания глобальной технологической конкуренции не зря используется военная метафорика — риски отставания в ней действительно носят экзистенциальный характер.

Тот, кто разработает самые совершенные алгоритмы, сможет обеспечить себе устойчивые преимущества на долгое время вперед.

Это самая масштабная «гонка вооружений» в истории человечества: она больше, чем проект «Манхэттен» или программа «Аполлон», и реализуется сразу во всех сферах человеческой деятельности, отмечает IT-предприниматель, организатор конференции OpenTalks.AI Игорь Пивоваров.

Особенности национального ИИ

По объему накопленных инвестиций и емкости рынка высоких технологий Россия катастрофически отстает от мировых лидеров. В 2017 году аналитический центр TAdviser и компания «Инфосистемы Джет» оценили объем российского рынка ИИ в 700 млн рублей с прогнозом роста до 28 млрд рублей к 2020 году.

Для сравнения: в Китае в 2017 году в ИИ было вложено $12 млрд (780 млрд рублей), к 2020 году эта цифра вырастет до $70 млрд, а к 2030 году — до $150 млрд (это целевой показатель китайского правительства).

Эксперты РАНХиГС в отчете «Государство как платформа: люди и технологии» указывают, что доля цифровой экономики в России составляет всего около 3% ВВП (в развитых странах — от 10% до 35%).

Обратите внимание

С наукой ситуация обстоит не лучше: в рейтинге стран по цитируемости статей в области машинного обучения Россия находится на 42-м месте.

Сегмент машинного обучения в России колоссально растет, но рынка как такового так и не сформировалось: технологии ИИ фактически никто не продает и не покупает, все стараются заниматься разработками собственными силами и не хотят делиться данными, говорит Пивоваров.

В России очень много «общетехнологических» компаний, которые делают любые продукты, и очень мало узкопрофилированного бизнеса: например, ИИ для промышленности, финансов или юридической практики. В США ситуация ровно обратная.

Именно потому, что на конкретных применениях ИИ, в отличие от общих разработок, можно хорошо заработать.

«Россия в этом смысле попала в известный парадокс: технологии есть, а с коммерциализацией большие проблемы. Это ключевой вопрос для отрасли сейчас», — объяснят эксперт.

Реальная битва за лидерство в сфере искусственного интеллекта идет между двумя ключевыми игроками — США и Китаем. Обе страны имеют свою специфику в подходе к развитию ИИ. США опираются на создание благоприятного климата для частных стартапов, Китай — на взращивание «национальных чемпионов», масштабные госинвестиции и самый большой в мире национальный рынок (1,4 млрд человек).

Исход этого противостояния непредсказуем. Америка обладает богатой культурой инноваций и развитой венчурной инфраструктурой, которая обеспечивала стране технологическое лидерство все предыдущие десятилетия. Китайский рынок молод, динамичен и гораздо быстрее «проглатывает» новинки.

Источник: https://www.novayagazeta.ru/articles/2019/02/25/79680-voyny-razuma

Роботы-убийцы: сможет ли искусственный интеллект захватить мир

Развитие систем искусственного интеллекта открывает перед человечеством двери к четвертой промышленной революции. Роботы становятся все умнее, а их способность к самообучению поражает. Недавно гонконгская компания Hanson Robotics разработала на основе самообучающей нейросети андроида по имени София.

Она воспринимает мир встроенными в глаза камерами, может разговаривать с людьми и изображать десятки различных эмоций. Однако до идеала робототехники  Софии еще далеко.

Во время экономического форума в Давосе, состоявшегося в январе 2018 года, андроид «завис» после того, как украинская делегация задала вопрос о том, что делать с коррупцией в стране.

«Сюрпризы» София начала преподносить через год после ее эксплуатации. Так, на вопрос разработчика Дэвида Хэнсона, хочет ли она уничтожить человечество, она ответила: «Хорошо, я хочу уничтожить человечество». Позже о своем плане захватить мир София в шутку поделилась в популярном вечернем шоу с ведущим Джимми Фэллоном. Однако шутку оценили далеко не все зрители.

Важно

Многим и вовсе стало не по себе, когда они провели параллели с художественным фильмом «Из машины» 2014-го года, где женщина-робот выходит из-под контроля человека и жестоко расправляется со своим создателем.

Кто может гарантировать, что творение  Hanson Robotics  со временем не поступит так же? Кто знает, что происходит внутри нейронного мозга, который день за днем обучает сам себя?

Военный историк, директор музея ПВО Юрий Кнутов в программе «Политический детектив» на телеканале «Звезда» высказал свои опасения по поводу развития искусственного интеллекта. Эксперт не исключил, что на определенном этапе роботы могут решить, что от людей нужно избавляться.

Многие эксперты полагают, что за развитие искусственного интеллекта яростнее всего выступает Пентагон. Американские вооруженные силы намерены делать упор на разработку боевых роботов, а также использование их в наземных операциях. В частности, инженерная компания Boston Dynamics, специализирующаяся на робототехнике, создает множество платформ для Минобороны США.

Инженеры Boston Dynamics выкладывают в открытый доступ достижения своих роботов. Так, например, большой популярностью в Сети пользуется видео со SpotMini – роботизированным гибридом собаки и жирафа. Он неплохо обращается с хрупкими предметами и может быть отличным помощником на кухне.

Умные машины этой компании настолько похожи на живых существ, что любой новый ролик Boston Dynamics вызывает нешуточный резонанс. С особым восторгом публика приняла человекоподобного робота Atlas. Недавно он продемонстрировал чудеса владения собственным «телом».

Мало кто задумывается, в каких областях могут пригодиться такие навыки. И на кого на самом деле могут работать лучшие инженеры-робототехники США.

Boston Dynamics в этом году претендуют на круглую сумму в рамках новой военной программы Пентагона. Агентство DARPA (Управление перспективных исследовательских проектов Минобороны США) выделяет компании миллиарды долларов на разработку в области компьютерных технологий.

Иными словами, все эти забавные железные существа, которым рукоплещет мир, скоро вполне могут стать боевыми единицами армии США.

DARPA – все чаше из уст экспертов звучит название этой организации. Чем именно занимаются в этой компании? И правда ли, что в DARPA всерьез занимаются разработками роботов-солдат для американской армии? Обо всем этом вы узнаете в расследовании «Политического детектива». Смотрите программу на сайте телеканала «Звезда».

Источник: https://tvzvezda.ru/news/vstrane_i_mire/content/201803121315-ynpj.htm

Кошмар прогресса: окажутся ли роботы-убийцы под запретом

Совсем скоро технологии позволят создать автоматическое оружие, которое сможет выбирать и решать вопрос об уничтожении цели независимо от человека. И пока все спорят, насколько это этично, прогресс неумолимо движется вперед

Пока премьер Дмитрий Медведев и Аркадий Волож катались на беспилотном «Яндекс.Такси» по «Сколково», военные инженеры придумывали, как адаптировать технологии беспилотного транспорта для создания нового оружия.

На самом деле, технологии — не совсем то, чем они кажутся. Проблема всей технологической эволюции в том, что грань между коммерческими роботами «для жизни» и военными роботами-убийцами невероятно тонкая, и перейти ее ничего не стоит. Пока что они выбирают маршрут движения, а завтра смогут сами выбирать, какую цель уничтожить.

Совет

Это не первый раз в истории, когда технологический прогресс ставит под вопрос само существование человечества: сначала ученые создали химическое, биологическое и ядерное оружие, теперь — «автономное оружие», то есть роботов. Разница лишь в том, что до сего дня бесчеловечным считалось оружие «массового поражения» — то есть не выбирающее, кого ему убивать.

Сегодня перспектива изменилась: куда более безнравственным кажется оружие, которое будет убивать с особой разборчивостью, выбирая жертв на собственный вкус.

И если какую-нибудь воинственную державу останавливало то, что, примени она биологическое оружие, пострадают все вокруг, то с роботами все сложнее — их можно запрограммировать на уничтожение конкретной группы объектов.

В 1942 году, когда американский писатель Айзек Азимов сформулировал три закона робототехники, все это казалось захватывающим, но совершенно нереалистичным. Эти законы гласили, что робот не может и не должен причинять вред или убивать человека.

А еще они должны беспрекословно подчиняться воле человека, кроме тех случаев, когда его приказы будут противоречить вышеизложенному императиву. Теперь, когда автономное оружие стало реальностью и вполне может попасть в руки террористов, оказалось, что программисты как-то забыли заложить в его ПО законы Азимова.

А значит, роботы могут представлять опасность, и никакие гуманные законы или принципы не смогут их остановить.

Разработанная Пентагоном ракета сама обнаруживает цели благодаря программному обеспечению, искусственный интеллект (ИИ) идентифицирует мишени для британских военных, а Россия демонстрирует беспилотные танки.

На разработку роботизированной и автономной военной техники в различных странах тратятся колоссальные средства, хотя увидеть ее в действии мало кому хочется.

Обратите внимание

Как большинство химиков и биологов не заинтересованы в том, чтобы их открытия в итоге были использованы для создания химического или биологического оружия, так и большинство исследователей ИИ не заинтересованы в создании оружия на его основе, потому что тогда серьезный общественный резонанс повредит их исследовательским программам.

В своем выступлении в начале Генеральной Ассамблеи Организации Объединенных Наций в Нью-Йорке 25 сентября Генеральный секретарь Антониу Гутерреш назвал технологию ИИ «глобальным риском» наряду с изменением климата и растущим неравенством доходов: «Давайте называть вещи своими именами, — сказал он. — Перспектива, что машины будут определять, кому жить — отвратительна». Вероятно, Гутерреш — единственный, кто может призвать военные ведомства одуматься: ранее он разбирался с конфликтами в Ливии, Йемене и Сирии и занимал должность Верховного комиссара по делам беженцев.

Проблема в том, что при дальнейшем развитии технологий роботы сами смогут решать, кого убивать. И если у одних стран такие технологии будут, а у других нет, то бескомпромиссные андроиды и дроны предрешат исход потенциальной битвы.

Все это противоречит всем законам Азимова одновременно. Алармисты могут всерьез тревожиться о том, что самообучаемая нейросеть выйдет из-под контроля и перебьет не только врага, но и всех людей вообще.

Однако перспектива даже вполне послушных машин-убийц совсем не радужна.

Источник: https://finovosti.ru/news/tekhnologii/koshmar-progressa-okazhutsya-li-roboty-ubiytsy-pod-zapretom

Ссылка на основную публикацию
Adblock
detector