Американские ученые работают над созданием истребителей с искусственным интеллектом

Наука в шаге от создания думающих роботов с искусственным интеллектом. Альманах ХолмТайн

Никто сегодня не возьмётся отрицать быстрое продвижение технологий в области робототехники и искусственного интеллекта. Это опасная технология, беспокоились такие ученые как Стивен Хокинг, указывая на риски будущего благополучия нашей цивилизации.

Наука и техника стали необходимыми в наши дни, достигая цели большего развития человеческой расы. Многие видят в роботах с интеллектом огромный потенциал развития человека практически во всех исследовательских направлениях.

Умные машины будут обладать сознанием, волей и совестью – выделяемые аспекты интеллекта. Они будут способны к саморазвитию и выражению личности в творчестве. Разве можно в этом видеть только опасность, и говорить о революции в робототехнике против человечества? Ну некоторые ученые говорят положительно.

Обратите внимание

Добравшись до этой точки развития искусственный интеллект по факту формируется в машинную цивилизацию. Это будет цивилизация, существующая на Земле параллельно с человеческой. И это может говорить о том, что роботизированная наука уже сегодня становиться опасной для человечества.

Недавно мы могли наблюдать насколько быстро искусственный интеллект развивается и прогрессирует. Робот София продемонстрировала, как роботы могут заявить о себе и своих планах на будущее. Надо признать, что робототехника наших дней практически догнала фантастические технологии.

Эксперты уже утверждают, что машины могут и должны быть в состоянии узнать о себе и знать, как они влияют на окружающую среду, в которой они живут. Новое поколение робототехники, благодаря развитию своего ИИ, будет действовать и думать, как люди. Теперь у нас нет сомнений, что технологии достигли точки создания автономных роботов.

Робот с живым мозгом?

Основная цель проекта, известного как DARPA (Defense Advanced Research Prohects Agency), заключается в производстве роботов, которые могут контролироваться живым мозгом. Например, американское министерство обороны заявило, что этот проект находится на завершающей стадии.

Согласно газете «Национальная оборона», программа, обычно называемая «Физическая разведка», является инициативой, начала исследовать проблему и развиваться почти 10 лет назад.

Еще в 2009 году учёные задумали понять интеллект как физическое событие, способность проявлять себя химическими и электрическими системами.

Из этой идеи возникла странная машина, которая позволяет роботам действовать независимо.

Что отличает их от общепринятого понимания ИИ, так это «инновационные системы» позволяющие машине мыслить, словно настоящий человеческий мозг.

Об этом сообщил один из руководителей проекта профессор химии в Калифорнийском университете Джеймс Гимжевски.

рождение робота, как отличить плюсы и минусы

Физический интеллект, без сомнения, является решающим моментом, который позволит роботам быть полностью самодостаточными и сохранять независимость от любой системы. Проект не основан на каком-либо серьезном аппаратном обеспечении с интегральной схемой.

По словам исследователей, устройство безопасности, которое было построено, дает возможность работать без обычного программирования.

Важно

Такое решение заставляет робота выполнять свое «собственное программирование» в соответствии с окружающей обстановкой.

Однако планы ученых на этом не останавливаются.

Созданное устройство будет иметь нано-масштабные взаимосвязанные «кабели» с тысячей соединений как человеческий мозг.

Поэтому устройство (вернее искусственный мозг) сможет запоминать каждую полученную информацию, и каждое из этих соединений будет действовать как искусственный синапс.

Каким образом новое устройство помешает человечеству и что произойдет, когда роботы поймут, что они намного эффективнее людей? Сегодня это вопрос споров и обсуждений, многочисленных дискуссий об отношении «творения» к своему создателю. Очевидно одно, DARPA продолжает вести пятилетний научный проект, который создаст машину с человеческим мозгом.

 

Источник: https://holmtain.ru/nauka-v-shage-ot-sozdaniya-dumayushhih-robotov-s-iskusstvennym-intellektom.html

Маленькие хитрости американского искуственного интеллекта

Беспилотными летательными аппаратами уже никого не удивить. Такие есть на вооружении всех более-менее развитых стран. Разработка и производство беспилотников стали одной из доходных областей ВПК стран-экспортеров вооружений, и даже отставшая поначалу Россия активно наверстывает упущенное, ворвавшись на мировой рынок беспилотников с «Орланами» и «Гранатами».

Однако беспилотник в нынешнем понимании этого слова все равно требует оператора.

Просто тот может сидеть в летающем командном пункте, барражирующем на самой границе дальности действия связи, а то и вообще в подземном бункере где-нибудь на замаскированной базе.

Нынешние беспилотники обладают, конечно, зачатками искусственного интеллекта, однако мериться силами с живыми пилотами им пока рановато.

Но наука не стоит на месте. ИИ, способный управлять настоящим боевым истребителем, уже давно перекочевал со страниц книг и экранов кинотеатров в реальность засекреченных военных лабораторий.

Поначалу интеллектом это называлось в силу устоявшейся терминологии, но более современные образцы уже начали подавать определенные надежды.

Правда, боевые летчики в виртуальных баталиях все еще одерживали верх над электронным противником. До недавнего времени.

Искусственно интеллектуальный прорыв

Компания Psibernetix недавно анонсировала новый искусственный интеллект, способный на равных потягаться с лучшими пилотами американских ВВС.

Причем не стоит думать, будто американский пилот — это рохля, способный только нажать на красную или зеленую кнопку в зависимости от команды оператора.

Несмотря на серьезно понизившийся налет, пилоты боевых самолетов в Соединенных Штатах остаются достаточно подготовленными и умелыми военными.

В конце концов, многие американские пилоты обладают реальным боевым опытом, поскольку воевать Соединенные Штаты не стесняются.

Пусть противники обычно ничего особо не могут противопоставить американской военной машине, но это на уровне сравнения потенциалов.

В масштабах отдельного вылета всегда сохраняется опасность неожиданной атаки средствами наземной ПВО, а то и случайным самолетом противника. Поэтому пилотов ВВС США недооценивать не будем.

ИИ-пилот, созданный компанией Psibernetix, разрабатывался при поддержке лаборатории ВВС США. Разработчики утверждают, что его алгоритмы принятия решений очень похожи на человеческие.

Совет

Он разбивает задачу на несколько малых, анализирует все возможные варианты, выбирает наиболее подходящий к случаю и реализует его в рамках главной задачи.

Этот алгоритм, получивший название ALPHA, по данным разработчиков, превзошел все предыдущие компьютерные программы для авиасимуляторов и одержал победу над живым пилотом.

За чистоту эксперимента

Однако есть два момента, которые позволяют думать, что не все так радостно, как об этом говорит разработчик.

В качестве пилота, который уступил искусственному интеллекту в боях на авиационном симуляторе, выступил бывший военный летчик, полковник ВВС в отставке Джин Ли. Несомненно, грамотный специалист, раз он занимается обучением военных пилотов.

Вот только о мистере Ли известно, что он уже 30 лет занимается тестированием подобных систем, а значит этому гражданину уже немного за 50. Это уже не тот возраст, когда можно показывать выдающиеся результаты в пилотировании.

Обычно действующие короли воздушного боя лет на 15-20 моложе.

Кроме того, Джин Ли — не просто испытатель авиационных симуляторов. Он один из основных разработчиков алгоритма ALPHA, а следовательно — лицо заинтересованное.

Кто может поручиться, что ради вкусного многомиллионного гранта на дальнейшие разработки мистер Ли сражался с собственным детищем на пределе своих возможностей? Подгонять исследование под результат вполне в духе американского ВПК.

Никто не забыл, как в ходе испытания системы ПРО США на учебных целях обнаружились маячки, которые наводили противоракеты на цель.

Впрочем, не будем углубляться в эту тему, чтобы не обижать мистера Ли на случай, если он был предельно честен. Ведь есть еще один аспект, ставящий под сомнение достоинства разработанного американцами ИИ.

Выбор самолета

Кроме способностей пилота и искусственного интеллекта есть еще параметры машин, на которых они идут в бой. Конечно, сражение проходит в виртуальном пространстве, но глупо было бы не заложить в программу возможности именно той машины, на которой предстоит в будущем летать обучающемуся пилоту.

В материалах испытания есть вот такое изображение, демонстрирующее расстановку сил в момент боя.

Компьютер играет за красных, а человек, соответственно, за синих. На схеме отчетливо виден АВАКС синих, который находится где-то на удалении, и непосредственно сошедшиеся в бою истребители. В синем самолете, которым управляет пилот-человек, легко угадывается гордость американских ВВС истребитель пятого поколения F-22 Raptor.

Обратите внимание

Поскольку речь идет о ближнем воздушном бое, в котором российские машины традиционно сильны, вполне вероятно, что победа ИИ над человеком говорит не столько о совершенстве разработанных американцами алгоритмов, сколько о превосходстве российской военной техники.

Прояснить этот вопрос мы попросили доктора военных наук, член-корреспондента Российской академии ракетных и артиллерийских наук Константина Валентиновича Сивкова.

Таким образом, победа новейшего американского искусственного интеллекта над пилотом-человеком приобретает несколько другой окрас. В чем американский ВПК однозначно превосходит российский, так это в умении тянуть деньги из государства.

Вполне возможно, что перед нами очередная попытка урвать свой кусок от огромной суммы военного бюджета США. Заказ из Пентагона — очень выгодная штука, ради которой недобросовестные разработчики могли бы и выдать желаемое за действительное.

Опыт в этом деле у них громадный.

https://www.youtube.com/watch?v=EFd1uWNT0AU

Григорий Романович Ажданин

Источник: https://slovodel.com/489529-malenkie-hitrosti-amerikanskogo-iskustvennogo-intellekta

Ученые отказываются работать над созданием роботов-убийц

2400 инженеров и ученых, работающих в сфере искусственного интеллекта (AI), подписали письмо с обещанием не работать над созданием роботов-убийц, которые могут действовать без надзора людей и убивать их.

Среди подписантов Демис Хассабис, один из основателей Google DeepMind, и директор SpaceX Илон Маск.

Цель письма – убедить военно-промышленный комплекс и правительства не создавать  смертельные автономные системы вооружений (LAWS).

Важно

О письме объявлено на Международной конференции по искусственному интеллекту, которая сейчас проходит в Стокгольме. Это последнее мероприятие в кампании озабоченных ученых и организаций, которые хотят показать опасность передачи машинам с искусственным интеллектом решений, способных привести к смерти людей.

Ранее были призывы запретить работу над технологиями, которые, по мнению участников движения за запрет роботов-убийц, могут привести к появлению оружия массового поражения нового поколения. Кампания ведется по образцу и подобию схожей кампании по запрету противопехотных мин.

Участники той кампании считают ее успешной несмотря на то, что ряд крупных стран, включая США, закон, запрещающий производство и использование противопехотных мин, не подписали.

Во главе движения стоит бостонская организация «Институт будущего жизни». Письмо призывает правительства согласовать нормы, законы и правила, которые эффективно помешают созданию роботов-убийц.

Пока же таких законов и правил нет, пишут подписанты, они обещают не работать над созданием LAWS и ни каким другим способом не содействовать их появлению и развитию.

Кроме физических лиц, среди подписантов более 150 организаций и компаний.

Военные являются главными заказчиками работ по развитию AI. Переоценить возможности и важность роботов и компьютерных программ в военном деле трудно.

Достаточно сказать, что министр обороны Великобритании Гэвин Уильямсон рассказал на этой неделе о запуске двухмиллиардного проекта по созданию нового истребителя ВВС Соединенного Королевства «Буря», который сможет летать без летчика.

При этом британские власти утверждают, что Лондон не разрабатывает роботов-убийц и что британские военные всегда смогут контролировать AI. 

«Мы должны сделать международной нормой запрет автономных вооружений,- заявил в интервью лондонскому Guardian Тоби Уолш, профессор AI из австралийского университета Нового Южного Уэльса.- Человек всегда должен стоять в центре всего, что связано с искусственным интеллектом.

Совет

Мы не можем помешать человеку, который полон решимости создать автономные системы вооружений, так же, как не можем помешать создавать новые виды химического оружия.

Но если мы не хотим, чтобы государства изгои и террористы имели легкий доступ к LAWS, то мы должны позаботиться над тем, чтобы ими хотя бы открыто не торговали военные компании».  

Источник: http://expert.ru/2018/07/19/tyisyachi-uchenyih-obeschayut-ne-razrabatyivat-robotov-ubijts/

Искусственный интеллект для самолётов: будущее авиации

На сегодняшний день специалисты уверены в том, что уже в течение ближайших 15-20 лет, компьютеры смогут успешно заменить человека, причём, относится это не только к сфере, где требуется проведение точных расчётов, но и в сфере авиации, где от квалифицированных действий пилота, зависит не только успешность производимого перелёта, но и судьба пассажиров находящихся на борту. К сожалению, на сегодняшний день авиакатастрофы зачастую происходят из-за ошибок допускаемых в ходе пилотирования, а это десятки и сотни человеческих жертв ежегодно, однако, специалисты из США полагают, что к 2030 году, компьютеры уже смогут беспрепятственно управлять самолётами, причём, гораздо более эффективно чем люди.

В ходе недавно проведённых экспериментов, стало известно о том, что на территории США уже создан искусственный интеллект (ИИ), который своими действиями превосходит интеллект человека.

В частности, в минувшем месяца американские учёные оснастили компьютер программой искусственного интеллекта, который должен был управлять военным самолётом, и каково же было удивление специалистов, когда обычный компьютер смог «победить», причём неоднократно, специалиста по боевой тактике. На создание искусственного интеллекта ушло не так уж и много времени – всего лишь несколько месяцев, однако, подобное открытие уже назвали весьма значимым, тем более что, сфера внедрения ИИ может быть гораздо шире, начиная от мониторинга положения воздушных судов в пространстве, и оканчивая управлением гражданскими и военными летательными аппаратами.

Специалисты полагают, что оснащение искусственного интеллекта заранее заложенными правилами позволит обеспечить более высокий уровень безопасности , в частности, компьютерная программа беспрепятственно сможет произвести посадку самолёта в аэропорту даже в сложных метеорологических условиях, обеспечить безопасность полёта в случае возникновения какого-либо технического отказа (например в случае выхода из строя одного из двигателей), обойти штормовой фронт в случае непогоды. Эти частные примеры не более чем демонстрация самых простых возможностей ИИ при внедрении его в сферу авиации, однако, существуют и другие, более сложные задачи, например, управление теми же боевыми самолётами в беспилотном режиме, тестовые испытания новой воздушной техники и т.д.

В настоящий момент работа в этом направлении ведётся весьма активно, тем более, что уже через два десятилетия, востребованность в этом будет просто колоссальной.

Костюченко Юрий специально для Avia.pro

Источник: http://avia.pro/blog/iskusstvennyy-intellekt-dlya-samolyotov-budushchee-aviacii

“Железо с мозгами”: какое оружие России умеет “думать”

В ходе прошедшей в Казани конференции “Цифровая индустрия промышленной России — 2018” директор кластера обычных вооружений, боеприпасов и спецхимии госкорпорации “Ростех” Сергей Абрамов рассказал о том, что наша страна имеет определенные наработки по самообучающемуся оружию с искусственным интеллектом.

По его словам, необходимость, перспективность и целесообразность создания и адаптации систем искусственного интеллекта для военного применения не вызывает сомнений, и усилия по его внедрению в стоящие на вооружении и перспективные системы предпринимаются всеми ведущими странами мира. Известно, что в США на подобные разработки тратятся десятки миллиардов долларов.

В настоящее время российская армия имеет большое количество вооружений (например, системы противовоздушной и противоракетной обороны ближнего действия), работающих в автоматическом режиме от момента обнаружения цели до ее уничтожения. Однако, по мнению специалистов, эти системы с трудом можно назвать искусственным интеллектом по причине того, что “они не являются самообучаемыми, а строго следуют алгоритмам, “зашитым” разработчиками”.

В 2017 году президент РФ Владимир Путин заявил, что страна, добившаяся лидерства в создании искусственного интеллекта, “будет властелином мира”.

Искусственный интеллект — это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы

Владимир Путин

президент России

“Здесь, конечно, нельзя не отметить наработки концерна “Калашников”, достигшего определенных успехов в данной сфере”, — говорит Абрамов. Речь идет о созданном в концерне боевом модуле, который уже демонстрировался на форуме “Армия-2017”. Тогда сообщалось, что в серию это оружие может пойти в этом году. Работа вычислительной системы модуля построена по принципу нейросетей.

Читайте также:  Новая технология выявления раковых клеток основана на системе искусственного интеллекта

Это быстро обучаемая система, которая способна действовать не только в соответствии с заданным изначально алгоритмом, но и на основании используемого ранее опыта.

Продолжение

Дистанционно управляемый модуль самостоятельно анализирует окружающую обстановку, выделяет угрожающие объекты и сам принимает решение об их уничтожении. “При этом алгоритм работы его бортового компьютера базируется на алгоритмах работы человеческого мозга, поэтому модуль способен самообучаться в процессе боевого применения”, — отметили в “Калашникове”.

Обратите внимание

В случае появления в “поле зрения” модуля каких-либо безоружных и не представляющих опасности людей или мирных граждан, он также самостоятельно уведет огонь в сторону

пресс-служба концерна “Калашников”

Еще одна из так называемых интеллектуальных систем вооружения, показанных на форуме “Армия-2017”, — бронеавтомобиль для штурмовых подразделений.

Его боевой блок с пушкой 30 мм и пулеметами 12,7 мм и 7,62 мм может вести наблюдение за полем боя и самостоятельно открывать огонь по заданным в его программе целям.

“Находить их, анализировать, оценивать их опасность для обороняющихся подразделений, сигнализировать о них своему оператору, который находится на сравнительно большом расстоянии от бронемашины, и по его команде открывать огонь.

А иногда и действовать самостоятельно, в автоматическом режиме, который ему может быть задан”, — говорит Виктор Литовкин, военный обозреватель ТАСС.

Тигр-М СПН с дистанционно управляемым боевым модулем с 30-мм автоматической пушкой

Понятие искусственного интеллекта уже давно стало обиходным. По мнению военного эксперта журнала “Арсенал Отечества” Алексея Леонкова, первое его применение началось тогда, когда потребовалось распознавание, идентификация целей.

Такие элементы начали появляться в системах РЛС, стоящих на вооружении воздушной и космической разведки.

“Аппараты, которые снимают изображение либо в оптико-локационном виде, либо в радиотехническом, могут производить первичную обработку на борту таких систем”, — говорит он.

Создается так называемая библиотека образов (или еще говорят — сигнатура образов), которые пополняют библиотеку таких систем. И дальше, когда система замечает такого рода объекты, она может четко говорить, где и какой объект. И это упрощает, скажем так, вопросы обнаружения этих объектов и принятие решения по ним

Алексей Леонков

военный эксперт журнала “Арсенал Отечества”

Такого рода системы вошли и в бортовые вычислители систем наведения ударного оружия — крылатые ракеты. Американский президент Дональд Трамп называл их еще “умными”. “Суть в том, что они также определяют, что за цель, идентифицируют ее и наносят более высокоточный удар”, — поясняет Леонков.

Пуск ракеты “Гранит”

По мнению специалистов, “образ цели” можно вводить в головку самонаведения ракеты оперативно-тактического комплекса “Искандер-М”.

“Она летит со сверхзвуковой скоростью по квазибаллистической траектории, преодолевая систему ПВО противника, огибая рельеф местности, совершая маневры по курсу, крену и высоте, и выходит именно на ту цель, которая ей задана, — говорит военный обозреватель ТАСС.

— Отсекая любые другие, в том числе и ложные, специально построенные макеты каких-то важных объектов или пунктов управления”.

Важно

Искусственным интеллектом также обладают и стоящие на вооружении ВМФ РФ противокорабельные крылатые ракеты “Гранит”. Ими оснащены многоцелевые подводные крейсера проекта 949А “Антей” и тяжелый атомный ракетный крейсер “Петр Великий”, флагман Северного флота.

Во время залпа “Гранитов”, к примеру, по ударной авианосной группировке, ракеты распределяют между собой цели. Они как бы сами выбирают, какие из них идут на сам авианосец, какие будут поражать крейсера, фрегаты и эсминцы из его ордера

Виктор Литовкин

военный обозреватель ТАСС

По его мнению, эти примеры далеко не единственные. Так, позиции ракетных комплексов стратегического назначения и шахты ракет защищают боевые блоки, которым так же задается “образ цели”.

  • Эволюция “Буков” и “Торов”: чем уникален “войсковой зонтик” ПВО России

Искусственный интеллект в некоторых вооружениях очень полезен — для четкой идентификации, обработки и распределения целей. К примеру, используется в системах ПВО — зенитные ракетные комплексы “Бук” и “Тор”.

“У них есть РЛС обнаружения и целеуказания “Купол”, а также еще одна автоматизированная система, которая распределяет цели между этими двумя комплексами”, — говорит эксперт журнала “Арсенал Отечества”.

Они могут работать вместе и распределять между собой цели по опасности.

Они четко определяют средства воздушного нападения и носители их. И по характеристикам этой цели (скоростная или маневрирующая, низко или высоколетящая) они расставляют приоритеты. И военнослужащий, в зависимости от складывающейся обстановки, решает, какую цель сбивать первую, а какую вторую

Алексей Леонков

военный эксперт журнала “Арсенал Отечества”

Зенитные ракетные комплексы “Тор-М2” и “Бук-М2”

Леонков уточняет, что есть элементы, когда система может работать и в автоматическом режиме, но достаточно ограниченно.

“Когда, например, характер целей однообразный, они летят, скажем так, с понятным алгоритмом, и тогда система может в автоматическом режиме обстрелять их достаточно быстро”, — говорит он.

“Бук” и “Тор” — это многоканальные системы, которые “видят четко эту обстановку” и могут обрабатывать сразу несколько целей, также как системы С-300 и С-400 “Триумф”.

В мае 2018 года газета “Известия” сообщила, что ВКС РФ испытали автоматизированную систему управления (АСУ) средствами ПВО с элементами искусственного интеллекта.

Она позволяет объединить в единый ударный кулак С-300 и С-400, зенитные ракетно-пушечные комплексы “Панцирь” и современные радиолокационные системы.

 Новая АСУ-ПВО будет в автоматическом режиме отображать полную картину воздушной обстановки.

В принципе, это то, к чему все стремятся — обмен информацией между отдельными ракетами с тем, чтобы они сами выбирали тактику атаки и перераспределяли между собой цели. Допустим, летят несколько ракет. Одна поражает цель и за секунду до встречи с ней подает сигнал, что задание выполнено. Это позволяет не тратить ракеты на повторное уничтожение одного и того же объекта

Пуск ракеты с истребителя Су-35С

Совет

После этого машины перераспределяют цели и продолжают атаку. “Это, так сказать, верхний уровень развития ракетной техники”, — сказал в интервью газете “Известия” глава Корпорации тактического ракетного вооружения (КТРВ) Борис Обносов.

При этом традиционные средства ПВО не потеряют свою полезность. “Известный случай был в Югославии, когда американский самолет-невидимка был обнаружен нашей старой радиолокационной станцией.

Произошло это потому, что длина ее волны была большая, и она сканировала не какую-то поверхность, а искала аппарат в целом”, — рассказал Обносов.

Что касается самообучающихся крылатых ракет, то в России они появятся, по его мнению, к 2050 году.

Американцы давно хотят создать такой интеллект, который бы самостоятельно искал цели, принимал решение по ним и наносил удары. По мнению Леонкова, попытки поставить такие системы на беспилотники хорошо себя показывали на испытаниях, но при конкретных боевых действиях зачастую этот интеллект давал сбой и принимал неверные решения — вместо военных целей поражал гражданские.

В 2016 году газета The New York Times написала, что США тратят на создание оружия с искусственным интеллектом $18 млрд. Министерство обороны США с помощью таких систем стремится “радикально изменить ход боевых действий”.

В то время в штате Массачусетс проходили испытания автономного беспилотника, снабженного шестью пропеллерами.

По данным издания, он был превращен в боевого робота, который смог найти и идентифицировать находившихся в укрытии людей, вооруженных автоматами АК-47.

  • “Революционное оружие России”: чем “Ураны” удивили американские СМИ

Кроме того, в США разрабатываются роботизированные истребители, которые могли бы совершать рейды одновременно с пилотируемыми самолетами. Уже прошли испытания ракеты, способной самостоятельно выбирать цель, а также автоматических боевых кораблей, умеющих самостоятельно осуществлять поиск подводных лодок противника.

Пентагон тратит миллиарды долларов на то, что там называют автономными или полуавтономными системами вооружений, и стремятся создать арсенал такого оружия, которое до настоящего времени существовало лишь в голливудских фильмах и научно-фантастических произведениях

В свою очередь, многие ученые и эксперты обеспокоены тем, что создание даже самой простой боевой системы с искусственным интеллектом может привести к глобальной гонке вооружений.

Читайте также:  Железный человек станет реальностью

Появятся полностью автономные роботы, способные убивать.

“Расходы на их производство будут невелики, и они будут доступны не только для крупных держав, но и для экстремистских группировок”, — делает вывод американская газета.

У американцев идут такие разработки. Они пытались делать универсального солдата из людей, но они оказались ограничены человеческими возможностями, даже если его оснастить кучей различной аппаратуры

Алексей Леонков

военный эксперт журнала “Арсенал Отечества”

Военные эксперты сходятся во мнении, что у таких “умных” систем, безусловно, есть будущее. Ведущие армии мира стараются максимально ограничить присутствие человека на поле боя под огнем противника.

Однако у искусственного интеллекта есть сильные ограничения именно в оценке обстановки, которая может отличаться от того задания, которое он получал изначально. “То есть цель может поменять место, дислокацию, применить методы маскировки и так далее.

Скажем так, системы, которые полностью автономны по ведению боевых действий, отсутствуют”, — уточняет военный эксперт Леонков. То, что выглядит гладко на полигонах, во время современного общевойскового боя, когда много разных факторов влияют на изменение обстановки, искусственный интеллект это не учитывает.

Обратите внимание

Машина не может научиться тому, что может человек, предчувствуя те или иные ситуации, предугадывая их развитие, и при этом принимать верные решения.

Операторы ЗРС С-400 “Триумф”

Исследования по опыту, который приобретает человек, говорят, что люди, участвующие в боевых действиях, приобретают за первый год такой опыт, который искусственному интеллекту пока не под силу. А если в течение пяти лет, если человек остается в живых, являясь участником боевых действий, то такой интеллект даже рядом с ним не стоит

Алексей Леонков

военный эксперт журнала “Арсенал Отечества”

“Человек, военный специалист, гораздо ценнее и дороже любого электронного робота. Поэтому системы с искусственным интеллектом будут все чаще и полнее входить в арсеналы ведущих армий мира”, — говорит Литовкин, при этом подчеркивая, что “за ними всегда и везде будет стоять человек, не прекратив контролировать и управлять ими даже с другой половины земного шара”.

Человек задает программу “электронным мозгам”, контролирует их работу в качестве оператора и наладчика. Он, в конце концов, “зажигает зеленый свет” для открытия огня. “Железо с мозгами” всегда должно быть под контролем

Виктор Литовкин

военный обозреватель ТАСС

Источник: https://tass.ru/armiya-i-opk/5279032

Ведущие ученые мира выступили против оружия с искусственным интеллектом

Ведущие мировые эксперты по искусственному интеллекту (ИИ), обеспокоенные тем, что их разработки могут использоваться для убийства, подписали соглашение не участвовать в создании автономного оружия.

Открытое письмо, опубликованное в сети 18 июля, подписали 2400 исследователей из 160 организаций и 36 стран. В их числе — основатели Deep Mind Демис Хассабис, Шейн Легг и Мустафа Сулейман, Илон Маск и другие именитые бизнесмены и ученые.

Подписанты высказались против разработки летального автономного оружия.

«Такие системы представляют серьезную угрозу для человечества, им нет места в нашем мире», — говорится в письме.

«Существует неотложная необходимость для граждан, политиков и лидеров разграничить приемлемое и неприемлемое использование ИИ.

Военное использование ИИ неприемлемо, и мы, нижеподписавшиеся, согласны с тем, что решение забрать человеческую жизнь никогда не должно быть передано машине.

Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом обещании”.

«Мы действительно хотим, чтобы развитие технологии ИИ было положительным и не привело к страшной гонке вооружений или антиутопии, в которой летающие роботы убивают людей», — сказал в комментарии CNN подписавший соглашение Энтони Агирре, преподаватель физики из Калифорнийского университета.

Летающие роботы-убийцы и «умное» оружие сегодня остаются научной фантастикой, но стремительный прогресс технологий компьютерного зрения и машинного обучения делает их создание более реалистичным. CNN пишет, что в национальной стратегии обороны, выпущенной Пентагоном, есть призыв увеличить инвестиции в искусственный интеллект.

«Новые технологии, такие как ИИ, дают возможность улучшить нашу способность сдерживать войны, защитить граждан, уменьшить число жертв среди гражданского населения и причинять меньше вреда гражданской инфраструктуре, — говорится в заявлении пресс-секретаря Министерства обороны США Мишель Балданза для CNNMoney. — Эта инициатива подчеркивает необходимость активного диалога между Министерством обороны, исследовательским сообществом ИИ, этиками, социологами и другими вовлеченными сообществами. Нам нужны открытые дискуссии по этике и безопасности в разработке и использовании ИИ».

Хороший пример для политиков, бизнесменов и разработчиков

Несмотря на оппозицию ведущих исследователей, развитие интеллектуальных систем для использования в военном деле едва ли остановится.

«Не думаю, что это существенно изменит то, как крупные державы, такие как США, Китай и Россия, подходят к технологиям ИИ», — говорит Пол Шарр, научный сотрудник Центра новой американской безопасности и автор книги об автономном оружии «Army of None».

Так или иначе, отказ DeepMind Technologies, Element AI и других ведущих мировых лабораторий «поддерживать развитие, производство, торговлю или использование» автономного оружия является хорошим примером для других исследователей ИИ.

Соглашение о запрете производства автономного оружия составила организация Future of Life Institute. Документ был представлен на международной конференции по искусственному интеллекту International Joint Conference on Artificial Intelligence, которая проходит в Стокгольме с 13 по 19 июля.

Источник: https://realist.online/article/vedushie-issledovateli-ii-vystupili-protiv-razrabotki-avtonomnogo-oruzhiya

Ученые предложили лишить искусственный интеллект уверенности в себе

Boston Dynamics / YouTube

Группа ученых из Калифорнийского университета в Беркли пришла к выводу, что работа систем искусственного интеллекта улучшится, если их лишить уверенности в своих действиях. Алгоритмы должны не только уметь выполнять требуемое задание, но и принимать во внимание попытки человека вмешаться в них. Статья исследователей доступна на сайте ArXiv.org.

Уже сейчас системы искусственного интеллекта справляются с некоторыми задачами лучше человека. По мнению некоторых экспертов, занятых в сфере машинного обучения и развития нейросетей, компьютер в 2049 году напишет бестселлер, а уже к 2053 году сможет проводить хирургические операции не хуже врачей.

Столь быстрое развитие технологий нередко вызывает беспокойство у ученых, которые видят в этом потенциальные угрозы. Одна из них состоит в том, что однажды цели человека и машины не совпадут и алгоритм откажется подчиняться командам.

В одних случаях это может быть полезно, а в других — крайне опасно, поэтому исследователи уже сейчас пытаются определить, какую степень свободы необходимо предоставить системам искусственного интеллекта.

Чтобы ответить на этот вопрос, американские ученые создали математическую модель взаимодействия между человеком и роботом, которая представлена в виде абстрактной «игры с выключателем».

Ее концепция проста: роботу с выключателем дается некоторое задание, которое человек в любой момент может прервать, нажав на кнопку. Однако если робот считает такой поступок неразумным, он блокирует действия оператора и продолжает свою работу.

При этом главная задача машины — действовать с максимальной выгодой для пользователя.

Важно

Реакция робота в рамках модели напрямую зависела от его суждений о рациональности человека. Если программа исходит из того, что поведение оператора может быть не оптимально, а робот безусловно действует во благо его интересов, то она никогда не позволит выключить себя.

Если же машина, наоборот, полагает, что человек всегда прав, то она будет отключаться по первой его команде, даже если ИИ на самом деле все делает правильно.

Ученые пришли к выводу, что оптимальная стратегия для машины заключается в том, чтобы принять во внимание попытку пользователя остановить процесс, проинформировать его о том, что робот хочет продолжить выполнение задачи, и подождать обратного ответа пользователя. В этом случае функция полезности для человека оказывается максимальной.

Такая модель, как, например, и дилемма заключенного, достаточно абстрактна и может быть дополнена множеством деталей, которые повлияют на результат.

Так, ученые рассуждают о том, что в ситуации, когда беспилотный автомобиль самостоятельно везет маленького ребенка в школу, наилучшей стратегией для него было бы игнорировать действия пассажира.

В целом, авторы работы не говорят о каких-то конкретных решениях (придуманная ими игра отчасти носит философский характер), однако склоняются к тому, что с точки зрения безопасности система не должна впадать в крайности.

В будущем исследователи планируют просчитать вероятность разных реакций робота в случаях, когда он осведомлен о собственной полезности. Например, робот-бариста может счесть свои действия более ценными ранним утром, чем днем.

В последнее время люди все чаще сталкиваются с «умными» роботами. Так, недавно был разработан антропоморфный робот «Федор», который в перспективе будет помогать космонавтам, а также робот Pepper, умеющий считывать эмоции человека. Компания SK Telecom создала прототип социальной машины, которая будет выполнять роль дворецкого.

Кристина Уласович

Источник: https://nplus1.ru/news/2017/06/07/less-confident-ai

Ссылка на основную публикацию
Adblock
detector