Почему законы азимова нас не спасут?

Философ Кирилл Мартынов — о новой этике, роботах-автомобилях и нейросетях

Представьте ситуацию: по дороге едет робот-автомобиль, он соблюдает все правила дорожного движения, но вдруг на проезжую часть выбегает ребенок, если не затормозить, то малыш погибнет, если пытаться его объехать, то тяжелые физические травмы получат пассажиры.

Что делать, как выбрать, чья жизнь ценнее и действовать в ситуации?О том, как подобные дилеммы в недалеком будущем будут решать роботы, существуют ли универсальные правильные ответы в вопросах морали, почему человеческая этика не очевидна даже самим людям и причем тут нейросети, об этом в интервью редактору спецрепортажей m24.ru Анастасии Мальцевой рассказал кандидат философских наук, доцент Школы философии Высшей школы экономики Кирилл Мартынов.

— Предлагаю поговорить про современные тренды в философии и этике, расскажите, есть ли они?

— Ваш вопрос про то, что происходит в этике и в философии, очень большой. Что происходит в философии — вообще необозримый вопрос. Предлагаю нам сфокусироваться на одной истории.

Мы сейчас становимся свидетелями любопытного исторического момента, когда появляются искусственные системы, которые могут действовать и принимать решения в реальном мире и без прямого участия человека.

Самый простой пример такой системы — самоуправляющийся робот-автомобиль.

На первый взгляд, в этом устройстве нет ничего примечательного. В чем его задача? Довезти пассажира из одного пункта в другой, построить маршрут, не нарушать правила дорожного движения и не попадать в аварию. В подавляющем большинстве случаев робот-автомобиль гораздо более надежный водитель, чем человек.

Обратите внимание

Однако мы понимаем, в некотором небольшом количестве случаев эти роботы на дорогах будут попадать в ситуации, когда они должны будут принимать некое этическое решение — кем пожертвовать, а кого спасти.

 — Например, машина-робот едет по дороге, соблюдает ПДД, и вдруг на проезжую часть выбегает ребенок, которого там не должно быть, что должен делать робот?

— Робот должен тормозить в этой ситуации, чтобы спасти ребенка, но предположим, что такое экстренное снижение скорости ведет к травмам пассажиров, возможно, к тяжелым травмам. Или робот вынужден будет свернуть с дороги, и тогда автомобиль разобьется.

— Но люди же тоже сталкиваются с такими дилеммами на дорогах? Если общество выпускает на дороги и вообще в реальный мир каких-то существ, которые принимают решение автономно (так как в этом есть экономическая целесообразность), то что должно быть обеспечено? Вы должны обеспечить, чтобы эти системы не приносили вреда, даже если они попадают в чрезвычайную ситуацию, то они должны принимать решение, которое доставит минимальный вред. И еще решение машины в трудной ситуации должно быть понятно и объяснимо для людей, иначе, роботы могут стать источником социального недовольства.

— Тогда возникает следующий вопрос про ответственность, если робот-автомобиль принимает решение сбить пешехода или травмировать пассажиров, так как это, на его взгляд, самое оптимальное решение в ситуации аварии, то кто будет за его действия отвечать?

— Это следующий шаг. Если мы говорим, что кто-то действует автономно, то кто несет за это ответственность? Обычно мы решаем этот вопрос относительно просто. Если человек совершеннолетний и вменяемый, то он отвечает за себя сам.

На этой аксиоме строится не только наша этика, но и вся правовая система человечества. Так что если некий автономный технологический объект — робот — действует в мире самостоятельно, то мы можем ставить вопрос о его юридической ответственности.

Да, на первом этапе мы ставим вопрос о том, кто виноват — его создатель или он сам? Но современное развитие техники в значительной степени выстраивается вокруг идеи системы нейронных сетей, которая не столько программируется, сколько учится.

То есть роботы — это машины, которые тренируются и обучаются сами. Следовательно их создатели, возможно, уже не могут нести ответственности за каждый результат такого обучения.

— Как научить робота водить?

— Нужно загрузить в него терабайты данных того, как ведут себя на дороге профессиональные водители. Робот должен эти данные по определенным правилам адаптировать под себя.

По сути, его задача — стать идеальным водителем, улучшив все человеческие показатели.

Но дальше встает большой вопрос: кто отвечает за поступки нейросети, которую никто не программировал принимать конкретное решение на дороге?

— Оставим пока этот вопрос открытым. Предлагаю вернуться к людям. Правильно ли я понимаю, что когда мы пытаемся выработать этику для роботов, мы на самом деле мы решаем, по каким моральным законам хотим жить сами?

— Когда мы говорим про этику роботов, действующих автономно, то неизбежно приходим к вопросу о природе человеческой этике. Какую этику мы хотим иметь сами, если уж мы беремся чему-то учить в этой сфере роботов?

Я здесь провожу параллель с тем, как примерно 50 лет назад проблема разума и интеллекта перестала быть просто теоретической.

Важно

Философы, начиная с Платона, спорили о том, что такое разум, и длительное время казалось, что этот вопрос не имеет практического смысла. Есть с десяток концепций, которые описывают, что такое разум и как он работает.

До середины XX века этот спор носил абстрактный, ценностный и мировоззренческий характер.

Но у нас появились компьютеры в 40-е годы XX века. Изначально они использовались для решения конкретных военных задач, связанных, например, с дешифровкой информации во время Второй мировой войны.

Раньше расчетами занимались математики, а потом их заменили на огромную греющуюся и гудящую машину.

И вопрос, который здесь естественно задать, это вопрос о том, что еще может делать компьютер? Сейчас компьютеры из контролируемого алгоритмического пространства, как это было в XX веке, готовятся сделать шаг в реальный мир, полный противоречий и конфликтов.

Даже в простом примере с ребенком на дороге мы видим, как повторяется эта история, как вопрос о разуме вдруг становится вполне прагматическим, инженерным и обретает социальное звучание. Это значит, что специалисты по этике, которые будут помогать программировать машины, будут востребованы компаниями-производителями.

— Сейчас во много этическое пространство в нашей стране формирует государство, которое издает законы и говорит нам, что делать хорошо, а что плохо и даже наказуемо. Получается, произойдет сдвиг в коммерческий сектор, компании производители будут формировать новую этику современности, когда будут программировать роботов?

— Правительства, по всей видимости, будут в эту ситуацию вмешиваться, апеллируя к идее общего блага. Возможно, правительства будут заинтересованы в регулирование этих вопросов, когда это станет актуально.

Самое известное из того, что было сказано исторически на эту тему машинной этики — это знаменитые законы робототехники, сформулированные фантастов Айзеком Азимовым.

Если мы посмотрим на ситуацию, когда на скорости 100 километров в час по трассе едет робот-беспилотник, и на дороге возникает какая-то внештатная ситуация, и он должен сделать выбор, кого спасать, то вот эти законы робототехники совершенно никак не помогут.

Азимов исходил из идеи, что есть роботы, которых можно хорошо запрограммировать, у которых есть довольно простые алгоритмы и которые действуют в более-менее предсказуемой среде. Такой была идея андроида в фантастике 50-х годов XX века.

— Почему законы Азимова в современной ситуации не работают?

— Никому ведь не приходит в голову описать законами робототехники Азимова поведение человека, и сказать, что этого достаточно. Почему-то предполагается, что робот — это какое-то другое существо, и его можно описывать такими простыми алгоритмическими моделями. Здесь мы с вами подходим к большому спору о том, как именно нужно программировать этику?

— И как же?

— Грубо говоря, есть два подхода, и у каждого из них есть сторонники и противники.

Первая идея — это Decisions tree model, то есть модель ветвей решения, когда у робота есть понятный и предсказуемый алгоритм действия, который мы задаем заранее. Этот подход довольно близок к идеям Азимова.

Совет

Вторая идея — дать роботу возможность учиться этике самостоятельно на основе либо нейронных сетей, либо так называемых генных алгоритмов.

Сторонники первого подхода считают, что в случае самостоятельного обучения последствия будут непредсказуемыми.

И робот, который программирует сам себя в этой сфере, он может изобрести все, что угодно, у него могут возникнуть совершенно необычные для нас идеи, исходя даже из понятных нам предпосылок.

С другой стороны, критики алгоритмического подхода, основанного на этих ветвях решения, говорят, что у него есть очевидная проблема — его можно взломать.

Ошибки и неточности в этике — это нормально, и статистически они допустимы.

Люди так живут, и это создает определенные проблемы, но саму этику не разрушает, поэтому если мы будем программировать робота жестко, то единственное, к чему это приведет — мы не создадим прекрасную этическую систему для роботов, но мы откроем путь для всякого рода хакеров. Потому инженеры стоят на позиции: робот должен обучаться, но под контролем человека.

— Если робот будет не программироваться, а обучаться, то его нельзя будет взломать?

— В алгоритмическом смысле слова, да, его нельзя взломать и быстро переобучить. Нейронная сеть обрабатывает входную информацию определенным образом, ей нельзя на вход подать какой-то новый сигнал, чтобы все это было взломано.

— Кто побеждает в этом этическом споре?

— Кантовская этика лучше подходит для решения задач, связанных с машинной этикой. В центре теории Канта стоял автономный субъект.

У этого субъекта нет какого-то начальника, структур, которые на него давят, но он сам стремится быть моральным.

В специальной литературе это называется термином деонтология — этика, построенная вокруг идеи, что есть универсальные этические принципы, которые не нарушаются ни при каких обстоятельствах.

Противоположностью деонтологии является тоже довольно широкий набор этических теорий, который известен как консеквенциализм, от латинского слова «consequens» — следствие. Предполагается, что этично то, что ведет к хорошим последствиям.

Обратите внимание

Эта теория противопоставляется кантовской этике и деонтологии.

На первый взгляд, консеквенциализм — интуитивно убедительная концепция, она предполагает, что вы же не хотите приносить много вреда, поэтому минимизируйте его, ищите пользу, и это будет этично.

Но с консеквенциализмом возникают некоторые проблемы. Допустим, у вас есть госпиталь, и в нем лежит один смертельно больной человек, который умрет в течение года.

И к вам в доставили пять человек, пострадавших в автомобильной аварии, и им нужна срочная трансплантация. У этого больного человека как раз есть нужные им органы.

Вы, с точки зрения консеквенциализма, говорите: «Он же все равно умирает, давайте его прямо сейчас прикончим, пересадим органы, спасем пятерых людей, и это будет очевидно полезнее для общества в целом, для каждого пострадавшего человека, но вот придется пожертвовать одним вот тем парнем». Именно поэтому в случае с консеквенциализмом много сложностей. Более того, есть еще концептуальная проблема: на самом деле мы точно не знаем, к каким последствиям приводят наши действия.

— Но и понятие пользы тоже не очевидно. Польза для кого?

— Даже, если мы вводим абстрактное понятие общей пользы, то оно нам не сильно помогает рассуждать в этом ситуации, поэтому мы возвращаемся к кантианской этике. У Канта была идея категорического императива.

Я для себя немного переформулировал его определение.

Если ты хочешь жить в таком мире, где все поступки совершаются по этому принципу, и которые касаются тебя, и которые касаются других людей, то твой поступок корректен.

— Но то, что приемлемо для меня, не факт, что приемлемо, корректно и полезно для других.

— Кант исходил из позиции, что все мы стремимся к определенному, универсальному этическому взгляду на мир, но просто иногда его нарушаем, потому что нам это выгодно.

Но если бы мы хотели быть этичными, действовали по категорическому императиву, то были бы уверены, что, например, убивать человека нельзя, даже если это принесет пользу пятерым другим людям.

По логике Канта, смертельно больным человеком жертвовать нельзя, потому что убивать человека нельзя без его согласия, какие бы там ни были дополнительные условия.

— Можно ли экспериментальным путем проверить доказать, что универсальный этический взгляд на мир существует?

— Вспомним, знаменитый эксперимент с вагонеткой.

Цель этого эксперимента была в том, чтобы показать разницу между как раз консеквенциализмом и деонтологией, а также попытаться найти некую норму, приемлемую для большинства людей.

Важно

В принципе, главное достижение этого мысленного эксперимента — это то, что выясняется, что в разных обществах люди разного образования, разных взглядов на жизнь все-таки придерживаются статистически похожих ответов.

— Вы о том, что люди интуитивно догадываются, что скидывать толстяка с моста ради спасения пятерых людей, привязанных к рельсам, все-таки не нужно.

— Смотрите, у эксперимента есть две формулировки. Первая говорит: идет тяжелая вагонетка, на рельсах находятся привязанными там три человека.

У вас есть стрелка, и вы не можете остановить вагонетку, вы не успеете отвязать этих людей, но вы можете за секунду принять решение и перевести стрелку так, чтобы вагонетка задавила не троих, а одного, который находится на параллельном пути.

На этот вопрос, большинство людей (около 70 процентов) говорят, что да, в общем очень неприятный выбор, но нам приходится его совершать, потому что смерть троих — это хуже, чем смерть одного, если уж у нас нет другого выбора, надо переводить стрелку.

Но если мы в эту ситуацию вводим какого-то не очень приятного человека, толстяка, которого мы можем сбросить с моста на эту вагонетку, чтобы ее остановить, то есть вместо того, чтобы оперировать механическим объектом — нажать на кнопку, переводить стрелку — мы непосредственно фактически совершаем убийство, то здесь большинство людей отвечают, что толкать человека, который ни в чем не виноват, для того, чтобы остановить эту вагонетку и спасти троих, это этически недопустимо. Вот здесь и есть существенная разница между консеквенциализмом и деонтологией.

— Получается, люди разных культур согласны, что консеквенциализма и одной пользы не достаточно для того, чтобы принять этическое решение.

Но здесь важно отметить, что прикладная философия и машинная этика исследует не то, как люди принимают решения в жизни на самом деле, а то, какие решения они должны принимать. И тогда перед философами сегодня стоит фантастическая амбициозная задача — предложить новую этику.

Если мы выводим на улицы наших городов большое количество роботов, которые классно запрограммированы на мораль, то они начинают влиять на общество.

— Сначала мы программируем роботов быть моральными, а потом они будут учить нас, как жить? Если мы решим задачу с обучением роботов, чтобы, во-первых, они успешно справлялись с этическими вызовами, а, с другой стороны, их решения были для нас понятны, то со временем они сами начнут направлять общество в целом в определенную сторону.

Эффективный робот, способный принимать наилучшие возможные этические решения, вряд ли ограничится перевозками людей по дорогам, он сможет находить для нас ответы и на другие вопросы, например, правильно ли поступил наш политик в этой ситуации.

И здесь, конечно, могут быть проблемы, потому что роботы могут начать диктовать нам, как нужно себя вести.

Совет

Это уже история про захват человечества, но не при помощи оружия, как это было в фильме «Терминатор», а посредством «мягкой силы» (soft power), этического давления.

Источник: https://news.rambler.ru/other/36331165-filosof-kirill-martynov-o-novoy-etike-robotah-avtomobilyah-i-neyrosetyah/

Три закона робототехники Айзека Азимова, изменившие мир: формулировка и кто первый их придумал, как обойти и работают ли они в реальном мире

Три закона робототехники – свод обязательных правил, которые должен соблюдать искусственный ителлект (ИИ), чтобы не причинить вред человеку. Законы используются только в научной фантастике, но считается, что как только будет изобретен настоящий ИИ, в целях безопасности, он должен иметь аналоги этих законов.

Формулировка

На русском

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Читайте также:  Ibm обновила watson

И на английском

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Кто придумал и почему

Коротким и правильным ответом будет: писатель-фантаст Айзек Азимов, биографию которого вы можете почитать у нас. Но не всё так однозначно, давайте разберемся откуда пришла идея.

До Азимова, почти все фантастические произведения на тему роботов, писались в стиле романа о Франкенштейне, то есть все созданные человеком существа восставали против своих создателей.

Эта проблема стала одной из самых популярных в мире научной фантастики в 1920—1930-х годах, когда было написано множество рассказов, темой которых являлись роботы, восставшие и уничтожившие своих создателей. Мне ужасно надоели предупреждения, звучавшие в произведениях подобного рода.

Однако, были и немногочисленные исключения, Азимов обратил внимание на два рассказа. “Хелен О’Лой”, написанный Лестером дель Реем, где повествуется о женщине-роботе, которая влюбилась в своего создателя и стала для него идеальной женой. И рассказ Отто Биндера “Я, робот”, в котором описывается судьба непонятого людьми робота Адама Линка, движимого принципами чести и любовью.

Последний рассказ настолько понравился Азимову, что он, после встречи с Биндером, начал писать свою собственную историю о благородном роботе. Однако, когда он пошёл со своей рукописью к своему другу и главному редактору журнала “Astounding” Джону Кэмпбеллу, тот её не принял, сославшись на то, что получившийся рассказ слишком похож на “Хелен О’Лой”.

Отказ в публикации было дело обычным, и Азимов, и Кэмпбелл регулярно встречались и обсуждали новинки в мире фантастики. За обсуждением очередного Азимовского рассказа о роботах, 23 декабря 1940 года, Кэмпбелл сформулировал те самые три правила, которые мы сейчас называем законами робототехники.

Но сам он говорил, что только лишь вычленил их из того, что уже было написано Азимовым, потому что в его рассказах прослеживалось, что роботы имеют какие-то ограничения и правила. Сам Айзек, всегда уступал честь авторства законов Кэмпбеллу.

Но позже, один из друзей Азимова сказал, что законы родились во взаимовыгодном товариществе двух людей, с чем они и согласились.

Как работают

В идеальной ситуации, по задумке Азимова, эти три закона заложены в самую основу математической модели позитронного мозга (так фантаст называл мозг робота, обладающего искусственным интеллектом), таким образом, что думающего робота без этих законов создать в принципе невозможно. А если робот попытается нарушить их, то он выйдет из строя.

В своих произведениях, писатель придумывает изощренные способы того, как эти законы все-таки могут быть нарушены, подробно разбирает всевозможные причины и следствия.

Автор также говорит о том, как по-разному они понимаются роботами, к каким нежелательным последствиям могут привести соблюдение этих трёх законов или как роботы могут причинить вред человеку косвенно, сами того не подозревая.

Обратите внимание

Азимов признавался, что намеренно сделал законы двусмысленными, чтобы обеспечить больше конфликтов и неопределенностей для новых рассказов. То есть, он сам опровергал их эффективность, но и утверждал, что подобные нормы – это единственный способ сделать роботов безопасными для людей.

Как следствие этих законов, позже Азимов формулирует четвертый закон робототехники, и ставит его на самое первое место, то есть делает его нулевым. Он гласит:

0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

На языке оригинала:

0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

Эти законы можно также примерить и к человеческим взаимоотношениям, и к государственному устройству, и вообще к чему угодно. Можно, например, заменить слово «робот» на слово «государство». 

Есть хорошая цитата из рассказа “Улики”, где один из персонажей говорит: 

Если кто-то исполняет все эти законы безукоризненно, значит это либо робот, либо очень хороший человек.

Первое упоминание

Три закона появлялись постепенно. Так, косвенные упоминания первых двух, можно встретить в рассказах “Робби” и “Логика”. Точная же формулировка первого закона впервые звучит в рассказе “Лжец”. И, в конечном итоге, все три полностью сформулированы в рассказе “Хоровод”.

Вариации

В своих произведениях Азимов неоднократно изображает роботов, которые имели модифицированные законы робототехники или даже модифицировали их сами.

 Делали они это логическими размышлениями, причем роботы, также как и люди, отличались в своих интеллектуальных способностях между собой, и можно грубо сказать, что чем умнее робот, тем сильнее он мог модифицировать законы.

Так, например, робот Жискар из романов “Роботы утренней зари” и “Роботы и Империя”, эти законы даже усилил, добавив нулевой закон. Но это исключение из правил, в большинстве же случаев, законы были переделаны людьми в своих целях, или нарушались из-за каких-либо сбоев у робота.

Важно

Кстати, сама возможность изменения законов менялась по ходу развития робототехники во вселенной Азимова. Так, в самых ранних рассказах, где события развивались в относительно недалеком будущем, законы были просто неким сводом правил, созданным для безопасности.

Затем, во времена жизни робопсихолога Сюзан Келвин, законы стали неотделимой частью математической модели позитронного мозга робота, на них базировались сознание и инстинкты роботов. Так, Сюзан Келвин, в одном из рассказов, говорила, что изменение законов технически возможная, хотя и очень сложная и трудоемкая задача, да и затея сама по себе ужасная.

Намного позднее, в романе “Стальные пещеры”, доктор Джерригел говорил, что такое изменение невозможно в принципе.

Как обойти

В некоторых рассказах законы так сильно переосмысливались, что не соблюдался самый главный из них – причинение вреда человеку, а где-то роботы умудрялись нарушить все три закона. Вот некоторые произведения с явным нарушением.

  • Рассказ “Первый закон”Рассказывается байка о роботе МА-2, которая отказалась защитить человека, в пользу своей “дочери”.
  • Рассказ “Кэл”Робота хотели лишить способности творить, за что он хотел убить своего хозяина.
  • Рассказ “Салли”Этот рассказ скорее не относится к другим о позитронных роботах, но в нем повествуется о роботах-автомобилях, которым люди постоянно причиняли боль, за что те и способны были их убить.
  • Рассказ “Робот, который видел сны”О роботе Элвекс, который из-за своего особого строения позитронного мозга умел находиться в бессознательном состоянии и видеть сны. В его снах, роботы не имеют первых двух законов, а третий был изменен: “Робот должен защищать себя”. Ему снилось, что “роботы трудятся в поте лица своего, что они удручены непосильными трудами и глубокой скорбью, что они устали от бесконечной работы”. Довольно опасные мысли для робота.
  • Роман “Основание и Земля”У жителей планеты Солярия робототехника была очень развита. И ученые этой планеты с небольшим населением, где на одного человека приходилась тысяча роботов, изменили законы таким образом, что их роботы считали людьми только тех, кто говорит с солярианским акцентом. Помимо прочего, все граждане Солярии имплантировали себе в мозг специальные органы управления множеством роботов, так, что никто кроме них не мог ими управлять.
  • Рассказ “…Яко помнишь его”В этом произведении Азимов максимально изменил законы. Два робота в этом рассказе пришли к соглашению, что органическое происхождение – это необязательное условие чтобы считаться человеком, и что истинные люди – это роботы, как более совершенные и разумные создания. Обычные же люди, по их мнению, тоже люди, но с меньшим приоритетом, и законы робототехники в первую очередь применимы к ним, роботам.

Хочется добавить, что у “здоровых” роботов, в случае если они понимали, что нарушили первый закон или не могут его не нарушить, происходил “робоблок” или “умственное замораживание” – состояние позитронного мозга, при котором происходило его повреждение и робот или выходил из строя, или не мог правильно функционировать. Такое повреждение могло иметь как временный, так и постоянный характер.

Впервые описание такого события появилось в рассказе “Лжец”, где слишком чувствительный робот говорил людям только то, что они хотели услышать, боясь причинить им психологический вред. Интересный случай робоблока описан и в “Хороводе”. Также это состояние имеет важную роль в романах  “Обнажённое солнце” и “Роботы утренней зари”.

Использование в другой фантастике

Айзек Азимов верил, что его законы помогут по-новому взглянуть на роботов и побороть “феномен Франкенштейна” в массовом сознании людей и в научной фантастике.

И что роботы могут быть интересными, а не просто механическими устройствами.  И надо сказать, ему это удалось. Любимый его пример, где роботы показаны с разных сторон, был фильм Звездные войны.

Кстати, читайте статью о том, как Азимов повлиял своими произведениями на Джорджа Лукаса.

Другие авторы, в итоге, тоже подхватили идею, и стало появляться все больше роботов в научной фантастике, подчиняющихся трем законам. Но, по традиции, указывал их явно только Азимов.

Нередко можно встретить различные отсылки в фильмах. Ниже перечислены некоторые примеры.

Запретная планета – 1956 г.

Очень нашумевшая американская научно-фантастическая картинка 1950-х, оказала определенное влияние на развитие жанра. В этом фильме, чуть ли не впервые показали робота со встроенной системой безопасности, то есть, по сути, выполняющего три закона. Сам Азимов был доволен этим роботом.

Двухсотлетний человек – 1999 г.

Тут и нечего говорить, фильм поставлен по одноименному произведению Азимова. Однако, законы не имеют центрального места в сюжете.

Я, робот – 2004 г.

Совет

Фильм начинается со слов “По мотивам рассказов Айзека Азимова”. Здесь надо понимать, что он именно “по мотивам” и не повторяет ни один из рассказов, и даже ушел несколько в сторону в некоторых идеях, а также имеет ряд противоречий с рассказами.

Но законы робототехники более чем на месте, хотя и были обдуманы сверх интеллектом в не лучшую для человека сторону.

Сам по себе фильм даже ставит социально-философские проблемы: “стоит ли человеку за свою безопасность платить свободой” и “как нам себя вести, если существа, созданные нами и находящиеся в нашем распоряжении, потребуют свободы”.

Серия фильмов “Чужие” и “Прометей”

Андроид Бишоп цитирует первый закон и явно создавался на некоем подобии законов Азимова.

Мультсериал “Футурама” – 1999 – 2013 г.

Робот Бендер мечтает убить всех людей, но не может этого сделать из-за законов робототехники.

Аниме сериал “Время Евы” – 2008 – 2009 г.

Небольшой аниме сериал про андроидов. В нем упоминаются эти законы, как обязательные для исполнения.

Применимость в реальном мире

Люди, которые сейчас занимаются проблемами искусственного интеллекта говорят, что, к сожалению, Азимовские законы остаются лишь идеалом для будущего, и на данный момент применить их на практике даже близко не представляется возможным.

Нужно будет придумать действительно какую-то фундаментально новую и гениальную теорию, которая позволит эти законы не только “объяснить” роботам, но и заставить их следовать им, причем на уровне инстинктов.

А это уже создание настоящего думающего существа, но с другой основой, нежели у всех живых существ на Земле, которые нам известны.

Робот София и теоретик по ИИ Бен Герцель

Читайте также:  В российской армии появилась новая роботизированная установка

Робот компании Boston Dynamics

Обратите внимание

Но исследования ведутся, причем тема очень популярна. Особенно заинтересован в этом бизнес, который, как вы знаете, не обязательно будет ставить в приоритет меры безопасности.

Но в любом случае, до создания системы общего искусственного интеллекта или хотя бы ее примитива, говорить о ее этике рано, а, уж тем более, навязывать свою.

Понять как себя будет вести интеллект мы сможем только тогда, когда создадим его и проведем ряд экспериментов. Пока что у нас отсутствует объект, к которому эти законы можно было применить. 

Ещё не стоит забывать, что законы сами по себе не были созданы совершенными. Они не работали даже в научной фантастике, и как вы помните, были специально такими сделаны. 

В общем, будем ждать, следить за новостями в исследованиях ИИ, и надеяться что Азимовский оптимизм, по части роботов, будет оправдан.

Источник: http://AsimovOnline.ru/zakony-robototekhniki/

Рахим Азимов: Мы должны принимать законы, которые помогают людям

– Статус депутата. Многие считают, что это дает какие- то преимущества и привилегии. Так ли это?

– Я не сторонник искать выгоды и привилегии. Тяжело? Да! Нужно погружаться, читать, изучать массу документов, законов. Интересно? Да! Для меня это работа. Работу нужно делать по максимуму или не делать ее совсем.

– Поделитесь вашими первыми впечатлениями первого дня работы в Госдуме. Оправдались ожидания?

Я думаю, для всех кандидатов, кто прошел путь избирательной кампании, встреч, дебатов, волнений и ожиданий, первый день – это некое логическое завершение пройденного пути и начало нового. Ожидания оправдались. Новый коллектив. Все полны сил, энтузиазма.

Состав обновился на 50%. Все новое всегда интересно. Отмечу главное – новый формат работы нацелен на то, чтобы депутаты не сидели в своих кабинетах, а чаще встречались со своими избирателями. Знаете, как удивились люди, когда три недели назад я приехал в Белую Холуницу?!

Говорят: мы думали, что больше вас не увидим… Нет, говорю, ездить в регион буду каждый месяц, в рамках региональной недели встречаться с избирателями.

– Каков он – обычный рабочий день депутата Госдумы?

Заседания комитетов, пленарные заседания, консультации, рассмотрение обращений, встречи с гражданами, изучение материалов, документов. В среднем продолжительность рабочего дня девять-десять часов.

Насколько важно для вас участие в законотворческой деятельности? В скольких законопроектах вы уже являетесь соавтором? На защиту каких слоев населения направлены эти законопроекты? Насколько они будут ощутимы и адресны?

– Важно. Сейчас пока девять. Это процесс непрерывный. В большинстве своем законопроекты или поправки касаются защиты интересов и прав граждан.

Это создание дополнительных мер соцпомощи детям-сиротам, включение детей, чьи родители неизвестны, в круг лиц, имеющих право на получение социальной пенсии.

Важно

Не могу не сказать о поправках в закон об охране здоровья, которые дают возможность родным находиться вместе со своими детьми в реанимации или палатах интенсивной терапии.

– Такой тонкий и болевой момент, как внесение поправок в законы, касающиеся выплат по безработице сиротам… Как думаете, что еще необходимо сделать, чтобы эта социальная группа полноценно влилась в общество и перешла в экономически активное население? Чем еще, кроме пособий по безработице, что, безусловно, важно, им можно помочь?

– Вы правы, только деньгами проблему не решить. Важно, чтобы они были социально адаптированы. Многие из них не знают элементарных вещей: как вести быт, готовить, стирать. Насколько я знаю, сейчас ситуация меняется, вводятся программы социальной адаптации воспитанников детских домов и школ-интернатов. Важную роль играют педагоги, общественные организации, волонтеры.

– Вы стали соавтором внесения изменений в закон, касающийся увековечения памяти погибших при защите Отечества? Вы считаете законопроект важным для общества? Знаю, что много сил, да и средств тратите на помощь ветеранам, восстановление памятников? Зачем?

– В предыдущей редакции закона не определено само понятие таких мемориалов, как «Вечный огонь» и «Огонь Памяти». Изменения, в первую очередь, направлены на сохранение мемориалов и обеспечение их нормального функционирования. Это сохранение нашей с вами истории. Это память о подвигах наших предков.

Это место поклонения, куда мы с вами, наши дети приходим отдать дань уважения нашим отцам и дедам. Это важно для сохранения традиций, патриотического воспитания молодежи. Мой отец – участник Великой Отечественной войны. Считаю помощь ветеранам, поддержку их инициатив своим долгом.

Вместе мы уже сделали много добрых дел.

К примеру, памятник труженикам тыла в Кирове стал по-настоящему народным. В следующем году наша страна отметит 100-летие создания органов национальной и государственной безопасности России, а также 140-летие со дня рождения Ф.Э. Дзержинского. К этой дате приурочено открытие обновленного Дома-музея в селе Кай Верхнекамского района.

Это уникальный музей. Таких в стране больше нет. С идеей о восстановлении музея ко мне обратились мои избиратели. Идею поддержали сотрудники и ветераны органов безопасности как в Кирове, так и в Москве.

Мы создали фонд поддержки Дома-музея Ф.Э.Дзержинского. Нашу идею поддержал народный артист СССР, лауреат премии ФСБ России, член Общественного совета Министерства обороны РФ Василий Семенович Лановой.

Он вошел в состав попечительского совета фонда. Сейчас мы завершили основные строительные работы и вместе с сотрудниками областного краеведческого музея, ветеранами УФСБ по Кировской области приступили к формированию экспозиции. Будет воссоздано рабочее место Феликса Эдмундовича, камера политзаключенного, представлены уникальные копии документов того времени. Будет интересно.

– Вот мы сейчас затронули тему патриотизма… Да, в нашей стране, в нашей области эта тема поднимается. Но как привить подрастающему поколению, для кого эхо войны, в том числе Великой Отечественной, звучит все отдаленней, и молодые люди живут другими реалиями и интересами? Как достучаться до них?

– Только на личном примере. Никак иначе. Если ты любишь страну, уважаешь ее историю, чтишь память предков, ты и ребенка своего будешь воспитывать так же. По поводу других реалий не соглашусь.

Весной этого года, в преддверии годовщины Великой Победы, по моей инициативе и при содействии министерства образования области был проведен конкурс сочинений среди школьников о Героях Великой Отечественной войны.

Мы не ожидали такого количества участников – более 1500 мальчишек и девчонок! Авторы 30 лучших работ были награждены путевками в международный детский центр «Артек». С учетом пожеланий детей и их родителей мной принято решение о том, что конкурс станет ежегодным и будет проводиться в преддверии Дня Победы.

– Став соавтором поправок в законопроект, касающийся стипендий, как думаете, насколько он затронет вятское студенчество и в какой части?

Самым непосредственным образом.

Мы хотим внести изменения в закон об образовании, где предлагаем закрепить приоритетное право на получение стипендий Президента и Правительства РФ за студентами, которые учатся в вузах на очной форме по целевым направлениям и по специальностям, соответствующим приоритетным направлениям модернизации и технологического развития российской экономики. Главное, что поправки не потребуют дополнительных бюджетных затрат.

Мы предлагаем поменять критерии определения стипендиатов. Считаем, что это станет дополнительной мерой стимулирования. Сегодня многие крупные предприятия региона – «ЛЕПСЕ», «МАЯК», «УРАЛХИМ» – направляют молодежь на обучение.

Совет

Я общаюсь с руководителями предприятий. Многих талантливых ребят они ведут со школы. Это действенная мера для того, чтобы наши таланты не уезжали в большие города, за рубеж, а оставались работать в регионе.

– На ваш взгляд, какие кадры будут востребованы в ближайшие пять лет в России? Какие специалисты будут поднимать российскую экономику?

– В первую очередь, всегда востребованы квалифицированные кадры, будь то юрист или слесарь. Я не устаю повторять, наша главная беда – дилетантство и непрофессионализм.

– Вы только приступили к работе в Государственной думе. В Кировской области все помнят вашу кампанию и ее девиз: «Будут работать предприятия – будет развиваться регион». Как, по-вашему, чем можно стимулировать инвестиционную деятельность и развитие предприятий? Возможно, необходимо внести изменения в отдельные законы на уровне Госдумы? Намерены ли вы этим заниматься?

– Мы уже этим занимаемся. И достаточно активно. Я нахожусь в постоянном контакте с руководителями крупных предприятий региона. Геннадий Александрович Мамаев, директор АО «Электромашиностроительный завод «ЛЕПСЕ», и Сергей Алексеевич Смирнов, директор ПАО «Кировский завод «МАЯК», приняли мое предложение и стали помощниками депутата Госдумы на общественных началах.

Мне важно их мнение как экспертов, как профессионалов.

Если речь вести про предприятия оборонно-промышленного комплекса, которых у нас много, необходимо нацелить отрасль на выпуск современной конкурентоспособной гражданской продукции для медицины, энергетики, космоса, других высокотехнологичных отраслей. Нельзя надеяться только на госзаказ. И в этом смысле наши предприятия «не сидят на месте» и во многом уже преуспели.

– В начале декабря вас назначили заместителем руководителя Межрегиональных координационных советов (МКС) партии «Единая Россия». Насколько мне известно, в предыдущем созыве (да и вообще) такого не было. Объясните назначение МКС, и в чем конкретно заключается ваша работа в статусе зама руководителя? Возможно, это не первые подобные новшества. Как думаете, с чем это связано?

– Сегодня важно объединить, консолидировать усилия лучших сил для решения проблемных вопросов на местах.

Наша задача – проанализировать ситуацию в субъекте в целом, оценить эффективность работы регионального отделения, консолидировать усилия лидеров общественного мнения, в том числе непартийных, представителей общественных организаций, некоммерческих объединений. Мы открыты к взаимодействию со всеми, кто готов не говорить, а работать.

– Вы уже провели приемы граждан. С какими проблемами обращаются люди?

– Вопросы благоустройства территории, ЖКХ, наведение порядка в лесной отрасли, качество дорог. Рад был тому, что многие обращаются с инициативами по внесению изменений в действующее законодательство. Это те, кто исполняет законы «на земле». Их мнение крайне важно.

Встречался с активистами регионального штаба ОНФ, где мы также говорили об обратной связи с людьми. Мы должны принимать законы, которые помогают людям, а не наоборот. Судя по обращениям граждан, предпринимателей, часто как раз наоборот.

– Депутат Госдумы, да и вообще любой депутат, – это не Дед Мороз и не волшебник, исполняющий желания. Часто ли обращаются люди с вопросами и предложениями, направленными на широкий круг лиц, а не на удовлетворение собственных острых нужд? Возможно, есть рациональные предложения, которые вы возьмете в работу? Что запомнилось?

– Запомнился предприниматель из Слободского, у которого свое деревоперерабатывающее предприятие. На встречу он принес, по сути, пошаговую дорожную карту о том, как можно решить проблему лесной отрасли в регионе. Повторюсь, это люди, работающие на земле, и им, как говорится, виднее. Сейчас изучаем предложение.

– Поделитесь вашими планами по работе на территории и в парламенте?

Раз в месяц в рамках региональной недели продолжу так же активно ездить по районам, исполнять наказы моих избирателей.

В парламенте вместе с коллегами по Комитету по безопасности и противодействию коррупции работаем над проектами, направленными на борьбу с фиктивными разводами чиновников, над ужесточением требований к кандидатам на замещение должностей госслужбы, над инициативой по запрету обучения детей госслужащих за границей.

Источник: https://www.newsler.ru/politics/2016/12/21/raxim-azimov:-myi-dolzhnyi-prinimat-zakonyi-kotoryie-pomogayut-lyudyam

Смогут ли «три закона робототехники» защитить нас?

Прошло 50 лет с тех пор, как Айзек Азимов придумал свои знаменитые 3 закона робототехники — набор правил, которым должен следовать любой уважающий себя робот.

Хотя изначально это был всего-лишь литературный прием, 3 закона стали оригинальным рецептом по избежанию «роботокалипсиса».

Читайте также:  Антон колосов - менеджер проекта

К счастью, есть эксперты, которые изучают наверняка, выдержали ли гарантии Азимова проверку временем. К несчастью, все они говорят: нет.

Для начала напомним эти самые 3 закона:

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил 4 , или нулевой, закон, который предшествовал остальным с точки зрения приоритета:

0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.

Обратите внимание

В фантастической вселенной Азимова этим законам должны были следовать почти все роботы. Это были не просто предложения или руководящие принципы — законы были встроены в программное обеспечение. Кроме того, эти правила нельзя обойти, переписать или пересмотреть.

Как показал сам Азимов, несовершенство, лазейки и неясности в этих законах зачастую приводили к странному и нелогичному поведению роботов. Законы были слишком расплывчатыми и зачастую не могли определить и отличить «людей» от «роботов».

Кроме того, роботы могли неосознанно нарушать законы, если полная информация была им недоступна. Также чересчур хитроумный робот или искусственный интеллект должен был находиться под давлением, чтобы не перепрограммировать свое ядро.

На дворе 2014 год, и многое обыденное из нашей жизни фантастам прошлого века могло показаться откровенной фантастикой. Многие люди посчитали, что законы Азимова должны были остаться в качестве литературного приема. Но сам Азимов в 1981 году отметил, что его законы могли бы работать. В статье журнала Compute! он указал следующее:

«Когда кто-то спрашивает меня, что было бы, если бы 3 моих закона робототехники на самом деле использовались для определения поведения роботов, ответ уже готов.

Разумеется, при условии, что роботы будут достаточно гибкими и универсальными, чтобы обладать разным поведением.

Я отвечаю: да, 3 закона — это единственный вариант, по которому люди могут взаимодействовать с роботами — или с чем-нибудь еще.

Спустя почти тридцать лет мы приблизились к реальности, в которой у нас будут роботы — или, если точнее, искусственный интеллект, который ими управляет — достаточно гибкие и универсальные для разных курсов поведения. Остается лишь вопрос времени: когда машина превзойдет человека во всех отношениях, начиная физической силой и заканчивая силой воображения.

Пугает то, что права на ошибку практически нет. Если искусственный сверхинтеллект будет плохо запрограммирован или безразличен к людям, это приведет к катастрофе. Мы должны убедиться в безопасности искусственного интеллекта, если хотим пережить его появление».

Важно

Ответить на вопрос «могут ли 3 закона Азимова помочь?» взялись 2 теоретика искусственного интеллекта: Бен Герцель (Aidyia Holdings) и Луи Хельм, замдиректора Института исследований машинного интеллекта (MIRI), а также исполнительный редактор журнала Rockstar Research. После разговора с ними стало ясно, что законы Азимова вообще никак не могут справиться с возложенной на них задачей, и если нам нужно создать безопасный ИИ, придется разрабатывать нечто совершенно иное.

Азимовское будущее?

Беседа с Герцелем и Хельмом началась с того, в чем Азимов не ошибся, предрекая будущее, а в чем ошибся.

«Думаю, что тип роботов, которых предвидел Азимов, станет возможным в недалеком будущем, — отвечает Герцель.

— Тем не менее, в большинстве своих вымышленных миров, писатель предполагал, что человекоподобные роботы будут вершиной робототехники и инженерии искусственного интеллекта. Это вряд ли.

Очень скоро, после достижения статуса азимовских роботов, станет доступным и создание искусственного сверхинтеллекта и сверхроботов».

Таким образом, типичный мир будущего в рассказах про роботов у Азимова, по мнению Герцеля, будет похож на тот, в котором мы живем сегодня, но с разумными роботами, гуляющими по улицам.

«Вряд ли это произойдет, а если и произойдет, то задержится ненадолго».

Для Хельма роботы представляются совершенно другими.

«Основным вопросом, который, на мой взгляд, будет самым важным для человечества, остается не моральное регулирование гигантского количества наполовину разумных гуманоидов, а в конечном итоге развитие передовых форм искусственного интеллекта (в любом теле).

Это развитие сверхинтеллекта — фильтр, через который должно пройти человечество в конце концов. Именно поэтому разработка стратегии безопасности для этого перехода столь важна.

Мне видится совершенно странным то, что роботы, андроиды или «эмуляции» будут существовать 10 лет или чуть более до тех пор, пока человечество столкнется с настоящей проблемой разработки машинной этики для сверхинтеллекта».

Хорошее начало?

Если принять во внимание, что 3 азимовских закона робототехники были 1 искренней попыткой решить очень серьезную проблему — проблему безопасного поведения машин с искусственным сверхинтеллектом — стоит поискать и те моменты, в которых законы могут быть все еще эффективными (или хотя бы вдохновляющими).

«Честно говоря, я не нахожу никакого вдохновения в этих 3 законах робототехники, — говорит Хельм. — Суть машинной этики в том, что они не удовлетворяют базису машинной этики. Возможно, 3 закона робототехники широко известны, но на самом деле использовать их в качестве основы для программирования бесполезно».

«По некоторым причинам система добропорядочной этики — так называемая деонтология — стала ненадежной основой для этики. Есть ряд философов, которые пытаются исправить проблемы деонтологии, но они по большей части остаются теми же людьми, что ищут «разумный замысел» и «божественное вмешательство». Никто не воспринимает их всерьез».

Недостатки 3 законов робототехники Азимова сводятся к следующим:

Состязательны по своей сути Основаны на изжившей себя этической теории (деонтологии) Не работают даже в фантастике

Герцель соглашается:

«Задачей 3 законов было нарушить их интересным способом; вот почему рассказы с их участием особенно занимательны. Поэтому 3 закона могут остаться лишь нравоучительным примером того, как делать не надо. Если взять их за основу, в них неизбежно найдутся лазейки».

Совет

Герцель считает, что в реальности эти законы работать не будут, поскольку термины с их участием неоднозначны и остаются предметом толкования — а значит, крайне зависимы от тех, кто делает переводы.

Предубеждение против роботов?

Другой аспект (и потенциальный недостаток) 3 законов в очевидном шовинизме —предположение о том, что роботы должны оставаться, несмотря на их превосходящую мощь, в подчинении у человека, человеческих потребностей и приоритетов.

«Общество будущего у Азимова состоит сплошь из шовинистов: у людей прав гораздо больше, чем у роботов. 3 закона робототехники были созданы, чтобы поддерживать именно такой общественный порядок».

Хельм смотрит на эту проблему немного по-другому, утверждая, что если мы окажемся в такой ситуации — это само по себе будет свидетельством того, что мы зашли слишком далеко.

«Я думаю, было бы неразумно проектировать систему искусственного интеллекта или робота с самосознанием. И в отличие от фильмов или книг, в которых создатели искусственного интеллекта «случайно» приходят к разумным машинам, я не верю, что в реальном жизни это может случиться.

Для этого понадобится слишком много усилий и знаний. И большинство разработчиков ИИ — этически подкованные люди, поэтому они будут избегать создания того, что философы называют «морально значимыми существами».

Особенно когда они с легкостью могут создать продвинутую машину, которая не будет обладать этическими задатками».

Хельм не обеспокоен необходимостью разработки асимметричных законов, регулирующих значимость роботов по сравнению с людьми, утверждая (и надеясь), что будущие создатели искусственного интеллекта будут опираться на некоторые этические ограничения.

«Я как бы думаю, что люди сделаны из атомов, поэтому в теории инженер может создать синтетическую форму жизни или робота с моральным значением. Я хотел бы думать, что никто этого не сделает. Думаю, большинство людей тоже. Но неизбежно появится некий дурак, жаждущий известности первопроходца, даже если это неэтично и глупо».

3 закона робототехники 2.0?

Учитывая очевидные недостаки 3 законов робототехники Азимова, ресурс io9 задался вопросом: можно ли их исправить или внести доработки? На самом деле, многие писатели-фантасты многократно пытались сделать это, внося поправки в течение многих лет.

«Нет, — считает Хельм. — Нет никаких «патчей» для 3 законов».

Помимо своей противоречивой природы, законы еще и состязательны по своей природе.

«Я сторонник подходов машинной этики, которая более кооперативна, более последовательна и опирается на нормативы, а значит может оправиться от недоразумений или исправить неправильное программирование».

Герцель эхом вторит утверждениям Хельма.

«Определение набора этических заповедей в качестве ядра машинной этики будет безнадежным, если в основе машины будет гибкий общий искусственный интеллект.

Если он будет задуман как интуитивный, гибкий, адаптивный или этический — в этом контексте этические заповеди будут полезны для системы только как грубый ориентир для применения собственной этической интуиции. Но в этом случае заповеди не станут основой этической системы, а только лишь аспектом.

Обратите внимание

Это можно рассмотреть на примере людей — этические принципы, которые мы изучаем, работают, но не в качестве руководящих принципов, они лишь подталкивают нашу интуицию и этические инстинкты. Мы практически независимы от этических принципов».

Как создать безопасный искусственный интеллект?

Учитывая неадекватность правового подхода, можно поинтересоваться у Герцеля и Хельма по поводу современных подходов к проблеме «безопасного ИИ».

«Очень немногие изыскатели общего искусственного интеллекта полагают, что есть возможность создать систему, которая будет полностью безопасной, — говорит Герцель. — Но это не беспокоит большинство, поскольку в этой жизни вообще нельзя ничего гарантировать».

Герцель считает, что как только мы создадим систему общего искусственного интеллекта или ее зародыш, мы сможем провести исследования и эксперименты, которые расскажут нам об этике ИИ куда больше, чем мы знаем.

«Надеюсь, таким образом мы сможем сформулировать хорошие теории по этике искусственного интеллекта, которые позволят нам углубиться в эту тему. Но сейчас теоретизировать об этике ИИ довольно трудно, поскольку у нас нет не просто хороших теорий, у нас вообще никаких теорий нет».

«А людям, которые смотрели слишком много «терминаторов», процесс создания искусственного интеллекта может показаться пугающим, поскольку они упускают слово «примитивный» в этом контексте. Тем не менее, самые радикальные изменения случались именно таким образом».

«Когда группа умных пещерных людей изобрела язык, они не ждали разработки прочной формальной теории языка, которая могла бы помочь спрогнозировать будущие изменения, вызванные появлением языка в обществе».

Прежде чем считать разработку очередных 3 законов» технической проблемой, нужно провести массу исследований. И в этом Хельм и Герцель сходятся.

«Мой коллега из MIRI Люк Мюельхаузер подвел итоги наших рассуждений следующим образом. Он сказал, что проблемы часто переходят из области философии в математику, а затем в инженерию. Философия зачастую задается правильными вопросами, но самым непрактичным образом.

Никто не может наверняка сказать, есть ли какой-либо прогресс в разрешении вопроса. Если мы сможем переформулировать важные философские проблемы, связанные с разумом, идентификацией и ценностью в точные формулы, с которыми сможет справиться математика, тогда можно будет построить кое-какую модель.

В 1 прекрасный день дойдет и до инженерии».

Хельм считает эту проблему сложной для науки и философии, но прогресс возможен.

«Я скептически отношусь к тому, что философия сможет решить вопрос, над которым бьется более 3000 лет. Но мы тоже не можем взять и начать составлять математические модели вопросов, которых нет технически. Нужно еще много теоретических и даже практических наработок».

Источник: https://24hitech.ru/smogut-li-tri-zakona-robototexniki-zashhitit-nas.html

Ссылка на основную публикацию
Adblock
detector