Ученые создают мораль для роботов будущего

Робоэтика: нам нужны универсальные права, этика и законодательство для роботов

Черта между творцом и творением становится все более размытой в последнее время благодаря компьютерному зрению, ИИ, машинному обучению, большим данным и т. д.

Постоянные разработки ведут к новым поколениям роботов, “машинам”, достаточно умным для того, чтобы изобретать технологии самостоятельно.

Человечество подходит к точке, где следующим шагом “машин” будет проектирование своих собственных алгоритмов. Лучше, быстрее, умнее.

Обратите внимание

Роботы, которые творят, — уже не просто гаджеты, с помощью которых вы, возможно, убиваете время, ожидая зеленого на светофоре. Мы говорим об инновационных фармацевтических препаратах и генетических исправлениях, которыми обычно занимаются десятки ученых в течение многих лет и на исследования которых выделяются миллионы долларов.

Это роботы будущего, которые будут делить мир с нами. По данным исследования, проведенного по заказу Центра поиска информации из различных источников Британского управления науки и инноваций, роботы могут в один прекрасный день потребовать таких же гражданских прав, как и люди, в конечном счете изменив известные нам законы.

Робоэтика — это короткое название понятия «этика робототехники». Оно часто используется, чтобы обозначить отношение этики именно к роботам (так как это понятие связано с поведением человека).

Данная сфера описывает, как люди проектируют, строят, используют роботов и относятся к ним и другим творениям с искусственным интеллектом, в то время как “машинная этика” занимается поведением самих роботов, считаются ли они нравственными агентами с ИИ и правами роботов.

  Существует много споров в настоящее время касательно того, можно ли робота привлечь к ответственности за, скажем, смерть человека. Может ли проблема ответственности решиться назначением ответственной стороны (в данном случае это создатель робота)? Более строгое требование выдвигается для смертоносных систем автономного оружия, что связано с уважением человеческой жизни, так как ИИ и компьютеры не способны понимать эмоции. Пока еще. Роботы отличаются тем, что они не мотивированы правильными или неправильным причинам, да и каким-либо причинам вообще, в то время как такое возможно, когда дело касается людей. Если автономные роботы не испытывают эмоций, нет смысла приравнивать их к человеку на основе этой способности. По аналогии: в случае войны никто не будет требовать, чтобы пуля или управляемая ракета была более внимательной, прежде чем согласиться на то, чтобы быть выпущенной и поразить цель. Тем не менее, роботы не являются законным оружием во время войны. Мы также не требуем этого от собак и других животных на войне, хотя они имеют сознание и находятся ближе к человеку, чем машины. Это потому, что данное оружие не имеет способности думать и чувствовать.  

С другой стороны, является ли приемлемым мучить или убивать робота? У нас сформировались такие сильные эмоциональные связи с машинами, из-за которых люди не могут быть жестоки к ним, хотя и знают, что они неживые.

Так должны ли роботы иметь права? Плохое обращение с определенными видами роботов вскоре может стать неприемлемым в глазах общества.

В каких обстоятельствах было бы приемлемо мучить или убивать робота? И что заставит вас подумать дважды, прежде чем жестоко отнестись к машине?

До недавнего времени идея предоставления прав роботам существовала разве что в области научной фантастики. Возможно, это потому, что реальные машины, окружающие нас, были относительно просты. Никто не чувствует вины, ударив по тостеру или пульту дистанционного управления игрушечного автомобиля. Тем не менее, появление социальных роботов меняет ситуацию.

Постоянное развитие ИИ делает действия машин похожими на действия человека. Например, в небольшом эксперименте, проведенном для радиошоу Radiolab в 2011 году, детей попросили держать вверх ногами куклу Барби, хомяка и робота Furby так долго, как они могли.

Важно

В то время как дети держали куклу, пока их руки не устали, они скоро перестали мучить извивающегося хомяка, а через некоторое время и Furby тоже. Они были достаточно взрослые, чтобы понимать, что Furby — всего лишь игрушка, но им не нравился его запрограммированный крик: “Мне страшно!” Сам робот стал ученым.

Этот новый вид робота поднял информационные технологии на совершенно новый уровень. То, что когда-то называли наукой автоматизации, превратилось в автоматизацию науки. Да, сам робот стал ученым.

Проблемы, которые сегодня стоят перед учеными в сфере биотехнологий, включают тысячи переменных, каждая из которых по-разному взаимодействует с другими элементами окружающей среды, в результате чего появляются миллионы возможных результатов, которые должны быть оценены, прежде чем вы доберетесь до стадии осуществления эксперимента и сможете физически проверить что-либо.

Производительность лечит все.   Сегодняшние роботы могут выявлять проблемы, рассматривать существующие варианты, разрабатывать новые, проверять их все теоретически и определять наиболее эффективные и надежные решения в гораздо более короткие сроки. “Машина” становится творцом. Проще говоря, если я, человек, создал робота 1.0, а тот создал робота 2.

0, кто имеет право запатентовать это творение — изобретатель робота или сам робот? На сегодняшний день, по версии журнала SCIENCE, все зависит от того, где вы (или робот) живете. В США только человеческие изобретения могут быть защищены патентами.

В Европе, похоже, законы, регулирующие интеллектуальную собственность, распространяются на любое юридическое лицо —  возможно, даже робота. Необходимость универсальных прав для роботов вдруг стала очевидной. Что мы можем извлечь из этого? Сначала давайте посмотрим на вещи с точки зрения робота.

Например, «умный робот» мог бы посмотреть на себя и с гордостью провозгласить: “Ух ты, я удивителен! Я изучил все, и нет никого, кто может анализировать проблемы и придумывать решения так, как это могу делать я. Я творец. Лучше, чем мой создатель.

И я могу делать все лучше, чем мой создатель, так почему же мой создатель может ставить под сомнение мою способность к творчеству и должен завладеть моим творением?” Трудные времена, не так ли?..Некоторые из нас оспорили бы это. По крайней мере в начале некоторые из нас считают: “Ваши возможности ограничены, ваш интеллект искусственный, ваша личность пуста, г-н/г-жа Робот.

Совет

Вы сами — просто создание, продукт анализа и проектирования творческого ума, более продвинутого, чем ваш. Правда, вы тоже можете творить (и достаточно успешно), но ваша сфера ограничена, ваш интеллект искусственный, ваша личность пуста, ваша схема упрощена. Если кто-то  и заслуживает награды, так это творческий гений, который сделал вас таким творческим”.

Как ни странно, то же самое можно сказать и о нас. Человек, творец, изобретатель — это выдумка изобретательного ума, такого же, как у него, но бесконечно больше.

Его аналитическая и творческая доблесть несравнима во всем мире, но человек будет стараться прислушаться к призыву Торы в книге “Второзаконие” 7: 12-11: 25: “И вы думаете, что “моя сила и сила моей руки приобрели это богатство для меня?” Тем не менее, мы ставим под сомнение существование творца, создателя нашего. Честность требует, чтобы мы тоже посмотрели на все со стороны и признали наше происхождение. В этот момент мы признаем силу ИИ. Что же случится, когда “машина” разовьет свой собственный ИИ и в конечном итоге создаст робота 2.0 — сознательного, разумного, способного на эмоции и со свободной волей? Оставляя в стороне вопрос моральности, давайте сосредоточимся на настоящем времени и на следующем логическом шаге.  

За последние 20 лет мы видели много рабочих мест, переданных роботам, — от сборки автомобилей до обслуживания клиентов. Роботы все чаще используются на производстве (с 1960-го). В автомобильной промышленности они могут составлять более половины «рабочей силы». Есть даже фабрики, такие как завод IBM в Техасе, на которых производство на 100% автоматизировано.

Роботы, такие как HOSPI, используются в качестве курьеров в больницах (больничный робот).

Другие больничные задачи, выполняемые роботами, — это должность секретаря, проводника и помощника носильщика (не говоря уже о роботах, которые помогают хирургам, таких как Da Vinci).

Роботы могут работать официантами, а также помогать в домашних делах; например, Boris — это робот, который может загружать посудомоечную машину.

Роботы с более сложным ИИ будут занимать все больше рабочих мест, связанных с  информационными технологиями, и выполнять задачи, которые были когда-то доступны лишь для квалифицированных специалистов с высшим образованием и теперь доступны роботам. Среди таких профессий — фармацевты, адвокаты, журналисты.

  Технологии уже имеют большое влияние на аптеки. У нас есть машины в больницах, которые автоматизируют все внутренние  процессы, и небольшие машины размером с автомат для продажи чего-либо, которые в настоящее время стоят в аптеках, так что автоматизация имеет большое влияние. Использование технологий позволяет персоналу больницы больше сосредоточиться на непосредственном уходе за пациентами. Автоматизированный разлив лекарств освобождает врачей и фармацевтов от механической работы.

На данный момент многие фармацевты до сих пор работают на своих местах, потому что у нас есть законы и правила, которые требуют присутствия человека в данной сфере. Чтобы стать фармацевтом, нужно много учиться, но то, что они делают, — это, в принципе, рутина, которая требует высокой степени точности и надежности, а это как раз вид работы, который идеально подходит для машин.

  Мы уже видим последствия использования роботов в таких областях, как право, при анализе документов. Это обычно делалось вручную. Работники должны были вычитывать документы. Теперь это делается алгоритмически с использованием искусственного интеллекта. Вряд ли мы увидим, как роботы судятся в залах судебных заседаний в ближайшее время, но некоторые весьма оплачиваемые действия, которые обычно выполняли опытные адвокаты, находятся в процессе автоматизации. Существует новая технология под названием «количественное правовое прогнозирование». Опытные юристы часто делают прогнозы. Используя большие данные, сложную аналитику, роботы будут “прогнозировать” лучше, если вы собираетесь выиграть дело или хотите, чтобы оно было отменено по апелляции, например. Обычно требуется большой опыт, чтобы делать такого рода прогнозы, но эти алгоритмы могут на самом деле работать лучше даже самых опытных юристов, просто анализируя много данных намного быстрее и по более низкой стоимости.   Журналисты также не застрахованы от вытеснения искусственным интеллектом и роботами. Используя передовые компьютерные алгоритмы, такие компании, как Narrative Science и Automated Insights, уже генерируют статьи для клиентов вроде Forbes, охватывая такие темы бизнеса, спорта и политики. Специализированное программное обеспечение с ИИ генерирует новость примерно каждые 30 секунд, и многие из них публикуются на широко известных сайтах, которые предпочитают не признавать, что используют данный сервис. Мы анализируем несколько потоков данных, отфильтровываем наиболее интересные (лучшие, по нашему мнению), потом создаем убедительный рассказ, основанный на данной информации, и пишем историю. Самое интересное в том, что “машина” становится все более изощренной. Она… учится. Ниже прогноз развития робототехники в течение следующих 25 лет.  

  • 2018 – роботы смогут выполнять базовые хирургические операции.
  • 2015–2020 – роботы будут выполнять 50% сельскохозяйственных работ.
  • 2020 – в каждом доме будет “домашний робот-слуга”.
  • 2025 – секс-индустрия и электронные средства массовой информации представят роботов в качестве порнозвезд. Моральные и юридические вопросы: дети-роботы.
  • 2020–2025 – роботы-медики для армии, осуществляющие операции малоинвазивной хирургии на местах.
  • 2025 – рождение робота 2.0 – интеллектуального робота, который ощущает окружающую среду, принимает решения и учится, становится доступным для семей и организаций.
  • 2030 – роботы становятся способными действовать на человеческом уровне, совершенствуя эмоциональные алгоритмы, которые позволяют им чувствовать, что дает “машине” эмоциональный и психологический аспект.
  • 2025–2035 – полчища нанороботов и роботов для поддержки солдат на поле боя.
  • 2030–2035 – роботы способны выполнять большинство бытовых задач, и мы наблюдаем запуск полностью автономных роботов-солдат для войны.
  • 2040 – робот 3.0 – ИИ, компьютерный “мозг”, который выполняет 300 трлн. инструкций в секунду.
  • 2050 – 2075 – к тому времени мы (люди) должны усовершенствовать процедуру передачи сознания. Мы можем определить, изолировать и “передать” выбранные навыки от людей людям и от людей машине.

Возвращаясь к дилемме “создатель/творение”, мы (люди), создатели на самом высоком уровне, имеем “дар” речи, искусства, творчества, мы забавны, мы можем создавать новые типы знаний, мы создаем и понимаем музыку как никакое другое животное, и это то, что больше всего ценится в человеческих существах. Тем не менее, как долго это будет продолжаться?

Источник: https://habr.com/company/robohunter/blog/381617/

Ученые пытаются обучить роботов морали

Группа изыскателей из Университета Тафтса, Брауновского университета и Политехнического института Ренсселера, при сотрудничестве с Военно-морскими силами США, вот уже несколько лет работает над решением вопроса о том, как создать роботов, наделенных своим собственным чувством морали. Если затея ученых окажется успешной, то они смогут создать искусственный интеллект, способный самостоятельно оценивать сложность той или иной ситуации, и самостоятельно делать сложный этический выбор, согласно предварительно интегрированным в них инструкциям.

Семьдесят 2 года назад выдающийся писатель-фантаст Айзек Азимов сформулировал 3 закона робототехники», которые могли бы послужить в качестве своего рода кодекса морального поведения для высокоразвитого искусственного интеллекта.

К сожалению (или, наоборот, к счастью), современный ИИ до сих пор очень хрупок и слаб. Он не осознает мир вокруг себя.

Читайте также:  Компания ibm начинает конкурс по интеграции технологий искусственного интеллекта watson на платформы мобильных устройств

Люди еще не научились строить роботов, которые могли бы не то что следовать этим 3 законам, а хотя бы просто их понимать.

Обратите внимание

Группа ученых под руководством профессора Маттиаса Шутца из Университета Тафтса пытается решить очень важную проблему, которая пока не позволяет нам построить таких роботов: разбить человеческое представление на базовые компоненты и постараться интегрировать их на понятном роботу языке в разрабатываемый фреймворк. Позже ученые постараются смоделировать этот фреймворк в виде алгоритма и интегрировать его в искусственный интеллект. Информационная инфраструктура позволит роботу пересмотреть свои инструкции перед лицом новых доказательств и обосновывать свое поведение в отношении людей, которые им управляют.

«Представление морали можно грубо воспринимать как способность к обучению и осознанию причины и следствия, а также возможность обсуждения законов и социальных конвенций, принятых в том или ином обществе», — говорит Шутц.

«Вопрос заключается в следующем: могут ли машины, или любые другие искусственные системы в этих рамках эмулировать и обладать этими способностями?», — продолжает ученый.

Например, роботу-медику может быть поручена задача по срочной доставке жизненно важных лекарств в определенное место. На пути он встречает человека в критическом состоянии. Моральный кодекс робота поможет ему самостоятельно оценить ситуацию и принять решение: остановиться и помочь человеку, или продолжить выполнение своей первостепенной задачи.

Если рассказы Азимова нас чему-то и научили, так это тому, что набор строгих и запрограммированных правил не может принимать во внимание каждый из возможных сценариев событий, так как всегда имеется вероятность возникновения непредвиденной ситуации, которая рано или поздно случается. Шутц и его коллеги с этим согласны и предлагают решение этой проблемы в 2 этапа.

По их мнению, все решения роботов будут приниматься во-первых с учетом первостепенной этической проверки за счет специальной программы, которая тем или иным образом похожа на 1 из самых продвинутых систем вопросно-ответных ИИ, таких как, например, Watson от компании IBM. Если для решения задачи потребуется больше информации, то робот будет полагаться на систему эмуляции моральных ценностей, которую Шутц пытается разработать со своими коллегами.

Так как проект развивается при поддержке ВМС США, технология, вероятнее всего, сможет сперва найти свое применение при производстве медицинских роботов, которые будут помогать солдатам на полях сражений.

Источник: https://24hitech.ru/uchenye-pytayutsya-obuchit-robotov-morali.html

Нравственные роботы: за или против?

Философ Сьюзен Андерсон рассказывает, зачем нужны нравственные роботы, чем они лучше людей и почему они не будут подчиняться трем законам роботехники.

Несколько лет назад мы с мужем, кибернетиком Майклом Андерсоном, запрограммировали робота для ухода за пациентами в больнице. Он должен был напоминать им о приеме лекарств, а если курс лечения не соблюдался, докладывать врачу. Тонкость была в том, что робот выполнял не только техническую функцию.

Он еще и принимал самостоятельные решения, руководствуясь собственными представлениями о благополучии пациента. Ему приходилось учитывать пользу, которую получает пациент, принимая лекарства, и вред, который может принести нежелание вовремя их принимать (об этом роботу сообщал лечащий врач). Кроме того, робот должен был также уважать независимость и свободу пациента.

Важно

Если, скажем, болезнь была не слишком опасная, а пациент забывал выпить таблетку, засмотревшись любимой телепередачей, лишнее напоминание со стороны робота могло принести ему больше неудовольствия (то есть вреда), чем пользы. Если же пропуск лекарства грозил серьезными последствиями, приходилось напоминать о приеме в любом случае, а на худой конец – жаловаться врачу.

В зависимости от того, какова иерархия ценностей, встроенная в робота, он может принимать в сходных случаях разные решения.

Когда роботы вроде этого станут обыденностью, у них могут появиться и более сложные иерархии ценностей. В частности, они должны будут думать и о собственной способности выполнять свои прямые обязанности – например вовремя заряжать батареи.

Кроме того, у робота, особенно если он присматривает за несколькими людьми сразу, может быть чувство справедливости: в таком случае он будет, например, переключать каналы в телевизоре, учитывая не только конфликтующие желания пациентов, но и то, какие желания были исполнены в прошлый раз.

Есть два способа построить робота, руководствующегося этическими принципами. Первый – просто запрограммировать машину вести себя этично или хотя бы избегать дурных поступков. Такой робот совершает правильные действия, но не умеет явным образом объяснять их смысл.

Он ограничен в своем поведении замыслом создателя, который в данном случае и является настоящим нравственным агентом, ответственным лицом. Но есть и второй способ. Он предполагает создание машины, имеющей собственное представление о законах нравственности и способной действовать автономно, оперируя этим знанием.

Философ Джеймс Мур называл роботов первого и второго рода имплицитным и эксплицитным нравственными агентами. Именно последнего пытаются создать люди, занимающиеся машинной этикой.

Почему эта область знаний важна?

Тому есть по меньшей мере три причины.

Во-первых, существуют моральные проблемы, непосредственно связанные с тем, что роботы уже делают сейчас и будут делать в будущем. Игнорировать этот аспект поведения машин было бы легкомыслием.

В Южной Корее, например, есть правительственная программа, цель которой – снабдить бытовым роботом каждый дом. Автоматические машины без водителей уже ездят по трассам, а скоро заполонят улицы городов.

Военные роботы способны поддерживать огнем наземные операции и несут противотанковые орудия, в небе летают беспилотные истребители (которые, к счастью, пока не принимают самостоятельных решений).

Путь от семейных авто, управляемых без помощи водителя, и умной бытовой техники до автономных созданий, меняющих наше представление о границах интеллекта и способных нанести реальный вред людям, нельзя пройти, не обезопасив себя каким-то этическим компонентом, встроенным в роботов.

Во-вторых, человеческий страх перед автономными мыслящими машинами, как мне кажется, во многом связан с неуверенностью, что они будут вести себя должным образом. Научная фантастика полна таких страхов. Значит, создание этических ограничителей для роботов может заставить общество лучше воспринимать исследования в области искусственного интеллекта.

Надо отдавать себе отчет, что общество не сможет удержать всех изобретателей от разработки разумных автономных машин, даже если захочет запретить это. В случае успеха подобных исследований очень важно иметь этические принципы, которые, по настоянию общества, должны быть встроены в эти машины.

Важно

Если чего-то стоит бояться больше, чем разумных автономных роботов, так это автономных роботов, лишенных представлений о нравственности.

Совет

В-третьих, изучение машинной этики продвинет изучение этики вообще. Несмотря на то что эта область философии хороша постольку, поскольку применима на практике, теоретические работы часто оперируют нереалистичными жизненными ситуациями.

Примеры, которые привыкли обсуждать философы, как правило, выдуманы.

Взять хотя бы классическую дилемму: можно ли сбросить под поезд одного человека, если это спасет жизни пяти? А десяти? А пятнадцати, среди которых есть два младенца? А двадцать неизлечимо больных? Приложение искусственного разума к проблемам этики поможет лучше понять проблемы существующих теорий, и даже открыть путь для новых. Как говорил философ Дэниел Деннет, искусственный интеллект «делает философию честной». Чтобы научить машины разрешать этические дилеммы, мы должны сперва сделать этику последовательной и исчислимой.

Ведь люди не строго следуют арифметике счастья. Они, как правило, просто прикидывают результат на глаз, а для робота такое поведение было бы странным. В отличие от роботов, люди пристрастны и склонны предпочитать и ценить своих близких больше, чем всех остальных.

При этом люди никогда не станут рассматривать все возможные в некой ситуации действия, и тут роботы могут выиграть у них просто за счет аккуратности.

А для некоторых человеческих поступков, например совершенных президентом США или генеральным директором крупной корпорации, последствия столь разнообразны и многочисленны, что человек физически не может их просчитать. Роботу, благодаря все возрастающей мощности современных компьютеров, это дастся куда проще.

Главная надежда изысканий в области машинной нравственности состоит в том, что этику можно сделать исчислимой, то есть понятной компьютеру. Уже есть программы, позволяющие машинам подсказывать человеку правильное решение.

Хочется верить, что это первый шаг на пути создания роботов, которые смогут принимать такие решения сами.

Обществу будет гораздо легче принять думающие машины, если поначалу они не будут сами по себе моральными агентами, а ограничатся советами.

Обратите внимание

Есть и еще одна причина для такого положения вещей. Этика как дисциплина пока не развита настолько, чтобы даже эксперты могли сойтись на том, каков правильный ответ в каждой этической дилемме.

Например, ту же проблему с поездом разные теории решают по-разному: утилитаристы считают, что жертвовать жизнью одного для спасения многих можно, деонтологи – что нельзя, поскольку цель не может оправдывать средства. Но консенсуса не существует и по более жизненным вопросам вроде того, допустимы ли аборты, и если да, то при каких обстоятельствах.

Советник может учитывать это – и перекладывать сложные решения на плечи человека. Автономная же машина в таком случае либо потеряет способность действовать самостоятельно, либо будет принимать случайное решение. Ни то, ни другое нас не устраивает.

На первый взгляд, чтобы этика была вычислимой, нам нужна теория, указывающая должные действия в абсолютно любой жизненной ситуации. Соответственно, нужна последовательная теория, которая должна быть полной, то есть покрывать все разнообразие жизненных ситуаций.

Можно, конечно, исходить из того, что единственной верной теории не существует, и в каждой ситуации пользоваться той, которая позволяет найти однозначное решение. Но тогда этика превращается просто в программистское упражнение: что вычислимо на компьютере, а что нет.

Мне, впрочем, кажется, что этическая теория, выбранная нами, не обязана быть полной.

Конечно, есть действия, которые не только эксперты, но и все мы признаем неправильными (например рабство или измывательство над детьми).

Но философы научились мириться и с тем, что у нас нет готовых ответов на все вопросы, и даже с тем, что какие-то из принятых сегодня этических норм будут в будущем пересмотрены.

В любом случае тем, кто работает над нравственными роботами, лучше бы исходить из идеи, что есть серые этические зоны, и в некоторых ситуациях мы еще не можем сказать, какое поведение правильно.

В конце концов, нам придется решать, какая теория и какой подход верны. Я придерживаюсь того мнения, что простой теории, сформулированной в качестве единственного, абсолютного долга, недостаточно.

Важно

Этика на деле сложнее – и по этой причине любой из этих теорий можно легко придумать контрпример. Гораздо продуктивнее иерархическая система, включающая множество ценностей, из которых одни подчинены другим.

Вроде той, какой пользовался больничный робот, только гораздо сложнее.

Иерархическим образом устроено самое известное руководство по поведению роботов, «три закона робототехники», сформулированные Айзеком Азимовым в 1942 году. Законы эти выглядят так:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам человека, кроме тех случаев, когда эти приказы противоречат Первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму законам.

По-моему, эти три закона, даже если не вдаваться в формулировки, не могут применяться к нравственному роботу. Более того, сам Азимов довольно убедительно показал, что это так – в рассказе «Двухсотлетний человек», написанном к 200-й годовщине независимости США.

Главный герой рассказа, от лица которого ведется повествование, – робот Эндрю. На протяжении рассказа он постепенно борется за свою свободу, признание себя человеком, и в конце концов получает ее в суде. Эндрю – исключительный робот.

Азимов сначала демонстрирует, как тот может заниматься творческой деятельностью (резать по дереву) и получать от этого удовольствие. Его хозяйка даже добивается для него разрешения получать деньги за свою работу.

Совет

Затем мы видим, что подчиненное положение робота приносит ему страдания: в одном эпизоде Эндрю, носившего к тому времени человеческую одежду, ловят хулиганы и заставляют раздеваться, пользуясь вторым законом роботехники.

Чтобы получить права человека, Эндрю даже идет на своего рода самоубийство – перепрограммирует свой позитронный мозг, чтобы тот умер через сто лет. Робот-хирург, который совершает операцию, сначала отказывается это делать: он не может причинять вреда. Но Эндрю поправляет его: робот не может наносить вреда человеку, а я робот.

Рассказ Азимова – на самом деле метафора эмансипации негров в США.

Но так или иначе, Азимову удалось показать, насколько робот, способный вести себя нравственно, достоин свободы, и насколько его нравственное чувство превосходит поведение окружающих его людей, которые слишком легко поддаются эмоциям.

Если у Эндрю и был сбой этических принципов, то он касался как раз его собственной судьбы: робот не признавал своего права быть свободным, прежде чем получил его по суду.

Пока мы можем не задумываться об этом, но если когда-нибудь нравственные роботы появятся, нам придется размышлять на эту тему.

Можно ли требовать беспрекословного подчинения от существ, которые ведут себя лучше, чем мы, и осознают это? Как сказал судья, даровавший свободу Эндрю, «у нас нет права отказывать в свободе любому, кто обладает достаточно развитым сознанием, чтобы понимать смысл этой идеи и желать этого состояния». 

Фотограф Питер Фрейзер

Источник: https://esquire.kz/nravstvennye-roboty/

Чем миру грозит создание нравственных роботов

Человечество стоит на пороге создания роботов с чувством справедливости

Сможет ли когда-нибудь робот обладать чувством справедливости? Где будут работать нравственные  андроиды, есть ли вероятность причинения ими вреда человеку и почему такие  машины не будут подчиняться трем законам роботехники? На эти вопросы журналу Esquire ответила специалист по кибернетике и  философ Сьюзен Андерсон: «Несколько лет назад мы с мужем, кибернетиком Майклом Андерсоном, запрограммировали робота для ухода за пациентами в больнице. Он должен был напоминать им о приеме лекарств, а если курс лечения не соблюдался, докладывать врачу. Тонкость была в том, что робот выполнял не только техническую функцию. Он еще и принимал самостоятельные решения, руководствуясь собственными представлениями о благополучии пациента. Ему приходилось учитывать пользу, которую получает пациент, принимая лекарства, и вред, который может принести нежелание вовремя их принимать (об этом роботу сообщал лечащий врач). Кроме того, робот должен был также уважать независимость и свободу пациента. Если, скажем, болезнь была не слишком опасная, а пациент забывал выпить таблетку, засмотревшись любимой телепередачей, лишнее напоминание со стороны робота могло принести ему больше неудовольствия (то есть вреда), чем пользы. Если же пропуск лекарства грозил серьезными последствиями, приходилось напоминать о приеме в любом случае, а на худой конец — жаловаться врачу. В зависимости от того, какова иерархия ценностей, встроенная в робота, он может принимать в сходных случаях разные решения.

Читайте также:  Российские ученные создали инновационный искусственный интеллект

Когда роботы вроде этого станут обыденностью, у них могут появиться и более сложные иерархии ценностей. В частности, они должны будут думать и о собственной способности выполнять свои прямые обязанности — например, вовремя заряжать батареи.

Кроме того, у робота, особенно если он присматривает за несколькими людьми сразу, может быть чувство справедливости: в таком случае он будет, например, переключать каналы в телевизоре, учитывая не только конфликтующие желания пациентов, но и то, какие желания были исполнены в прошлый раз.

Это лишь первые шаги на пути к машине, способной решать по-настоящему сложные жизненные задачи, но с чего-то надо начинать, если хочешь построить нравственного робота. А в этом и состоит цель дисциплины под названием «машинная этика».

Есть два способа построить робота, руководствующегося этическими принципами. Первый — просто запрограммировать машину вести себя этично или хотя бы избегать дурных поступков. Такой робот совершает правильные действия, но не умеет явным образом объяснять их смысл.

Он ограничен в своем поведении замыслом создателя, который в данном случае и является настоящим нравственным агентом, ответственным лицом. Но есть и второй способ.

Обратите внимание

Он предполагает создание машины, имеющей собственное представление о законах нравственности и способной действовать автономно, оперируя этим знанием. Философ Джеймс Мур называл роботов первого и второго рода имплицитным и эксплицитным нравственными агентами.

Именно последнего пытаются создать люди, занимающиеся машинной этикой. Почему эта область знаний важна? Тому есть по меньшей мере три причины.

Во-первых, существуют моральные проблемы, непосредственно связанные с тем, что роботы уже делают сейчас и будут делать в будущем. Игнорировать этот аспект поведения машин было бы легкомыслием.

В Южной Корее, например, есть правительственная программа, цель которой — снабдить бытовым роботом каждый дом. Автоматические машины без водителей уже ездят по трассам, а скоро заполонят улицы городов.

Военные роботы способны поддерживать огнем наземные операции и несут противотанковые орудия, в небе летают беспилотные истребители (которые, к счастью, пока не принимают самостоятельных решений).

Путь от семейных авто, управляемых без помощи водителя, и умной бытовой техники до автономных созданий, меняющих наше представление о границах интеллекта и способных нанести реальный вред людям, нельзя пройти, не обезопасив себя каким-то этическим компонентом, встроенным в роботов.

Во-вторых, человеческий страх перед автономными мыслящими машинами, как мне кажется, во многом связан с неуверенностью, что они будут вести себя должным образом. Научная фантастика полна таких страхов. Значит, создание этических ограничителей для роботов может заставить общество лучше воспринимать исследования в области искусственного интеллекта.

Надо отдавать себе отчет, что общество не сможет удержать всех изобретателей от разработки разумных автономных машин, даже если захочет запретить это. В случае успеха подобных исследований очень важно иметь этические принципы, которые, по настоянию общества, должны быть встроены в эти машины.

Важно

Если чего-то стоит бояться больше, чем разумных автономных роботов, так это автономных роботов, лишенных представлений о нравственности.

В-третьих, изучение машинной этики продвинет изучение этики вообще. Несмотря на то что эта область философии хороша постольку поскольку применима на практике, теоретические работы часто оперируют нереалистичными жизненными ситуациями.

Примеры, которые привыкли обсуждать философы, как правило, выдуманы.

Взять хотя бы классическую дилемму: можно ли сбросить под поезд одного человека, если это спасет жизни пяти? А десяти? А пятнадцати, среди которых есть два младенца? А двадцать неизлечимо больных? Приложение искусственного разума к проблемам этики поможет лучше понять проблемы существующих теорий и даже открыть путь для новых. Как говорил философ Дэниел Деннет, искусственный интеллект «делает философию честной». Чтобы научить машины разрешать этические дилеммы, мы должны сперва сделать этику последовательной и исчислимой.

Наконец — и об этом мало кто задумывается, — робот и в самом деле может принимать лучшие этические решения, чем человек. Ведь люди не строго следуют арифметике счастья. Они, как правило, просто прикидывают результат на глаз, а для робота такое поведение было бы странным.

В отличие от роботов люди пристрастны и склонны предпочитать и ценить своих близких больше, чем всех остальных. При этом люди никогда не станут рассматривать все возможные в некой ситуации действия, и тут роботы могут выиграть у них просто за счет аккуратности.

А для некоторых человеческих поступков, например совершенных президентом США или генеральным директором крупной корпорации, последствия столь разнообразны и многочисленны, что человек физически не может их просчитать.

Роботу благодаря все возрастающей мощности современных компьютеров это дастся куда проще.

Главная надежда изысканий в области машинной нравственности состоит в том, что этику можно сделать исчислимой, то есть понятной компьютеру. Уже есть программы, позволяющие машинам подсказывать человеку правильное решение.

Совет

Хочется верить, что это первый шаг на пути создания роботов, которые смогут принимать такие решения сами.

Обществу будет гораздо легче принять думающие машины, если поначалу они не будут сами по себе моральными агентами, а ограничатся советами.

Есть и еще одна причина для такого положения вещей. Этика как дисциплина пока не развита настолько, чтобы даже эксперты могли сойтись на том, каков правильный ответ в каждой этической дилемме.

Например, ту же проблему с поездом разные теории решают по-разному: утилитаристы считают, что жертвовать жизнью одного для спасения многих можно, деонтологи — что нельзя, поскольку цель не может оправдывать средства. Но консенсуса не существует и по более жизненным вопросам вроде того, допустимы ли аборты, и если да, то при каких обстоятельствах.

Советник может учитывать это и перекладывать сложные решения на плечи человека. Автономная же машина в таком случае либо потеряет способность действовать самостоятельно, либо будет принимать случайное решение. Ни то, ни другое нас не устраивает.

На первый взгляд, чтобы этика была вычислимой, нам нужна теория, указывающая должные действия в абсолютно любой жизненной ситуации. Соответственно, нужна последовательная теория, которая должна быть полной, то есть покрывать все разнообразие жизненных ситуаций.

Можно, конечно, исходить из того, что единственной верной теории не существует, и в каждой ситуации пользоваться той, которая позволяет найти однозначное решение. Но тогда этика превращается просто в программистское упражнение: что вычислимо на компьютере, а что нет. Мне, впрочем, кажется, что этическая теория, выбранная нами, не обязана быть полной.

Полнота — это идеал, к которому надо стремиться, но который, скорее всего, недостижим.

Обратите внимание

Конечно, есть действия, которые не только эксперты, но и все мы признаем неправильными (например рабство или измывательство над детьми).

Но философы научились мириться и с тем, что у нас нет готовых ответов на все вопросы, и даже с тем, что какие-то из принятых сегодня этических норм будут в будущем пересмотрены.

В любом случае тем, кто работает над нравственными роботами, лучше бы исходить из идеи, что есть серые этические зоны, и в некоторых ситуациях мы еще не можем сказать, какое поведение правильно.

В конце концов, нам придется решать, какая теория и какой подход верны. Я придерживаюсь того мнения, что простой теории, сформулированной в качестве единственного, абсолютного долга, недостаточно.

Этика на деле сложнее — и по этой причине любой из этих теорий можно легко придумать контрпример. Гораздо продуктивнее иерархическая система, включающая множество ценностей, из которых одни подчинены другим.

Вроде той, какой пользовался больничный робот, только гораздо сложнее.

Иерархическим образом устроено самое известное руководство по поведению роботов, «три закона роботехники», сформулированные Айзеком Азимовым в 1942 году. Законы эти выглядят так:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам человека, кроме тех случаев, когда эти приказы противоречат Первому закону.

Важно

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму законам.

По-моему, эти три закона, даже если не вдаваться в формулировки, не могут применяться к нравственному роботу. Более того, сам Азимов довольно убедительно показал, что это так в рассказе «Двухсотлетний человек», написанном к 200-й годовщине независимости США.

Главный герой рассказа, от лица которого ведется повествование, — робот Эндрю. На протяжении рассказа он постепенно борется за свою свободу, признание себя человеком, и в конце концов получает ее в суде. Эндрю — исключительный робот.

Азимов сначала демонстрирует, как тот может заниматься творческой деятельностью (резать по дереву) и получать от этого удовольствие. Его хозяйка даже добивается для него разрешения получать деньги за свою работу.

Затем мы видим, что подчиненное положение робота приносит ему страдания: в одном эпизоде Эндрю, носившего к тому времени человеческую одежду, ловят хулиганы и заставляют раздеваться, пользуясь вторым законом роботехники.

Чтобы получить права человека, Эндрю даже идет на своего рода самоубийство — перепрограммирует свой позитронный мозг, чтобы тот умер через сто лет. Робот-хирург, который совершает операцию, сначала отказывается это делать: он не может причинять вреда. Но Эндрю поправляет его: робот не может наносить вреда человеку, а я робот.

Рассказ Азимова — на самом деле метафора эмансипации негров в США.

Но так или иначе, Азимову удалось показать, насколько робот, способный вести себя нравственно, достоин свободы, и насколько его нравственное чувство превосходит поведение окружающих его людей, которые слишком легко поддаются эмоциям.

Если у Эндрю и был сбой этических принципов, то он касался как раз его собственной судьбы: робот не признавал своего права быть свободным, прежде чем получил его по суду.

Совет

Пока мы можем не задумываться об этом, но если когда-нибудь нравственные роботы появятся, нам придется размышлять на эту тему.

Можно ли требовать беспрекословного подчинения от существ, которые ведут себя лучше, чем мы, и осознают это? Как сказал судья, даровавший свободу Эндрю, «у нас нет права отказывать в свободе любому, кто обладает достаточно развитым сознанием, чтобы понимать смысл этой идеи и желать этого состояния».

Источник: https://total.kz/ru/news/biznes/chem_miru_grozit_sozdanie_nravst

«У роботов никогда не будет сознания». Для чего нужна киберфилософия

Специальный корреспондент «Сноба» Полина Еременко обсудила с девятью ведущими международными киберфилософами наше будущее. Зачем вообще нужна эта дисциплина? Какие вопросы она поднимает и чем различается в разных частях света? Объясняют киберфилософы из России, США и Европы

Александр Мишура , преподаватель школы философии факультета гуманитарных наук НИУ ВШЭ:

Сколько людей занимается в России этикой роботов? Отвечу на вопрос вопросом. На каком уровне? На уровне публикаций в авторитетных философских журналах едва ли наберется с десяток человек. На уровне общественных обсуждений, дискуссий — полтора десятка человек. Не могу сказать, что эта тема популярна в России.

Существует Семинар по взаимодействию технологий и общества, организованный Петром Левичем, директором департамента взаимодействия науки, технологий и общества МТИ. Там регулярно выступают специалисты из различных научных областей, и я там тоже выступал. Из постоянно функционирующих сообществ — только это.

Самый популярный вопрос в нашем сообществе — могут ли роботы заниматься творчеством. Понятно, что роботы уже научились производить и литературу, и живопись, и музыку. Роботы могут создавать такие произведения искусства, которые даже эксперт не отличит от созданного человеком.

Но важным условием творчества является создание новых эстетических норм. Программа может следовать тем или иным нормам, которые в нее заложил разработчик, но не сможет сама создать новый жанр или направление. Уже созданы программы, которые пишут музыку «под классическую».

Эта музыка звучит так, как будто ее писал человек в определенный исторический период. Робот может написать под Баха, под Бетховена, под Моцарта. И вы будете это слушать и думать: «Да, это что-то из того периода, что-то очень похожее».

Не так давно ребята в «Яндексе» разработали программу, которая сочинила новый альбом группы «Гражданская оборона», и эту версию почти не отличить от оригинальных песен группы. То есть у «Гражданской обороны» есть свой стиль, по которому можно ее скопировать.

Тема этики искусственного интеллекта не стала пока в России предметом оживленных дискуссий. И дело не в том, что киберэтика не имеет отношения к нашим реалиям. Имеет, потому что мы пользуемся той же техникой, что американцы. И когда беспилотные машины станут повседневностью в США, а это вопрос нескольких лет, тогда они и в России появятся.

Дело в том, что в России нет институционального поля, в котором эти вопросы могли бы обсуждаться. В американской среде есть гораздо больше возможностей вести продуктивную дискуссию — там больше специалистов, масса высококлассных журналов, лабораторий, научных групп. Есть специализированные форумы, на которых философы общаются.

У нас эти площадки начали возникать относительно недавно, и еще не факт, что они приживутся. В России нет журналов, которые систематически публикуют философские статьи на тему этики роботов, нет какого-то устойчивого пространства аргументов и теорий.

Обратите внимание

Поэтому, когда мы обсуждаем эти вопросы, мы по сути заимствуем исходные вопросы и аргументы из того набора, который был сформирован зарубежными специалистами.

Скорее всего, техника будет к нам приходить из-за рубежа с уже готовым программным обеспечением, значит, мы будем жить по тем принципам, которые были выработаны в среде западных философов, а не отечественных.

Как мы не можем повлиять на программное обеспечение в айфонах, так мы, наверное, не будем принимать решений относительно программного обеспечения автопилотируемых машин будущего.

Если только в России не начнут выпускать собственные беспилотные машины; тогда, вероятно, могут спросить и отечественных философов.

Многие темы этики роботов — это весьма частные вопросы прикладной этики, а у нас дискуссий по частным прикладным проблемам очень мало. Больше внимание привлекают, скорее, традиционные вопросы нормативной этики. Зачем обсуждать проблемы секс-роботов, если шанс получить какую-то реакцию на свою работу в виде ответных публикаций стремится к нулю?

Среди отечественных философов мне часто приходится сталкиваться с точкой зрения, что частные вопросы прикладной этики вторичны и могут быть легко решены, если занять определенную позицию по более общим этическим вопросам.

Среди популярных «больших» вопросов — проблема свободы воли и вопрос о природе моральной ответственности. Много дебатов традиционно вызывает понятие справедливости. Споры ведутся по большим темам, частные вопросы реже становятся предметом обсуждения.

Вопросы, связанные с искусственным интеллектом, обсуждаются, но для того, чтобы они обсуждались активно, требуется в 10 раз больше высококвалифицированных философов, которые учились на очень сильных философских факультетах под руководством специалистов мирового уровня, и, конечно, в 10 раз больше хороших рецензируемых журналов.

Важно

Мы сталкиваемся с тяжелым наследием советского прошлого, с отсутствием нормальной конкуренции в академической среде, с отсутствием культуры публичных диспутов. Культура дискуссии, культура аргументированного диалога между профессионалами не возникает мгновенно.

Читайте также:  Робот-гитарист. совершенная помощь для игры на гитаре

Некоторые отечественные философы считают, что философия вообще не должна опираться на рациональную аргументацию, но может быть своего рода вещанием истины из глубин бытия.

Достаточно просто выдвигать глобальные тезисы о первых принципах сущего, идея о том, что эти тезисы нуждаются в поддерживающих аргументах, до сих пор не является чем-то самоочевидным в среде нашей академической философии.

Если бы тема беспилотных машин и секс-роботов активно обсуждалась в среде российских философов, с моей точки зрения, региональная специфика этих дискуссий была бы связана с религиозной проблематикой. Подавляющее большинство (более 70%) американских философов — атеисты, около 15 — теисты.

В России, по схожим опросам, около 27% занимают атеистическую позицию, более 40% — теистическую позицию. Существенную часть дискуссии, на мой взгляд, занимал бы вопрос о допустимости использования того или иного вида техники в контексте религиозных убеждений.

Такого рода дискуссии есть и среди американских философов, они просто находятся как бы с краю дискуссионного поля. В России они могли бы иметь большее значение.

Если секс-робот не нарушает ничьих прав и не наносит никакого физического ущерба, это еще не значит, что его использование оправданно с позиции той или иной религии.

Джон Саллинс III , PHD, профессор философского факультета университета Сонома (Калифорния, США), специализируется на философии технологии, философских вопросах, касающихся искусственного интеллекта, инженерной и компьютерной этики:

Мы, представители школы американского прагматизма, — практичные философы и решаем реальные проблемы.

Совет

Наша задача — выносить философию из слоновой башни; это такая метафора, используемая, чтобы обозначать уход в мир творчества от проблем современности, замыкание в духовных исканиях, изоляцию от реальных проблем общества.

Философы любят погружаться в вопросы о смысле жизни и гордятся тем, что их знания совершенно неприкладные. Это когда ты решаешь оставаться в своем кабинете и писать только на те темы, которые интересны тебе и твоим коллегам.

Но мы считаем такой выбор — выбор оставить реальные проблемы человечества за дверью — аморальным выбором. Американская школа бросает вызов такому подходу. Мы выходим из башни и погружаемся в вопросы технологий, законодательные вопросы и острые социальные вопросы. Да, конечно, все эти экзистенциальные копании — это дико весело, но совершенно непрактично.

Вот нашумевший сериал Westworld — замечательный способ поднять вопросы сегодняшней философии и робототехники.

Например, какие возникают проблемы, когда мы беремся создать совершенно новое думающее и чувствующее существо? На данный момент, в реальном мире, наши роботы могут думать только механическим способом и они могут только изображать эмоции и только изображать, что понимают ваши эмоции.

Ваш цифровой друг может звучать так, как будто действительно обеспокоен вашим вопросом и постарается изо всех сил на него ответить, но мы все знаем, что за этим ничего нет. Westworld просит нас задуматься над тем, что могло бы произойти, если бы мы могли построить робота с более сильной эмоциональной привязанностью к этому миру.

Он также изучает все проблемы, с которыми мы можем столкнуться, если создадим роботов, похожих на людей, но будем использовать их для удовлетворения своих самых темных желаний. Это шоу похоже на фильм 1994 года «Франкенштейн Мэри Шелли», где настоящий монстр — это инженер, а тот, кто вроде бы должен бы быть монстром, на самом деле жертва.

Sci-Fi существует специально для того, чтобы изображать темные сценарии нашего будущего, чтобы нам не пришлось их проживать. Шоу следует досмотреть до удивительного конца первого сезона, думаю, все зрители задумаются над теми важными проблемами, которые нам предстоит разрешить до того, как начать создавать таких искусственных существ.

Марк Кокельберг , профессор философии Венского университета:

Источник: https://snob.ru/entry/102667

Роботы будущего: друзья человека или безжалостные убийцы?

В последнее время был создан мощный плацдарм для последующего развития роботов. К примеру, в прошлом месяце Британский институт стандартов опубликовал документ, который регламентирует этику роботов.

Последние несколько месяцев займут важное место в истории эмансипации машин.

А в общеевропейском масштабе все пошло еще дальше – Европарламент рассматривает возможность сделать андроидов чуть ли не гражданами.

В проекте резолюции Комитета по законодательству говорится: «По меньшей мере наиболее сложные и самостоятельные роботы могут обрести статус электронной личности со специфическими правами и обязанностями».

Обратите внимание

Сейчас очень много говорят о возможных этических проблемах, алгоритмах и законах, регулирующих деятельность роботов.

При этом тему прав машин поднимают достаточно редко, потому что на подсознательном уровне она кажется бессмысленной. Но это не так.

Проект Европарламента выглядит слишком абстрактным, но его важность заключается в том, что он впервые затрагивает эту проблему на официальном уровне.

Менее чем два года назад хитом интернета стал ролик, в котором сотрудник компании Boston Dynamics бьет ногой робота Spot, похожего на собаку. Видео вызвало возмущение пользователей. Миллионы людей по всему миру встали на защиту машины.

Сайт The Verge даже опубликовал материал «Прекратите бить роботов, пока они не начали бить нас», в котором читателям рассказали, что искусственный интеллект, увидевший издевательства над Spot, может отомстить людям.

Это выглядит наивно, но существует масса более значительных причин с уважением относиться к роботам.

Кейт Дарлинг из Массачусетского технологического института (MIT) считает, что социальные роботы, которые взаимодействуют с людьми и перенимают их обязанности, заслужили на юридическую защиту.

Она полагает, что люди чувствуют к роботам эмоциональную привязанность и часто даже воодушевляют их.

Важно

Это говорит в пользу того, что социум должен осуждать и предотвращать жестокость по отношению к роботам, как он это делает в случае, к примеру, с домашними животными.

Все идет к тому, что Дарлинг права, и социальные роботы в недалеком будущем обзаведутся юридической защитой. Количество умных роботов растет, они будут все чаще становиться социальными. Люди будут их одушевлять, из-за чего алгоритмы начнут контролировать наши чувства, а возможно даже и волю.

Родные роботы

Десятилетие назад физик Марк Тилден создал робота, умеющего обезвреживать противопехотные мины. Наиболее легкий способ обезвредить мину – наступить на нее. Робот имел несколько конечностей, с помощью которых он передвигался по заминированных полях.

От терял одну ногу за другой, падал, неуклюже перегруппировывался и двигался дальше. Робототехники признали тест успешным, но полковник, который руководил испытаниями, приказал их остановить.

Он не мог наблюдать, как искалеченный робот ползет по земле с помощью своей последней ноги.

Люди чувствуют жалость к роботам и обращаются с ними как с младшими братьями. Мы считаем роботов живыми существами. В начале 1960-х психолог Стенли Милгрэм написал о своем известном эксперименте.

Суть его заключалась в том, что ученый решил проверить, могут ли люди вредить друг другу под воздействием авторитета. Испытуемым предложили бить током незнакомцев (в действительности это были актеры, изображавшие боль) в наказание за неверные ответы.

Когда испытуемые отказывались, экспериментатор начинал психологически давить на них. Выглядит удивительно, но многие решились пытать невиновных.

В 1990-х ученый из Новой Зеландии Кристоф Бартнек провел похожий эксперимент с роботами. В этом случае испытуемый и его жертва (робот) сидели рядом и играли в компьютерную игру.

После этого испытуемому предлагали стереть память робота, чтобы уничтожить его «личность». Согласно задумке экспериментатора, роботы осознавали, что с ними может случиться и пытались спастись. Они просили людей не выключать их и не уничтожать данные.

Для многих это оказалось непосильным заданием, хотя люди и понимали, что всего лишь удаляют файл.

Совет

Создательница Kismet Сьюзен Бизил призналась, что чувствовала себя очень плохо, когда не могла забрать робота с собой после истечения контракта с лабораторией. Впрочем, переживала она недолго. Вскоре женщина разработала новый роботехнический проект Jibo, который собрал около 4 млн долларов на краудфандинговой платформе Indiegogo. Перед этим стартап привлек 25 млн венчурных инвестиций.

На первый взгляд кажется, что люди одушевляют лишь человекоподобных роботов, но реальность немного другая. Примерно 10 лет назад исследователи из Технологического института Джорджии доказали, что люди испытывают чувства даже к популярному в те времена бытовому роботу-пылесосу Roomba.

Ученые подсчитали, что почти 25% сообщений на форумах от владельцев умного пылесоса отображали определенную меру любви к роботу. Исследователи пообщались со многими владельцами Roomba. Один из них признался, что его дети предварительно собирают на полу мелкие предметы, потому что они способны навредить роботу.

  Хозяева пылесосов говорили, что спешат на помочь роботу, если он где-то застревает.

Один из респондентов даже перестал употреблять слово «пылесосить». После покупки Roomba он начал говорить «Я играю с роботом». Люди считают пылесос членом семьи или питомцем, наделяют его чувствами и эмоциями. Одна из участниц опроса выбросила из комнаты ковер, поскольку он, по ее мнению, расстраивал робота-пылесоса.

Способность людей воодушевлять неживые предметы порой поражает. Чтобы люди проявили заботу о Roomba, роботу было достаточно продемонстрировать нестандартное поведение.

Роботы-хитрецы

Рынок потребительских роботов развивается очень динамично. В прошлом году количество проданных сервисных роботов достигло 6,6 млн экземпляров. По прогнозам компании Tractica в 2020 году эта цифра увеличится до 30 млн.

Рынок умных роботов, которые смогут выполнять работу без человеческого вмешательства, к 2020 году достигнет объема в 8 млрд долларов. Львиную долю составят социальные, коммуникабельные и привлекательные роботы.

И это произойдет не потому, что так люди получат больше удовольствия.

Главная причина заключается в том, что многие из нас склонны применять к роботам с определенными функциями антропоморфизм.

Обратите внимание

Например, роботу-сиделке в доме престарелых или роботу-охраннику в детском саду необходимо вызывать позитивные эмоции хотя бы для того, чтобы качественно делать свою работу.

Пока что роботы, которые занимаются медицинским уходом, не очень похожи на людей, но вскоре эта ситуация изменится.

Вторая важная причина увеличения количества социальных роботов кроется в возможностях обучения. Человек не получает все свои интеллектуальные возможности от рождения, а приобретает их в процессе общения с другими людьми.

Ученые из Плимута продемонстрировали, что роботы намного быстрее учатся языковым играм, когда взаимодействуют с человеком. В действительности подобное взаимодействие станет возможным, если люди согласятся общаться с машинами. Для этого роботы должны быть социальными.

Многие ученые в сфере робототехники считают, что нельзя создать роботов с полноценным сознанием. Но для того чтобы люди полагали, что взаимодействуют с мыслящим андроидом достаточно создать иллюзию. Мозг человека развивался, чтобы решать социальные задачи: влиять на сородичей, определять неправду, организовывать коммуникацию.

Это представление об эволюции рассудка получило название «гипотеза Макиавелли».  Люди готовы воспринимать как мыслящее и воодушевленное существо фактически любой объект, демонстрирующий сложную модель поведения. В этом заключается обман искусственного интеллекта: если робот выглядит как умное и красивое создание, то мы полагаем, что он разумный.

Таким образом люди просто проектируют на машину ее душевные качества.

Известный тест Алана Тьюринга базируется на идее, что машину, которая может обмануть человека, можно априори считать умной. Это было бы справедливо касательно роботов, но не слишком связано с истинной природой человека. Нам нравится обманывать самых себя.

Новая социальная модель

Маттиас Шойтц из Лаборатории взаимодействия людей и роботов Университета Тафтса в ходе ряда экспериментов выяснил, что во время совместной работы с роботами люди больше всего ценят их самостоятельность в принятии решений. Ученый программировал роботов на демонстративное неподчинение указаниям.  Как ни странно, но это только улучшало отношение к ним со стороны людей. Испытуемые ценили в роботах человечность, и это насторожило Шойтца.

По мнению Шойтца, неразделенные чувства к машинам могут стать причиной многих проблем. Ученый определил три способа, чтобы избежать отрицательных последствий. Прежде всего, он предлагает закладывать в программу робота ряд этических норм.

Также он советует устанавливать систему, которая будет систематически напоминать людям, что роботы не могут чувствовать и отвечать на человеческие эмоции. В конце концов, Шойтц предлагает очень кардинальный способ: «научить» роботов чувствовать эмоции.

То есть совершить с роботами то, что эволюция сделала с человеком.

Важно

Идеи Шойцта поддерживают не все. Многие исследователи не хотят выбирать рискованный путь. Пока что люди привыкают к роботам намного быстрее, чем роботы к людям.

Эксперт по робототехнике из Стэнфорда Джон МакКарти в 1990-х говорил коллегам, что нельзя превращать роботов в мишени для эмоций человека. «Когда роботы будут выглядеть злыми, разочарованными или скучающими, люди с детства начнут воспринимать их как личностей.

В таком случае роботы смогут получить определенный статус в социуме. Человеческое общество и без этого устроено очень сложно».

Сейчас кажется, что ЕС как раз начал добиваться для роботов специального статуса.

Проект резолюции Европарламента может и не быть принят прямо сегодня, но очень вероятно, что в будущем роботам все-таки обеспечат юридическую защиту.

Они смогут добиться этой цели, просто использовав несовершенство человеческой природы. Эта же причина позволит роботам в один прекрасный день рассчитывать на получение гражданских прав. Разумеется, если им это будет нужно.

Источник: https://hyser.com.ua/tehnology/122549-roboty-budushhego-druzya-cheloveka-ili-bezzhalostnye-ubijtsy

Ссылка на основную публикацию
Adblock
detector