Какая мораль должна быть у искусственного интеллекта?

Этика искусственного интеллекта – гарантия безопасности человека?

?znay_obo_vcem (znay_obo_vcem) wrote,
2014-04-12 13:15:00znay_obo_vcem
znay_obo_vcem
2014-04-12 13:15:00Category:Прошло 50 лет с тех пор, как Айзек Азимов придумал свои знаменитые три закона робототехники — набор правил, которым должен следовать любой уважающий себя робот.Хотя изначально это был всего-лишь литературный прием, три закона стали оригинальным рецептом по избежанию «роботокалипсиса».К счастью, есть эксперты, которые изучают наверняка, выдержали ли гарантии Азимова проверку временем.

К несчастью, все они говорят: нет.

Для начала напомним эти самые три закона:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил четвертый, или нулевой, закон, который предшествовал остальным с точки зрения приоритета:
   0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.В фантастической вселенной Азимова этим законам должны были следовать почти все роботы. Это были не просто предложения или руководящие принципы — законы были встроены в программное обеспечение. Кроме того, эти правила нельзя обойти, переписать или пересмотреть.Как показал сам Азимов, несовершенство, лазейки и неясности в этих законах зачастую приводили к странному и нелогичному поведению роботов. Законы были слишком расплывчатыми и зачастую не могли определить и отличить «людей» от «роботов». Кроме того, роботы могли неосознанно нарушать законы, если полная информация была им недоступна. Также чересчур хитроумный робот или искусственный интеллект должен был находиться под давлением, чтобы не перепрограммировать свое ядро.На дворе 2014 год, и многое обыденное из нашей жизни фантастам прошлого века могло показаться откровенной фантастикой. Многие люди посчитали, что законы Азимова должны были остаться в качестве литературного приема. Но сам Азимов в 1981 году отметил, что его законы могли бы работать. В статье журнала Compute! он указал следующее:«Когда кто-то спрашивает меня, что было бы, если бы три моих закона робототехники на самом деле использовались для определения поведения роботов, ответ уже готов. Разумеется, при условии, что роботы будут достаточно гибкими и универсальными, чтобы обладать разным поведением. Я отвечаю: да, три закона — это единственный вариант, по которому люди могут взаимодействовать с роботами — или с чем-нибудь еще.Спустя почти тридцать лет мы приблизились к реальности, в которой у нас будут роботы — или, если точнее, искусственный интеллект, который ими управляет — достаточно гибкие и универсальные для разных курсов поведения. Остается лишь вопрос времени: когда машина превзойдет человека во всех отношениях, начиная физической силой и заканчивая силой воображения.

Пугает то, что права на ошибку практически нет. Если искусственный сверхинтеллект будет плохо запрограммирован или безразличен к людям, это приведет к катастрофе. Мы должны убедиться в безопасности искусственного интеллекта, если хотим пережить его появление».

Ответить на вопрос «могут ли три закона Азимова помочь?» взялись два теоретика искусственного интеллекта: Бен Герцель (Aidyia Holdings) и Луи Хельм, замдиректора Института исследований машинного интеллекта (MIRI), а также исполнительный редактор журнала Rockstar Research. После разговора с ними стало ясно, что законы Азимова вообще никак не могут справиться с возложенной на них задачей, и если нам нужно создать безопасный ИИ, придется разрабатывать нечто совершенно иное.

Азимовское будущее?

Беседа с Герцелем и Хельмом началась с того, в чем Азимов не ошибся, предрекая будущее, а в чем ошибся.

«Думаю, что тип роботов, которых предвидел Азимов, станет возможным в недалеком будущем, — отвечает Герцель.

— Тем не менее, в большинстве своих вымышленных миров, писатель предполагал, что человекоподобные роботы будут вершиной робототехники и инженерии искусственного интеллекта. Это вряд ли.

Обратите внимание

Очень скоро, после достижения статуса азимовских роботов, станет доступным и создание искусственного сверхинтеллекта и сверхроботов».

Таким образом, типичный мир будущего в рассказах про роботов у Азимова, по мнению Герцеля, будет похож на тот, в котором мы живем сегодня, но с разумными роботами, гуляющими по улицам.

«Вряд ли это произойдет, а если и произойдет, то задержится ненадолго».

Для Хельма роботы представляются совершенно другими.

«Основным вопросом, который, на мой взгляд, будет самым важным для человечества, остается не моральное регулирование гигантского количества наполовину разумных гуманоидов, а в конечном итоге развитие передовых форм искусственного интеллекта (в любом теле).

Это развитие сверхинтеллекта — фильтр, через который должно пройти человечество в конце концов. Именно поэтому разработка стратегии безопасности для этого перехода столь важна.

Мне видится совершенно странным то, что роботы, андроиды или «эмуляции» будут существовать десять лет или чуть более до тех пор, пока человечество столкнется с настоящей проблемой разработки машинной этики для сверхинтеллекта».

Хорошее начало?

Если принять во внимание, что три азимовских закона робототехники были первой искренней попыткой решить очень серьезную проблему — проблему безопасного поведения машин с искусственным сверхинтеллектом — стоит поискать и те моменты, в которых законы могут быть все еще эффективными (или хотя бы вдохновляющими).

«Честно говоря, я не нахожу никакого вдохновения в этих трех законах робототехники, — говорит Хельм. — Суть машинной этики в том, что они не удовлетворяют базису машинной этики. Возможно, три закона робототехники широко известны, но на самом деле использовать их в качестве основы для программирования бесполезно».

«По некоторым причинам система добропорядочной этики — так называемая деонтология — стала ненадежной основой для этики. Есть ряд философов, которые пытаются исправить проблемы деонтологии, но они по большей части остаются теми же людьми, что ищут «разумный замысел» и «божественное вмешательство».

Никто не воспринимает их всерьез».

Недостатки трех законов робототехники Азимова сводятся к следующим:

  1. Состязательны по своей сути
  2. Основаны на изжившей себя этической теории (деонтологии)
  3. Не работают даже в фантастике

Герцель соглашается:

«Задачей трех законов было нарушить их интересным способом; вот почему рассказы с их участием особенно занимательны. Поэтому три закона могут остаться лишь нравоучительным примером того, как делать не надо. Если взять их за основу, в них неизбежно найдутся лазейки».

Герцель считает, что в реальности эти законы работать не будут, поскольку термины с их участием неоднозначны и остаются предметом толкования — а значит, крайне зависимы от тех, кто делает переводы.

Предубеждение против роботов?

Другой аспект (и потенциальный недостаток) трех законов в очевидном шовинизме —предположение о том, что роботы должны оставаться, несмотря на их превосходящую мощь, в подчинении у человека, человеческих потребностей и приоритетов.

«Общество будущего у Азимова состоит сплошь из шовинистов: у людей прав гораздо больше, чем у роботов. Три закона робототехники были созданы, чтобы поддерживать именно такой общественный порядок».

Хельм смотрит на эту проблему немного по-другому, утверждая, что если мы окажемся в такой ситуации — это само по себе будет свидетельством того, что мы зашли слишком далеко.

«Я думаю, было бы неразумно проектировать систему искусственного интеллекта или робота с самосознанием.

Важно

И в отличие от фильмов или книг, в которых создатели искусственного интеллекта «случайно» приходят к разумным машинам, я не верю, что в реальном жизни это может случиться. Для этого понадобится слишком много усилий и знаний. И большинство разработчиков ИИ — этически подкованные люди, поэтому они будут избегать создания того, что философы называют «морально значимыми существами».

Особенно когда они с легкостью могут создать продвинутую машину, которая не будет обладать этическими задатками».

Хельм не обеспокоен необходимостью разработки асимметричных законов, регулирующих значимость роботов по сравнению с людьми, утверждая (и надеясь), что будущие создатели искусственного интеллекта будут опираться на некоторые этические ограничения.

«Я как бы думаю, что люди сделаны из атомов, поэтому в теории инженер может создать синтетическую форму жизни или робота с моральным значением. Я хотел бы думать, что никто этого не сделает. Думаю, большинство людей тоже.

Но неизбежно появится некий дурак, жаждущий известности первопроходца, даже если это неэтично и глупо».

Три закона робототехники 2.0?Учитывая очевидные недостаки трех законов робототехники Азимова, ресурс io9 задался вопросом: можно ли их исправить или внести доработки? На самом деле, многие писатели-фантасты многократно пытались сделать это, внося поправки в течение многих лет.

«Нет, — считает Хельм. — Нет никаких «патчей» для трех законов».

Помимо своей противоречивой природы, законы еще и состязательны по своей природе.

«Я сторонник подходов машинной этики, которая более кооперативна, более последовательна и опирается на нормативы, а значит может оправиться от недоразумений или исправить неправильное программирование».

Герцель эхом вторит утверждениям Хельма.

«Определение набора этических заповедей в качестве ядра машинной этики будет безнадежным, если в основе машины будет гибкий общий искусственный интеллект.

Если он будет задуман как интуитивный, гибкий, адаптивный или этический — в этом контексте этические заповеди будут полезны для системы только как грубый ориентир для применения собственной этической интуиции. Но в этом случае заповеди не станут основой этической системы, а только лишь аспектом.

Это можно рассмотреть на примере людей — этические принципы, которые мы изучаем, работают, но не в качестве руководящих принципов, они лишь подталкивают нашу интуицию и этические инстинкты. Мы практически независимы от этических принципов».

Как создать безопасный искусственный интеллект?

Учитывая неадекватность правового подхода, можно поинтересоваться у Герцеля и Хельма по поводу современных подходов к проблеме «безопасного ИИ».

«Очень немногие исследователи общего искусственного интеллекта полагают, что есть возможность создать систему, которая будет полностью безопасной, — говорит Герцель.

— Но это не беспокоит большинство, поскольку в этой жизни вообще нельзя ничего гарантировать».

Совет

Герцель считает, что как только мы создадим систему общего искусственного интеллекта или ее зародыш, мы сможем провести исследования и эксперименты, которые расскажут нам об этике ИИ куда больше, чем мы знаем.

«Надеюсь, таким образом мы сможем сформулировать хорошие теории по этике искусственного интеллекта, которые позволят нам углубиться в эту тему. Но сейчас теоретизировать об этике ИИ довольно трудно, поскольку у нас нет не просто хороших теорий, у нас вообще никаких теорий нет».

«А людям, которые смотрели слишком много «терминаторов», процесс создания искусственного интеллекта может показаться пугающим, поскольку они упускают слово «примитивный» в этом контексте. Тем не менее, самые радикальные изменения случались именно таким образом».

«Когда группа умных пещерных людей изобрела язык, они не ждали разработки прочной формальной теории языка, которая могла бы помочь спрогнозировать будущие изменения, вызванные появлением языка в обществе».

Прежде чем считать разработку очередных «трех законов» технической проблемой, нужно провести массу исследований. И в этом Хельм и Герцель сходятся.

«Мой коллега из MIRI Люк Мюельхаузер подвел итоги наших рассуждений следующим образом. Он сказал, что
проблемы часто переходят из области философии в математику, а затем в инженерию.

Философия зачастую задается правильными вопросами, но самым непрактичным образом. Никто не может наверняка сказать, есть ли какой-либо прогресс в разрешении вопроса. Если мы сможем переформулировать важные философские проблемы, связанные с разумом, идентификацией и ценностью в точные формулы, с которыми сможет справиться математика, тогда можно будет построить кое-какую модель.

В один прекрасный день дойдет и до инженерии».

Хельм считает эту проблему сложной для науки и философии, но прогресс возможен.

«Я скептически отношусь к тому, что философия сможет решить вопрос, над которым бьется более 3000 лет. Но мы тоже не можем взять и начать составлять математические модели вопросов, которых нет технически. Нужно еще много теоретических и даже практических наработок».

Источник: https://znay-obo-vcem.livejournal.com/777253.html

Мораль и этика: реальные опасения по поводу искусственного интеллекта

Требования датских кассиров были просты: менеджмент должен убрать программного обеспечение по отслеживанию их действий, в противном случае кассиры отказываются вернуться к работе. Технологии, которые отслеживали каждое их движение – скорость, эффективность и т. д – были установлены без ведома сотрудников, которые справедливо утверждают, что это вторжение в их частную жизнь.

Этический искусственный интеллект

В то время, как может показаться, что это произошло сегодня, данная ситуация оказалась скандалом почти 40 лет назад в самой большой сети супермаркетов в Дании.

Против прогресса и против новых технологий, кассиры, как истинные луддиты имели обоснованные опасения по поводу того, что новые технологии будут использованы работодателями и использованы во многом против них.

Новые технологии могут не только привести к потери рабочих мест за счет автоматизации, но также могут изменить характер работы и привести ее не в самое приятное русло.

Когда мы сталкиваемся с подобными вопросами, связанными с искусственным интеллектом (ИИ), следует различать страх новых технологий и тревогу о возможных последствиях.

Последнее играет важную роль в жизни здорового социума, важно убедиться, что новые технологии внедряются этически ответственно.

Новые технологии – такие, как искусственный интеллект предлагают нам много возможностей для улучшения нашей работы. Но и множество препятствий.

В США оценка преступных рисков основана на предиктивной аналитике, которая оказалась предвзята в отношении чернокожего населения – данные, используемые для построения системы были изначально ошибочно проанализированы, в результате более поздние прогностические оценки Чикагской полицейской системы оказались абсолютно бесполезны. Оказалось, что система не помогает снизить уровень криминала. 

Вопросы воздействия автоматизации и технологий

Мы должны начать зрелый, осознанный и всеобъемлющий диалог по поводу будущего автоматизации и потенциального воздействие новых технологий на социум. Ройтер, председатель американской ассоциации автомобилистов выступал за такой диалог еще в 1955 году.

Он призвал промышленность, рынок труда, сельское хозяйство, и правительство работать вместе, чтобы разработать “широкую экономическую и социальную политику, чтобы гарантировать, что эта новая «власть машин» ответственно используется в экономическом, социальном и моральном смысле”.

Машины берут на себя некоторые функции людей уже на протяжении веков, и почти так же давно, люди обсуждают, спорят, и спорят, как на это реагировать. Но эти страхи повторяются. Даже те поколения, которые признают рецидивирующий характер этих страхов не могут противостоять этому процессу, постоянно делая все новые предсказания конца света, массовой безработицы или исчезновения работы.

Каждое новое поколение убеждает себя, что они живут в век, когда в конце концов, исключение начнет подтверждать правило. Искусственный интеллект – это исключение из правил? Даже если ИИ не является действительно существенным шагом вперед, это не значит, что он не будет иметь глубокое влияние на общество.

Именно сейчас мы должны объективно поговорить о краткосрочных и долгосрочных последствиях этих новых технологий, прежде чем тревожиться, беспокоиться и бояться попробовать их в действии.

Например, хотя бы посмотреть вперед и сделать прогнозы, какие навыки могут быть полезны в будущем – это поможет нам подготовить новое успешное поколение, не смотря на возможные препятствия (потери работы и т.д.).

Источник: https://ledigital.ru/artificial-intelligence/ai-ethics

Моральные проблемы создания искусственного интеллекта и копий личности. – ИИ, искуственный интеллект, копия личности

Философия искусственного интеллекта задаётся вопросами о «мышлении машин», рассматривает вопросы:

Может ли машина действовать разумно? Может ли она решать проблемы, которые человек решает с помощью размышлений?Может ли машина иметь разум, сознание, психическое состояние в той мере, в которой ими обладает человек. Может ли она чувствовать?Одинакова ли природа человеческого и искусственного интеллекта? Является ли в своей основе человеческий мозг компьютером?

Эти вопросы отражают интересы различных исследователей искусственного интеллекта, философов, исследователей познавательной (когнитивной) деятельности. Ответы на эти вопросы зависят от того, что понимается под понятиями «интеллект» или «сознания», и какие именно «машины» являются предметом обсуждения.

Обратите внимание

Споры о том может ли искусственный интеллект мыслить , испытывать эмоции , чувствовать ведутся уже давно. Первым этот вопрос поставил Алан Тьюринг в 1950 году.

 Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, его же словами подход и характеризуется:

Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум.

Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

В своем мысленном эксперименте «Китайская комната», Джон Сёрль показывает, что даже прохождение теста Тьюринга может не являться достаточным критерием наличия у машины подлинного процесса мышления.

Мышление есть процесс обработки находящейся в памяти информации: анализ, синтез и самопрограммирование.

Аналогичную позицию занимает и Роджер Пенроуз, который в своей книге   “Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем.

Этические проблемы создания искусственного разума

Этот раздел содержит вопросы, касающиеся искусственного интеллекта и этики.

Если в будущем машины смогут рассуждать, осознавать себя и иметь чувства, то что тогда делает человека человеком, а машину — машиной? Если в будущем машины смогут осознавать себя и иметь чувства, возможно ли будет их эксплуатировать или придется наделять их правами? Если в будущем машины смогут рассуждать, то как сложатся отношения людей и машин?

Хотел бы предложить представить себе следующую ситуацию , которая подразумевает , что правы все-таки сторонники теории сильного ИИ .Обычный человек в будущем , чтобы зароботать денег разрешает сделать электронную копию своей личности для участия в жестоком эксперименте (например , как повлияет на психику человека сто лет одиночного заключения без общения; конечно сто лет ждать не будут , просто смоделируют , чтобы для виртуальной личности время шло по другому) , он приходит на процедуру , ему одевают шлем или запускают в организм нанороботов , он отключается , а приходит в себя уже в виртуальной реальности в этой самой комнате-тюрьме. То есть , он уже не он , а электронная копия. При этом он осознает самого себя так же , как и раньше , мыслит , чувствует. Как вам такая ситуация ? (хотя это больше напоминает сюжет для фантастического рассказа) Интересно , согласились бы знаменитости , чтобы их копии за деньги (за большие деньги) продавались на рынке (фанаты в восторге) ? Конечно , купивший такую копию получит доступ ко всем воспоминаниям и секретам , но ведь память ,наверно можно будет отредактировать , затерев нужные места. Или продавать личность в кодированном виде со специальной программой , которая блокировала бы некоторые функции (все равно взломают). Правельнее разместить такую копию на сервере и брать плату за доступ через интернет.

И в заключение хочу привести одну интересную статью на тему , высказывайте свое мнение (особенно если хорошо разбираетесь в программировании)

Моральные проблемы создания искусственного интеллекта

Может ли страдать тетрадка в клеточку, или моральные проблемы создания искусственного интеллекта

Когда я рассказываю о нашей работе над искусственным интеллектом, меня иногда спрашивают, что я думаю о моральных проблемах создания искусственного интеллекта и переноса человеческого разума на электронный носитель.

Важно

Как будет осознавать себя искусственный разум? Не будет ли у человеческого разума, перенесённого на электронный носитель, болеть «ампутированное тело»? Гуманно ли ставить негуманные опыты над искусственным интеллектом или электронными копиями реальных людей?

Так вот, я считаю, что страдания искусственного разума — полная чушь.

разума — полная чушь.

Искусственный интеллект может более или менее точно имитировать мысли или чувства, но сами мысли или чувства он не испытывает.

Любая программа, в том числе, искусственный интеллект делает только одно — считывает биты из ячейки памяти, проводит с ними логическую операцию и записывает результат в ячейку памяти. Всё! А уже человек интерпретирует результаты считывания и записывания как результат действия программы: вычисление значения функции, выполнение банковской операции или проявления чувств искусственного разума.

Возможно, кого-то вводит в заблуждение то, что ИИ мыслит, чувствует и реагирует на внешние воздействия в реальном времени и правдоподобно: расскажешь анекдот — рассмеётся как человек, «ударишь по голове» — заплачет и т.д.

Однако ИИ вовсе не обязательно должен выполняться на компьютере в реальном времени. Как и любую программу, его прекрасно можно выполнить в тетрадке.

Ещё раз повторю: ИИ, как и любая другая программа, состоит из инструкций: считать данные из ячейки памяти, провести над ними логическую операцию, записать данные в ячейку памяти. Представим, что вместо кремниевой оперативной памяти у нас будет тетрадка в клеточку, а вместо компьютера — лаборант

Лаборант по инструкции (т.е., по тексту программы ИИ) тупо считывает нужные клеточки в тетрадке, проводит какие‐то манипуляции, и заштриховывает клеточки, опять считывает и заштриховывает… Искусственный интеллект начинает «жить».

Совет

Затем мы даём лаборанту листок с клеточками, означающими страшные издевательства над нашим бедным искусственным разумом: его пытают, мучают, заставляют заполнять налоговую декларацию или верстать под Internet Explorer 5…

Лаборант считывает и заштриховывает клеточки, что означает страшные мучения ИИ, конвульсии и крики.

Теперь вопрос: кто же при этом испытывает мучения?

Лаборант? Да он вообще не понимает, что означают эти клеточки. Он мучается разве что от того, что его заставляют выполнять идиотскую работу за какие-то 3 000 рублей в месяц.

Тетрадка? Ну, как говорится, бумага всё стерпит…

Некая система «лаборант — инструкция — тетрадка»? Это уж слишком мудрёно…

Итак, мы убедились, что ИИ не мыслит и не чувствует. Вы довольны? Что опять не так?

Но ведь человеческий мозг тоже можно представить в виде тетрадки в клеточку: нейрон получает сигнал от соседних нейронов, проводит над ним определённые действия и передаёт другим нейронам.

Но я не соглашусь с тем, что я не испытываю чувства!

Верующие люди сказали бы, что у человека есть душа, которая чувствует, а мозг лишь служит для связи души с телом.

Неверующие сказали бы, что мы просто недостаточно ещё знаем о работе мозга.

Не мне судить, кто из них прав. Однако, можно сказать точно, что ИИ созданный как обычная компьютерная программа,

мыслить и чувствовать не может.

 сознание — это очень хитрая штука… «Это — факт очевидный для того , у кого оно  есть (я знаю, что у меня есть сознание), и совершенно недоказуемый для всех остальных (окружающие меня люди не увидят разницу между мной, и сложной системой, в точности имитирующей мои реакции на внешние сигналы)

Обратите внимание

для создания использовалась статья http://www.alik.su/articles/artificial-intelligence/ и википедия.

Источник: http://trendclub.ru/8110

О “морали искусственного интеллекта” и моральных дилеммах для всех – от президента до аптекаря..

?gala_gala15 (gala_gala15) wrote,
2016-07-02 23:48:00gala_gala15
gala_gala15
2016-07-02 23:48:00Прочтите маленькую заметку о крупной проблеме, заставляющую задуматься о значительно большем, нежели сложности разработки морали искусственного интеллекта –
МОСКВА, 2 июл — РИА Новости.

Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением всеобщей компьютеризации. Массачусетский технологический институт создал тест, помогающий понять моральные дилеммы, с которыми сталкиваются разработчики разума машины.
Тест крайне простой.

Человеку предлагается поставить себя на место искусственного интеллекта самоуправляемого автомобиля и решить, кем пожертвовать в ДТП — пассажирами в машине или пешеходами на перекрестке. Другой вопрос заставляет выбирать, кого из пешеходов придется задавить, чтобы спасти других.

В конце теста пользователю сообщают, кем он жертвовал чаще всего и приводятся результаты других опрашиваемых.
*****************************************
и пару комментариев к ней –
vip.dim50 -ИИ выберет убить всех, вт.ч водителя. Простая арифметика – нет водителя, нет причин возможных будущих аварий.

Плюс нет пешеходов, нет будущих аварий. Итог квантовых вычислений – нет людей, нет проблем. Чистый, безопасный, тихий мир. И скайнет с ухмылкой терминатора запускает все ракеты…
lexander Andreev -Ну прямо анекдот: В Грузии сдает парень на права и сотрудник полиции, чтоб добить задает вопрос: Ситуация, справа крутой обрыв, слева скала.

Тебе дорогу переходят бабулька и молодая девушка, кого будешь давить?Конечно бабушку, она своё отжила:)
Идиот!!! Тормоз давить надо, тормоз!!!
*************************************На самом деле, простенькая заметка  о новых достижениях айти-отрасли навела на мысль о том, что основной задачей власти вообще и сейчас, в особенности, является решение череды сложных моральных дилемм.При этом угодить всем, по определению, невозможно, потому и дилемма, а волна возмущения обиженными в любом случае будет поднята, причем небезосновательно – дилемма-то моральная, то есть, всякий выбор будет в чем-то и для кого-то аморален.

Чтобы понять всю сложность и трагизм ситуации необходимости однозначного выбора при наличии моральной дилеммы, приведу самые известные ее случаи, помимо классического, с принятием врачом решения об эвтаназии, например –

[примеры моральных дилемм]1.Трагедия Софии Завистовской. В новелле У. Стирона «Выбор Софии» (1976) польскую женщину, оказавшуюся в фашистском концентрационном лагере Аушвитц, «награждают» возможностью не быть признанной еврейкой и, следовательно, спасти себя. Её поставили перед выбором обречь на газовую камеру либо дочь, либо сына, который старше своей сестры. В случае если София не сделает выбора, будут уничтожены оба – и дочь, и сын. Она принимает решение в пользу дочери, надеясь, что сын сумеет спасти себя быстрее, чем дочь. Бедная женщина теряет связь с сыном, так и не узнав о его судьбе. Терзаясь мыслями о нем, София спустя годы совершает суицид.2.Конфликт долга. К выдающему французскому философу Ж.-П. Сартру как-то пришёл его ученик, который просил совета. Ему хотелось стать участником «Сражающейся Франции», организации, боровшейся против фашистов, но его беспокоила судьба матери, тяжело переживавшей смерть своего старшего сына. «Что делать, – вопрошал юноша, – остаться с матерью или же уйти в ряды вооружённых сил?» У него было много доводов в пользу как первого, так и второго решения. Ни наука, ни писаная мораль не давали ему ответа на поставленный вопрос. Сартр же был по-философски суров: «Вы свободны, выбирайте сами». Смысл ответа знаменитого экзистенциалиста таков: каждый сам ответствен за свой поступок. При всём желании Сартр оказался не в состоянии помочь своему юному другу.3.Несчастье Павлика Морозова. Председатель пионерского отряда села Герасимовки Свердловской области был убит в 1932 г. за донос на своего отца, прятавшего зерно. Показательно, что поступок Павлика и его судьба по-разному оценивались в различные исторические периоды. В советские годы пионер был провозглашён национальным героем, в постсоциалистический период в России его признали предателем и отцеубийцей. Пишущие о поступке Павлика Морозова не обращали никакого внимания на то, что мальчик 14 лет оказался в типичной ситуации моральной дилеммы.

4.Драма Н.В. Тимофеева-Ресовского. По просьбе немецкой стороны молодого талантливого русского генетика Тимофеева-Ресовского направили работать в г. Бух, где ему создали прекрасные условия для научного творчества. Прошли годы, и возмужавший учёный, бывший к тому времени отцом двоих сыновей, оказался в ситуации моральной дилеммы.

Российская сторона, начиная с 1937 г., требовала его возвращения на родину, но, предупреждённый товарищами, он знал, что ему был предуготовлен сталинский лагерь. Тимофеев-Ресовский остался в Германии, где властвовал фашистский режим, к тому же Германия развязала войну против СССР. Мужественный учёный сохранял хладнокровие.

Но на протяжении многих лет трагизм ситуации не только не убывал, а, наоборот, возрастал. Погиб его старший сын, участник группы подпольщиков.

Сам Тимофеев-Ресовский, чудом избежав расправы со стороны немецких нацистов, возвратился после их краха в Россию, где он мечтал организовать перспективный научно-исследовательский институт, но был осуждён на 10 лет заключения.

Важно

Впоследствии ему удалось вернуться к активной научной работе, но прошлое постоянно напоминало о себе пожилому учёному. Он приобретал всё новых и новых друзей, признававших в нем выдающегося ученого и патриота, и врагов, относившихся к нему как к коллаборационисту.

Последние по настоящий день склонны считать, что, во-первых, за обсуждаемую ситуацию моральной дилеммы был ответствен сам Тимофеев-Ресовский, во-вторых, что он мог преодолеть её.

При этом противники учёного, в том числе обладающие научными степенями, не проявляют даже малейшего желания сколько-нибудь серьёзно отнестись к самой проблеме моральной дилеммы. Они никак не могут понять, что она была в принципе непреодолимой. Тимофеев-Ресовский не по своей воле был обречён на трагедию. Трагедия не преодолевается, она переживается в муках и сомнениях. Винить за неё пострадавшего человека нет никаких оснований. С позиций этической теории это безответственно, ибо недопонимается сам статус этической теории, в том числе вся проблематика моральных дилемм.via

******************************************Так вот – президент РФ за последние пару лет находится постоянно в состоянии необходимости принятия решения по поводу череды моральных дилемм, вызовов, бросаемых ему временем и обстоятельствами, точнее, злой волей противника, нацеленного на уничтожение России…

Вот только несколько – введение войск на Донбасс для защиты русских&недопущение втягивания России в войну, наказание Турции за сбитый самолет и погибшего пилота&

недопущение втягивания России в войну, ответ НАТО на череду провокаций на границе&недопущение втягивания России в войну. То есть, все моральные дилеммы, ставящиеся перед Россией Западом, в сущности,  сводятся к одной, что наводит на глубокие размышления…
Но, в то же время, дает однозначный ответ на вопрос – стоит ли всякий раз, в случаях не столь однозначных альтернатив, подвергать сомнению правильность решения человека, перед которым жизнь ставит моральные дилеммы трагической обостренности, требующие для их осмысления и решения значительно большие интеллектуальные и нравственные усилия, нежели при постижении рядовых, штатных ситуаций?И кто из нас посмеет судить героев приведенных выше дилемм за их решение в пользу того или иного выбора?  А президента, решающего судьбу, не свою или группы близких людей, но целой страны – кто может судить, не зная, практически никогда, имеющихся альтернатив?Если же кто-то все таки делает это (примеры приводить, я полагаю, нет необходимости), то – по какому праву и с какой целью?

Кстати, отличные киноиллюстрации сложности решения моральных дилемм даны в упомянутом Выборе Софи, а также, например, в фильмах датчанина Т. Линдхольма Заключенный, Заложники, Война, для самых занятых в короткометражке Дилемма (9 мин экранного времени)…

И – да, попробуйте протестироваться на предмет решения упомянутых выше моральных дилемм с позиции массачусетского эксперимента, поставив себя на место самоуправляемого субъекта искусственного интеллекта и определив – кем, или чем пожертвовать…


Если хотите устроить самопроверку на предмет способа решения моральных дилемм строго в соответствии с канонами психологического эксперимента, попробуйте решить “дилемму аптекаря Хайнца” –
[моральная дилемма Хайнца]

Женщина умирает от особой формы рака. Есть только одно лекарство, которое, по мнению докторов, могло бы ее спасти. Это препарат радия, недавно открытый фармацевтом в этом же городе. Изготовление лекарства стоит дорого. Но фармацевт назначил цену в 10 раз больше. Он заплатил 400 долларов за радий, а за небольшую дозу лекарства требует 4000 долларов.

Муж больной женщины, Хайнц, обошел всех знакомых, взял взаймы сколько смог и использовал все легальные средства, но собрал лишь около 2000 долларов. Он сказал фармацевту, что жена умирает, и просил его продать лекарство дешевле или подождать с остальными деньгами. Но фармацевт ответил: «Нет, я открыл это лекарство и собираюсь хорошо на нем заработать».

И тогда Хайнц решил взломать аптеку и украсть лекарство.
Вопросы

  1. Должен ли Хайнц украсть лекарство? Почему?
  2. Если бы Хайнц не любил свою жену, должен он был бы украсть лекарство для нее?
  3. Предположим, что умирает не его жена, а чужой человек. Должен ли Хайнц стащить лекарство для чужого? Почему да или нет?
  4. Предположим, этот Хайнц все-таки залез в аптеку. Он украл лекарство и дал его жене. На следующий день в газетах появилось сообщение о грабеже. Офицер полиции Браун, который знал Хайнца, прочитал сообщение. Он вспомнил, что видел Хайнца бегущим от аптеки, и понял, что это сделал именно он. Должен ли офицер Браун сообщить о том, что кражу совершил Хайнц?
  5. Допустим, офицер Браун — близкий друг Хайнца. Должен ли он тогда подать рапорт о том, что он видел?
  6. Представим, что офицер Браун сообщил о Хайнце. Хайнц был арестован и предстал перед судом. Должен ли судья определить Хайнцу наказание или он должен освободить его?

Решение дилеммы
Самое главное: «правильного» решения этой дилеммы нет! Если человек считает, что аптеку нужно взломать, его нельзя назвать более нравственным или менее нравственным. Весь вопрос в том, как принимается решение. И здесь Колберг выделяет несколько стадий нравственного развития.

Этап 1. Повиновение. Хайнц не должен красть лекарство, потому что его посадят за это в тюрьму. Или: Хайнц должен украсть лекарство, потому что оно стоит только 400 долларов, а не 4000, которых требует фармацевт.

Этап 2. Собственный интерес. Хайнц должен украсть лекарство, потому что он будет очень счастлив, если спасет жену. Или: Хайнц не должен красть лекарство, потому что тюрьма — ужасное место, и он будет там страдать больше, чем от смерти жены.

Этап 3. Конформизм. Хайнц должен украсть лекарство, потому что его жена ждет этого и он хочет быть хорошим мужем. Или: Хайнц не должен красть лекарство, потому что он пытался сделать все, что мог, в рамках закона, мы не можем его ни в чем обвинить.

Этап 4. Закон и порядок. Хайнц не должен красть лекарство, потому что закон запрещает кражу. Или: Хайнц должен украсть лекарство для своей жены и принять положенное за это наказание, а также заплатить фармацевту всю сумму.

Этап 5. Права человека. Хайнц должен украсть лекарство, потому что каждый имеет право на жизнь, независимо от норм закона. Или: Хайнц не должен красть лекарство, потому что фармацевт имеет право на свой доход.

Этап 6. Универсальная этика. Хайнц должен украсть лекарство, потому что спасение человеческой жизни — это более фундаментальная ценность, чем право собственности другого человека. Или: Хайнц не должен красть лекарство, потому что другие так же сильно нуждаются в нем и их жизни представляют такую же ценность, как жизнь его жены.

Источник: https://gala-gala15.livejournal.com/171334.html

К вопросу об этике и системах искусственного интеллекта

Обсуждая проблемы этики в области систем искусственного интеллекта, авторы предлагают вернуться к конструктивной постановке вопроса о соответствии интеллектуальных систем (ИС) этическим нормам.

В работе утверждается, что суть этичности ИС заключается в том, что, принимая критически важные для человека решения, ИС должны использовать этические императивы, рассматривая их как некие поисковые эвристики.

Также в работе рассматриваются вопросы достаточности современных моделей, методов и технологий для формализации этических понятий и отмечается, что основной проблемой является процедура верификации ИС на соответствие этическим нормам. Делается вывод, что основной формой этой верификации является использование комплексных тестов Тьюринга.

Ключевые слова: искусственный интеллект, автономные системы, этика, этический выбор, эвристики, верификация этического соответствия, онтология.

Совет

Discussing the problems of ethics in the sphere of artificial intelligence systems, the authors propose to return to a constructive formulation of the issue of correlation between intellectual systems (IS) and ethical norms.

The paper argues that the essence of the IS’s ethical nature lies in the fact that when taking a critically important decision for a human, IS should use ethical imperatives treated as certain search heuristics.

The paper also discusses the adequacy of modern models, methods and technologies for the ethical concepts formalization, and notes that the main problem is the procedure of verifying IS in terms of their compliance with ethical standards. It is concluded that the main form of this verification is the use of complex Turing tests.

Keywords: artificial intelligence, autonomous systems, ethics, ethical choice, heuristics, ethical compliance verification, ontology.

1. ВВЕДЕНИЕ

В последние годы активно если не развиваются, то по крайней мере широко обсуждаются темы этики в искусственном интеллекте (ИИ), угроз, происходящих от ИИ, различного рода гуманитарных аспектов создания систем ИИ.

Будучи очень давней темой, появившейся задолго до того, как было сформулировано само понятие ИИ, и в большинстве сводящейся к пресловутому «бунту машин», эти вопросы сегодня получают новое звучание.

Притом, несмотря на множество спекуляций, а зачастую – безграмотность рассуждений, в этом звучании появляются вполне здравые высказывания, связанные с некоторыми аспектами проектирования и применения технических систем, поведение которых является значимым для человека.

В первую очередь эта тенденция связана, разумеется, с ростом числа критически важных, потенциально опасных систем, работающих автономно.

В этой работе мы рассмотрим вопросы соотношения этики и искусственного интеллекта с критических позиций. Здесь важно подчеркнуть, что наблюдается некоторая путаница в самой постановке вопроса.

Чаще всего, как будет видно ниже, речь идет об этичности применения систем искусственного интеллекта в тех или иных областях.

Говорят о различного рода рисках и опасностях, связанных с использованием систем ИИ, о социальных последствиях и даже о том, насколько важно, чтобы сами разработчики ИИ соответствовали этическим нормам.

Обратите внимание

Мы же далее будем говорить об этических аспектах функционирования таких систем, о том, насколько их поведение может быть обусловлено этическими парадигмами, нормами, представлениями. При этом мы постараемся не только отыскать некоторое рациональное зерно в рассуждениях об этике ИИ, но и сформулировать ряд технических задач, решение которых представляется значимым для данного вопроса.

Начнем с того, что вопросы соотношения этики и искусственного интеллекта коренным образом отличаются от того, что понимается, например, под этическими проблемами генных технологий, информатики, естествознания и т. п.

Это отличие определяется тем, что в искусственном интеллекте этические вопросы ближе к пониманию этики в философском или социогуманитарном смысле, и связаны эти этические аспекты прежде всего с тем, что они касаются вопросов поведения и принятия решений.

Будем полагать, что сам термин «искусственный интеллект» здесь и далее понимается в метафорическом смысле (равно как и термин «этика», под которым обычно понимается философская дисциплина, исследующая вопросы морали и нравственности, что бы под этим ни подразумевалось).

Отметим, что здесь и далее авторы менее всего хотели бы вторгаться в область философии, профессионально занимающейся вопросами этики. В этой работе нам будет достаточно лишь общего, схематического представления об этике и связанных с ней аспектах, равно как и представления о том, что такое ИИ.

Для более полного понимания этики можно обратиться, например, к работе Р. Г. Апресяна [2017].

Источник: https://www.SocioNauki.ru/journal/articles/1563583/

Этика 2.0: зачем машинам учиться принимать сложные решения

Как современные технологии меняют или могут менять общество? Мы уже находимся в ситуации, когда коммуникации поменялись под влиянием развития интернета, в первую очередь мобильного интернета. Эти изменения до сих пор никак не отрефлексированы.

То есть люди попали в ситуацию, когда из любого кармана, из гаджета, который доступен подростку, доступна по большому счету вся совокупность знаний человечества — и при этом это никого не трогает.

Все считают, что так всегда было и никаких серьезных культурных изменений не произошло.

Важно

Когда мы говорим про технологическое будущее, в частности про будущее, где есть разумные машины или, по крайней мере, автономные машины, способные самостоятельно действовать в сложной среде, мы постоянно попадаем в ловушку, навязанную нам массовой культурой.

Я загуглил термин «war machines», и гугл выдал мне более 60 миллионов совпадений. Говоря о том, как будет выглядеть будущее, люди постоянно возвращаются к теме, придуманной в «Терминаторе».

Сейчас включился второй сценарий: даже если воевать с машинами мы не будем, то, говорят нам, машины отберут все рабочие места. Все это уводит нас от реальных проблем.

Типичным примером реальной проблемы может считаться идея, сформулированная в книге Юваля Ноя Харари «Homo Deus».

Харари высказывает радикальный тезис: будущее, к которому нам стоит готовиться, связано с концом и реальной уникальности человека в качестве субъекта, и наших представлений о том, что только человек может обладать этой уникальной субъектностью.

То есть, иными словами, если до сегодняшнего момента и по состоянию на 2016 год в человеческой истории, в человеческой культуре всегда действовали только люди (люди как солдаты, люди как избиратели, люди как экономические агенты), то в ближайшем будущем, помимо людей, появятся другие системы, которые будут в состоянии принимать решения и действовать в рамках реального мира, изменив социальную реальность. И это реальный риск. Эта вещь гораздо более серьезная, чем примитивные фантазии насчет войны людей и машин.

Если мы создаем машины, которые действуют в автономном режиме, то очевидно, что автономно действующая машина должна обладать неким набором этических представлений.

Реальная перспектива нашего будущего — эволюция людей и машин, которая выглядит гораздо более сложной, чем просто, например, процесс автоматизации рабочих мест. Мы понятия не имеем, к какому социальному сценарию, набору рисков это все приведет.

Совет

И самое неприятное здесь, на мой взгляд, то, что у нас нет хорошей теории, которая бы все это описывала, потому что все известные людям социальные теории, начиная с античной классики, всегда были ориентированы на то, что в мире действуют и принимают решения только люди.

Нет ни одной теории, описывающей, что люди становятся либо младшими, либо равноправными партнерами какого-то другого вида, субъекта, который также в состоянии принимать решения.

Самый известный проект об обучении машины этике — Moral Machine, созданный в Массачусетском технологическом институте.

На сайте можно запустить программу, в которой вам предложат поучаствовать в тренировке автомобиля-робота: есть несколько сценариев, и нужно будет выбрать более этичный (на ваш взгляд).

Правильно ли врезаться в заграждение и не сбивать пешехода? Или сбить пешехода, который переходит дорогу на красный свет, при этом его убить, но не рисковать собственной жизнью?

Система нацелена на самообучение и опрашивает людей, какой выбор они считают правильным, — машина статистически понимает, что обычно люди принимают именно это решение.

Следовательно, мы тренируем некую автономную систему считать правильными те решения, которые чаще других выбирают люди, попавшие в сложную этическую ситуацию.

Кто-то удачно шутил, что как мы выбираем себе кожаный салон определенного цвета в автомобиле, так же мы будем выбирать автомобилю его этическую систему. Хотите ли вы систему прагматическую или кантианскую? Все будет включено в стандартную или расширенную комплектацию.

Здесь любопытно, что мы вообще считаем этикой. Это результат конвенции: этика возникает в результате того, как люди договариваются между собой. Этика — это то, что мы договорились считать этичным в данном сообществе в данную эпоху в данное время.

Обратите внимание

Но теперь этика еще и опосредована большими данными. То есть робот, который едет по дороге, этичен, потому что он учел все вероятные случаи и статистическое мнение людей по поводу всех возможных этических проблем. В этом и состоит ее (машины) обучение.

Мораль машины в разном контексте обсуждается также и в литературе. Примечательны всем известные законы робототехники Азимова. Этот пример показывает, насколько сильно сегодняшний мир отошел от тех идей, которые были связаны с проектированием роботов в 50-е годы. Азимов, по сути, предлагает аксиоматическую систему.

То есть существует три закона робототехники (начиная с «не нанести вред человеку»), и получается, что мы задали три аксиомы и потом применяем эти аксиомы ко всем возможным случаям, возникающим в реальности.

Если бы мы отмотали на шаг назад, то увидели бы, что вот эта современная моральная машина MIT проектирует правильное решение совершенно другим образом: там нет ни одной аксиомы, но есть статистический выбор.

Как только мы создаем достаточно эффективного робота, способного принимать самостоятельные решения, то получается, что в реальности такая система оказывается более морально совершенной, чем человек-водитель.

Когда коммерческие роботы-автомобили войдут в широкое употребление, их создатели, безусловно, будут настаивать на том, что эти роботы, во-первых, безопаснее (это стандартный тезис), а во-вторых, точнее решают сложные моральные дилеммы, когда находятся на дороге.

Так почему этот частный случай нельзя сделать универсальным? Почему бы не создать универсальную моральную машину, которая будет предлагать некое правильное моральное решение для каждого конкретного случая, опираясь на всю совокупность известных данных? Почему бы нам просто не передать решения всех моральных проблем на откуп некой машине, которая в состоянии оперировать большими данными и делать это корректно и убедительно для нас самих — более убедительно, чем какой бы то ни было человек?

Если мы допускаем, что в обществе могут существовать другие субъекты, кроме людей, то мы можем допустить существование моральных автономных субъектов. Следовательно, нам придется принять мир, где не только люди будут способны заявлять о том, что такое хорошо и что такое плохо.

Важно

Конструирование моральных машин является наилучшим способом познания человеческой этики.

Отчасти этот сюжет мы уже проходили: всплеск интереса когнитивной психологии к экспериментальному исследованию человеческого разума во многом связан с тем, что перед нами встала задача по определению того, возможен ли искусственный интеллект, как он должен быть сконструирован.

То есть старая философская проблема о том, что такое разум, в течение XX века превратилась в инженерную проблему и таким образом получила совершенно новую интерпретацию. С моралью сейчас происходит похожая вещь.

Это влечет неопределенные социальные последствия: создание машины, способной на основе анализа данных выносить безошибочное для нас самих моральное суждение, ведет к консервации этики.

То есть, если у вас есть машина, которой доверяются этические суждения, не очень понятно, каким способом этика способна трансформироваться.

В то же время мы видим, как этика в течение всей истории человеческой культуры меняется (начали мы как вид не только рабовладельцев, но и как вид каннибалов, — так считают сейчас некоторые антропологи). Сейчас считается, что и то и другое нехорошо, хотя с прагматической точки зрения, может быть, это было вполне приемлемо.

Также есть еще не решенные этические проблемы: этическое вегетарианство, этическое отношение к нечеловеческим существам. Если мы отдадим этику на аутсорс машинам, то мы можем ее законсервировать, и это приведет к совершенно неочевидным последствиям. Возможно, это станет самым глубоким консервативным поворотом в истории.

А если сюда добавить еще какие-то политические соображения, то этическая машина может стать самым удобным изобретением для тех людей, которые хотят при помощи некой ссылки на моральный авторитет гарантировать сохранение своей власти. Или можно прекрасно представить себе такую антиутопию, где возникает новая религия, связанная с самыми неочевидными последствиями, где место Бога занимает эта универсальная моральная машина.

Источник: https://theoryandpractice.ru/posts/15080-etika-2-0-zachem-mashinam-uchitsya-prinimat-slozhnye-resheniya

Ссылка на основную публикацию
Adblock
detector