Проблема сильного искусственного интеллекта: ризоматичность логики

Искусственный интеллект, основанный на логике

— Я всё обдумал, — сказал Альберт. — Работая, я всю ночь думал и думал. И я сделал робота-юриста. — Робота-юриста?— Да, робота с большим объемом памяти, чем у остальных, и мощным решающим устройством, которое руководствуется законами формальной логики. Ведь право основано на логике, не так ли? 

— Наверно, — ответил Ли. — Во всяком случае, должно основываться.

«Сделай сам», Клиффорд Саймак.

Мы уже упоминали о трёх основных направления в современном программировании: алгоритмическом, статистическом и логическом. Наиболее важную роль играет алгоритмическое программирование.

Это примерно 99% процентов всех существующих программ, включая веб-сайты, операционные системы, текстовые редакторы и компьютерные игры. Статистическое направление позволяет решать некоторые специфические задачи, которые невозможно было решить алгоритмически.

Оно сейчас бурно развивается: нейронные сети, bigdata, machinelearning– это всё разные названия примерно одного и того же.

Обратите внимание

Логическое направление тоже успешно используется для определенного круга задач, но по причине отсутствия ярких успехов за последние годы интерес широкой общественности (в том числе, и юридической) к нему явно снизился. Тем не менее, на наш взгляд, если право и удастся связать с программированием, то, прежде всего, посредством логики (совпадение?).

Одним из первых применением логического подхода к искусственному интеллекту стали шахматные (а также шашечные и т. п.) программы. Разберем на примере шахмат просто, потому что это удачный пример по сути и про шахматы все знают. 

Для тех же, кто незнаком с этой древней игрой, мы разберем то же самое на примере школьной алгебры, а в заключение поговорим о перспективах применения такого подхода к юридическим задачам.

Любая логическая программа должна состоять как минимум из следующих компонентов:

  1. формальный язык, с помощью которого можно описать любую ситуацию, из рассматриваемой области;
  2. список или правила построения легальных выражений, данные в терминах этого формального языка;
  3. правила перехода от одного легальноговыражения к другому, сформулированные в терминах формального языка;
  4. описание начального выражения и одной или нескольких возможных конечных выражений, данные на формальном языке;
  5. аналитическая машина, которая переходит от одной легального выражения к другому, пытаясь построить путь от начального состояния в конечное. Если это удается, значит задача решена, если нет – значит она не имеет решения или некорректно сформулирована.

Кажется слишком сложно, но на самом деле все с этим сталкивались в том или ином виде. Например, в шахматах:

  1. Формальный язык. Подойдёт обычная шахматная нотация, где фигуры обозначаются по первой букве, а их положение на доске – буквенно-числовыми координатами. Например, «Крb3» означает, что король находится на вертикали bи горизонтали 3.
  2. Правила построения легальных выражений напрямую следуют из шахматных правил: два короля не могут стоять рядом, не может быть шаха обоим королям, пешка не может находиться на крайней горизонтали и т. д. Всё это при желании можно сформулировать в терминах шахматной нотации. Например, понятно, что позиция «Белые: Крf1 Черные: Крf3» – легальная, а «Белые: Крf1 Черные: Крf2» – нет.
  3. Правилам перехода из одной легальной позиции в другую, собственно, и посвящены правила шахмат: слон ходит по диагонали, а конь – буквой «гэ». Чтобы переписать их в терминах шахматной нотации, надо изрядно постараться, особенно с учетом таких неприятностей как рокировка и взятие на проходе… Но поверьте, что любой программист (да и просто любой желающий) с такой задачей рано или поздно справится.
  4. С начальной ситуацией всё понятно, а конечная ситуация – это мат. Для него есть четкие критерии, которые также можно формализовать.
  5. Аналитическая машина. Здесь нет ничего принципиально сложного. Если вы успешно справились с пунктами 2 и 3, то можете смело звать любого программиста, даже абсолютно не играющего в шахматы, который реализует перебор всех (переходов до) легальных позиций (а на самом деле уже текстов!), и ваша первая шахматная программа готова. Поздравляем! Чудес от неё не ждите, но задачи «мат в 3 хода» она будет щёлкать как орешки.

Если программиста под рукой нет, то придется перебирать варианты самому, чем собственно и занимаются за доской шахматисты.

Так как в большинстве позиций до мата невозможно досчитать даже на современных суперкомпьютерах, реальные шахматные программы устроены несколько сложнее. Но принцип тот же.

Теперь давайте посмотрим, как этот подход работает на примере алгебры.

  1. Формальный язык нам изобретать не надо. В отличии от шахмат, нас всех ему научили против нашей воли ещё в школе.
  2. Правила написания легальных выражений тоже понятны: количество открывающихся скобок должно быть равно количеству закрывающихся и т. д.
  3. Правила перехода от одного легального выражения к другому тоже всем до боли знакомы: «от перестановки слагаемых сумма не меняется» и т. д. Либо можно сразу писать в терминах формально языка: a+b=b+a, aa=a2, a(b+c)=ab+ac,a+a=2a и т. п.
  4. В качестве начального выражения возьмем, к примеру, (x+1)2, а описание конечного выражения зависит от того, какую задачу мы хотим решить. Если «раскрыть скобки», то в конечном выражении не должно быть скобок.
  5. Снова зовем программиста, чтобы он немного подкорректировал аналитическую машину из предыдущего примера, и наш простейший алгебраический калькулятор готов. За доли секунды он продемонстрирует то, чему школьники учатся месяцами: (x+1)2=(x+1)(x+1)=(x+1)x+(x+1)=xx+x+x+1=x2+2x+1

Обратите внимание, что ни в первом, ни во втором случае от программиста не требовалось знания предметной области. Мы все свои шахматные и математические знания сформулировали на формальном языке, после чего программисту нужно было работать исключительно с текстовыми данными. А уж это-то все программисты точно умеют!

Можно ли тот же подход применить в правовых задачах? Давайте разбираться по пунктам.

  1. Формальный язык. Его пока нет. И непонятно, кто и как сможет его составить. Всю свою историю юристы пытаются уйти от естественного языка со всеми его противоречиями и неоднозначностями. В итоге получился язык достаточно занудный, чтобы быть непонятен простому обывателю, и недостаточно формальный, чтобы быть понятным машине.
  2. Правила написания легальных выражений. Здесь будет что-то вроде «судья не может быть одновременно потерпевшим», нельзя обжаловать решение суда до его оглашения и т. д. Мы это сможем сформулировать на любом языке: хоть человеческом, хоть формальном.
  3. Правила перехода от одного легального выражения к другому. Это обычные законы логики. Прямо по Аристотелю: «Если все люди смертны и Сократ – человек, то Сократ смертен».
  4. Начальное выражение – это, например, материалы дела, записанные на формальном языке. Конечное выражение тогда – судебное решение.
  5. Аналитическая машина. Она будет мало отличаться от аналитической машины для шахмат, компьютерной алгебры и других подобных задач.

Как видим, от значительного прогресса в компьютеризации юридической деятельности нас отделяет «всего лишь» отсутствие формального юридического языка. Как только кому-нибудь удастся его создать, всю юридическую сферу ждет такое же преображение, какое случилось в математике после изобретения вычислительных машин.

Надо отметить, что математическая нотация принесла огромную пользу ещё задолго до появления компьютеров: громоздкие многословные записи существенно упростились, произошла унификация языка и понятий, логические переходы стали легко проверяемы, а техника проведения расчетов до того упростилась, что сейчас её умудрятся объяснять в начальной школе. Смеем предположить, что развитие и формализация юридического языка должна привести примерно к тем же последствиям, что и в математике: логические переходы станут более понятными и схематичными, а значит и доступными для проверки, количество грубых ошибок резко уменьшится, и где-нибудь через полвека будущие второклашки между уроками арифметики и английской грамматики начнут постигать основы юридической техники наряду с ОБЖ или иными уроками, где затрагиваются социальные нормы. А потом к ним и компьютерные программы подтянутся…

Почему сейчас такое невозможно, надеюсь, никому объяснять не надо.

В заключение добавим, что, на наш взгляд, до появления формального юридического языка и искусственного интеллекта на его основе невозможно всерьез говорить о практическом применении блокчейн-технологии и смарт-контрактах.

Потому что не видно никакого другого способа запрограммировать хотя бы простейшие юридические понятия.

Или кто-то в самом деле верит, что искусственный интеллект должен помогать юристу вынюхивать пресловутый «дух права»?

Источник: https://zakon.ru/Blogs/iskusstvennyj_intellekt_osnovannyj_na_logike/74994

Проблема искусственного интеллекта

Рубрика: Искусственный интеллект

Искусственный интеллект (Artificial intelligence) – это словосочетание уже очень давно будоражит умы самых гениальных людей планеты. Об искусственном интеллекте задумывались, наверное, уже в конце девятнадцатого века. Но – до сих пор его нет на нашей планете.

Хотя я немного приврал. Проблема искусственного интеллекта уже давно решена. В фильмах =). Выпущено множество фильмов, которые рассказывают о создании и распространении ИИ.

Можно вспомнить очень популярный (до сих пор) фильм восьмидесятых годов – Терминатор. Там люди создали искусственный интеллект, который постепенно внедрили во многие области человечества.

Важно

В результате – он захватил мир и чуть не уничтожил всех людей. Еще один недавний фильм – Я, робот. Там ситуация аналогичная. И еще один фильм приведу, который я совсем недавно еще раз посмотрел – Матрица.

Там вообще авторы дошли до того, что искусственный интеллект выращивает людей с самого их младенчества.

В общем – мнение фантастов по поводу ИИ – самое отрицательное. Искусственный интеллект не приведет ни к чему хорошему. Так ли это? Давайте попробуем поговорить о том, в чем именно проблема искусственного интеллекта.

Самая главная его проблема в том, что сам интеллект еще не изучен. Ученые хотят сделать ИИ похожим на наш мозг. А человеческий мозг еще полностью не изучен. Мозг людей уже вскрывали, ученые поняли, что он излучает множество различных волн. Но точно понять как он функционирует – они до сих пор не смогли. Но все равно пытаются создавать подобия ИИ на тех данных, которые уже получили.

Сейчас существует два крупных подхода к решению проблемы искусственного интеллекте:

Нисходящий ИИ – имитация высокоуровневых процессов (таких, как рассуждение, речь, эмоции, мышление и тд);

Восходящий ИИ – имитация «низкоуровневых» процессов, которые протекают у нас в голове (например – нейронные сети).

При решении проблемы искусственного интеллекта, ученые прибегают к нескольким подходам:

символьному;

логическому;

агентно-ориентированному;

гибридному.

Рассматривать каждый из них не будем.

Сейчас наработки в области искусственного интеллекта пытаются внедрять повсюду (даже там, где компьютеры и не используются). Но, еще никто не обнаружил – в чем именно проблема искусственного интеллекта, еще ни одна группа ученых не разработала нормальный ИИ.

Но уже есть системы, которые чуть-чуть похожи на ИИ. Я приведу небольшой список таких систем:

Deep Blue. Программа для игры в шахматы;

MYCIN. Экспертная система;

20Q. Можно сказать – реализация игры «20 вопросов»;

Распознавание речи. Название говорит само за себя.

Совет

Попытки разработать ИИ предпринимают (причем – очень активно) – и разработчики игр. Так как им ИИ нужен для того, чтобы геймерам не было скучно одинаково проходить похожие игры.

Теперь приведу мнение моего преподавателя в университете по поводу искусственного интеллекта. Он сказал, что не прочь иметь его в своем компьютере. Но не хочет внедрять его в систему безопасности страны, так как действительно думает, что роботы могут поработить нас =)

Лично я считаю, что будущее у искусственного интеллекта есть. Но не знаю, какое именно он будет.

Источник: http://paveldev.blogspot.com/2010/07/problema-iskusstvennogo-intellekta.html

Проблемы искусственного интеллекта (стр. 1 из 2)

План

Введение

1. Проблема определения искусственного интеллекта

2. Проблема определения задач искусственного интеллекта

3. Проблема безопасности

4. Проблема выбора пути к созданию искусственного интеллекта

Заключение

Список использованной литературы

Введение

С Искусственным интеллектом (ИИ) сложилась странная ситуация – изучается то, чего еще нет. И если этого не будет в течение ближайших 100 лет, то очень может быть, что эпоха ИИ на этом окончится.

Исходя из сказанного выше, вытекает основная философская проблема в области ИИ – возможность или не возможность моделирования мышления человека. В случае если когда-либо будет получен отрицательный ответ на этот вопрос, то все остальные вопросы не будут иметь не малейшего смысла.

Следовательно, начиная исследование ИИ, заранее предположим положительный ответ. Привожу несколько соображений, которые подводят нас к данному ответу.

1. Первое доказательство является схоластическим, и доказывает непротиворечивость ИИ и Библии.

Даже люди далекие от религии, знают слова священного писания: «И создал Господь человека по образу и подобию своему…».

Исходя из этих слов, мы можем заключить, что, поскольку Господь, во-первых, создал нас, а во-вторых, мы по своей сути подобны ему, то мы вполне можем создать кого-то по образу и подобию человека.

2. Создание нового разума биологическим путем для человека дело вполне привычное. Дети большую часть знаний приобретают путем обучения, а не как заложенную в них заранее.

Обратите внимание

3. Принципиальная возможность автоматизации решения интеллектуальных задач с помощью ЭВМ обеспечивается свойством алгоритмической универсальности. Это означает, что на них можно программно реализовывать любые алгоритмы преобразования информации, – будь то вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем или композиции мелодий.

Проблема искусственного интеллекта является сейчас одной из самых злободневных. Ею занимаются ученые различных специализаций: кибернетики, лингвисты, психологи, философы, математики, инженеры.

Рассматриваются вопросы: что такое интеллект вообще и чем может являться искусственный интеллект, его задачи, сложность создания и опасения.

И именно сейчас, пока ИИ еще не создан, важно задать правильные вопросы и ответить на них.

В своей работе я в основном использовала электронные источники расположенные в сети интернет, потому как только там есть свежая информация о разработках в области искусственного интеллекта на русском языке.

В приложении я поместила фотографии (некоторых наиболее известных ныне существующих роботов с элементами ИИ) и философскую иллюстрацию (к сожалению не известного мне художника), а также полное описание тестов Тьюринга и Сёрля, на которые я ссылаюсь во второй главе.

1. Проблема определения искусственного интеллекта

Выразить суть интеллекта в каком-то одном определении представляется исключительно сложной, практически безнадежной задачей. Интеллект есть нечто ускользающее, не вмещающееся в установленные языком смысловые рамки. Поэтому ограничимся просто тем, что приведем ряд известных определений и высказываний об интеллекте, которые позволят представить себе «объем» этого необычного понятия.

Некоторые специалисты за интеллект принимают способность рационального, мотивированного выбора, в условиях недостатка информации; способность решать задачи на основе символьной информации; способность к обучению и самообучению.

Достаточно емкие и интересные определения интеллекта даны в английском словаре Вебстера и Большой Советской Энциклопедии.

Важно

В словаре Вебстера: «интеллект – это: а) способность успешно реагировать на любую, особенно, новую ситуацию путем надлежащих корректировок поведения; б) способность понимать связи между фактами действительности для выработки действий, ведущих к достижению поставленной цели».

Читайте также:  Сопоставление задач и примеров использования нейронных сетей

В БСЭ: «интеллект… в широком смысле – вся познавательная деятельность человека, в узком смысле – процессы мышления, неразрывно связанные с языком как средством общения, обмена мыслями и взаимного понимания людей». Здесь интеллект прямо связывается с деятельностью и языком коммуникации.

По большому счету больших разногласий в этом вопросе нет. Интереснее другое: критерии, по которым можно однозначно определить разумный, мыслящий, интеллектуальный субъект перед нами или нет.

Известно, что в свое время А. Тьюринг предложил в качестве критерия, определяющего, может ли машина мыслить, «игру в имитацию». Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить ее ответов от ответов человека. (Более полное описание теста в Приложении )

Однако мысленный эксперимент «Китайская комната» Джона Сёрля (Описание эксперимента в Приложении ) – аргумент в пользу того, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления. Можно и дальше приводить примеры критериев, по которым «машинный мозг» можно считать способным к мыслительной деятельности и тут же находить им опровержения.

Единого ответа на вопрос чем является искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения, рассматривая в его свете достижения этой науки. Эти определения можно свести к следующим:

Искусственный интеллект – это личность на неорганическом носителе (Чекина М.Д.).

Искусственный интеллект – это область изучение разумного поведения (у людей, животных и машин) и попытки найти способы моделирования подобного поведения в любом типе искусственно созданного механизма (Блай Уитби).

Искусственный интеллект – это экспериментальная философия (В. Сергеев).

Сам же термин «искусственный интеллект» – ИИ – AI – artificial intelligence был предложен в 1956 г. на семинаре с аналогичным названием в Дартсмутском колледже (США). Семинар был посвящен разработке методов решения логических, а не вычислительных задач.

Совет

В английском языке данное словосочетание не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе.

Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог: intellect (Т.А. Гаврилова).

Так же существуют термины «сильный» и «слабый» искусственный интеллект.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум – это разум.

«Слабый искусственный интеллект» рассматривается лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

2. Проблема определения задач искусственного интеллекта

Следующим философским вопросом ИИ является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать.

Однако при достаточно высоком уровне жизни человека на первые роли выступает уже не лень, а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный.

Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь нужен? И вообще, нужно ли в принципе создание ИИ?

По-видимому, самым приемлемым ответом на эти вопросы является концепция «усилителя интеллекта» (УИ). Здесь уместна аналогия с президентом государства – он не обязан знать валентности ванадия или языка программирования Java для принятия решения о развитии ванадиевой промышленности.

Каждый занимается своим делом – химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что вложив деньги в промышленный шпионаж, страна получит 20%, а в ванадиевую промышленность – 30% годовых.

При такой постановке вопроса любой человек сможет сделать правильный выбор.

Обратите внимание

В данном примере президент использует биологический УИ – группу специалистов с их белковыми мозгами.

Но уже сейчас используются и неживые УИ – например мы не могли бы предсказать погоду без компьютеров, при полетах космических кораблей с самого начала использовались бортовые счетно-решающие устройства.

Кроме того, человек уже давно использует усилители силы (УС) – понятие, во многом аналогичное УИ. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое другое.

Основным отличием УИ от УС является наличие воли. Ведь мы не сможем себе представить, чтобы вдруг серийный «Запорожец» взбунтовался, и стал ездить так, как ему хочется.

Не можем представить именно потому, что ему ничего не хочется, у него нет желаний. В тоже время, интеллектуальная система, вполне могла бы иметь свои желания, и поступать не так, как нам хотелось бы.

Таким образом перед нами встает еще одна проблема – проблема безопасности.

3. Проблема безопасности

Философские проблемы создания искусственного интеллекта можно разделить на две группы, условно говоря, «до и после разработки ИИ».

Первая группа отвечает на вопрос: «Что такое ИИ, возможно ли его создание?» На них я постаралась ответить в своей работе.

И вторая группа (этика искусственного интеллекта) задаётся вопросом: «Каковы последствия создания ИИ для человечества?», которая приводит нас к проблеме безопасности.

Важно

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин «робот». Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты.

Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение – «Терминатор».

Кстати именно у Айзека Азимова мы можем найти самое проработанное, и принятое большинством людей решение проблемы безопасности. Речь идет о так называемых трех законах роботехники.

Источник: http://MirZnanii.com/a/115471/problemy-iskusstvennogo-intellekta

Проблема сильного искусственного интеллекта: ризоматичность логики

Статья посвящена осмыслению основ разработки систем сильного искусственного интеллекта – психо-машин. Наряду с анализом самой логики, зоны её юрисдикции обсуждается вопрос об инструменте подобного анализа, автор делает акцент на природе логики и метода.

Введение Осмысление философско-методологических основ разработки систем сильного искусственного интеллекта (психо-машин)представляется актуальным в условиях формирования человеком все более сложных и многофакторных искусственных систем … Читать дальше Проблема сильного искусственного интеллекта: ризоматичность логики

Читайте также

Коллекция музея “Огни Москвы” пополнилась ценными экспонатами 25 февраля 1957. Завод им. В. А. Малышева

Таблоид новостей

На 123ru.net все авторские, только что опубликованные новости доступны в разделе “Пользователи сайта”, а также в городе, в котором данная новость опубликована.

Кроме того, наиболее интересные и популярные на сегодня новости (рейтинг определяется по времени публикации и количеству посетителей, которые просмотрели публикацию на данный момент) бесплатно транслируются в автоматическом режиме на страницах партнёрского таблоида (только для новостей с изображениями, прикреплёнными к новости и имеющих достаточное для публикации разрешение и размер). Для трансляции в таблоиде, при публикации не забудьте выбрать раздел новости, в котором Ваша новость и будет впоследствии отображаться. 123 Новости (раз, два, три) – мгновенная публикация новостей из первых уст с ежеминутным обновлением. Первые новости – в первых строках!

Мы отбираем самое интересное, самое актуальное и востребованное именно сейчас, именно в том городе и регионе, где это происходит.

Каждый пользователь сайта в любой момент может опубликовать свою новость в автоматическом режиме без модерации с нашей стороны, соблюдая лишь элементарные правила корректности в высказываниях и общепринятые нормы морали. Стать нашим корреспондентом в любом городе можно прямо сейчас.

Новости от партнёров 123ru.net (NewsHunter):

Мы не берём денег не только за публикации Ваших новостей, сообщений и объявлений, но и рекламу Ваших публикаций на страницах наших таблоидов на всех языках мира. На сегодня наши услуги совершенно бесплатны для всех без исключения пользователей сайта.

Партнерская программа для Вашего сайта (ActionTeaser):Всё, что пишут о , в , для Вашего города и для всех тех, кому это просто интересно, — в наших лентах новостей от первого лица, без какой бы то ни было цензуры, без приоритетов редакторов, без зависимости от политической конъюнктуры, настроений, течений и обстоятельств.

Наш читатель вправе знать всю правду и, поэтому: наш читатель – всегда прав!

На 123ru.net все новости (в том числе и ваши) доступны в переводе на практически любой из популярных языков мира. Для перевода достаточно выбрать из списка языков, размещённого в шапке сайта, интересующий Вас.

Перевод выбранной страницы мы осуществим мгновенно в автоматическом режиме и с индексацией через поисковые системы. Читайте новости на языках мира у нас в режиме онлайн. 123ru.

net — Ваш мир без границ и языковых барьеров! А с недавнего времени мы добавили и новости по разделам, категориям, интересам и блогам, что позволяет получить пользователю сервиса не только оперативную, но и альтернативную информацию по интересующей теме со всего мира, от совершенно разных независимых популярных и не очень источников на одной странице. Сервис также позволяет просмотреть всю ленту новостей по каждому источнику информации отдельно в формате календаря за любую выбранную дату и период.

(что и где купить сегодня в регионе)

Недавно просматривали в рекламных предложениях:

Топ-10 новостей за сегодня на этот час:

123ru.net — быстрее, чем Я…, самые свежие и актуальные новости Вашего города — каждый день, каждый час с ежеминутным обновлением! Мгновенная публикация на языке оригинала, без модерации и без купюр в разделе Пользователи сайта 123ru.net.

Совет

Как добавить свои новости в наши трансляции? Очень просто. Достаточно отправить заявку на наш электронный адрес mail@29ru.net с указанием адреса Вашей ленты новостей в формате RSS или подать заявку на включение Вашего сайта в наш каталог через форму.

После модерации заявки в течении 24 часов Ваша лента новостей начнёт транслироваться в разделе Вашего города. Все новости в нашей ленте новостей отсортированы поминутно по времени публикации, которое указано напротив каждой новости справа также как и прямая ссылка на источник информации.

Если у Вас есть интересные фото Вашего города или других населённых пунктов Вашего региона мы также готовы опубликовать их в разделе Вашего города в нашем каталоге региональных сайтов, который на сегодняшний день является самым большим региональным ресурсом, охватывающим все города не только России и Украины, но ещё и Белоруссии и Абхазии. Прислать фото можно здесь. Оперативно разместить свою новость в можно самостоятельно через форму.

ActionTeaser.ru – тизерная реклама

Топ-10 анонсов новостей от партнёров:

Жёлтые страницы (происшествия, скандалы, юмор и курьёзы):Все новости 123ru.net сегодня

123ru.net — ежедневник главных новостей Вашего города и Вашего региона. 123ru.

net – новости в деталях, свежий, незамыленный образ событий дня, аналитика минувших событий, прогнозы на будущее и непредвзятый взгляд на настоящее, как всегда, оперативно, честно, без купюр и цензуры каждый час, семь дней в неделю, 24 часа в сутки. Ещё больше местных городских новостей Вашего города — на порталах News-Life.

ru и News24.pro. Полная лента региональных новостей на этот час — здесь. Самые свежие и популярные публикации событий в России и в мире сегодня – в ТОП-100. С 2017 года проект 123ru.net стал мультиязычным и расширил свою аудиторию в мировом пространстве.

Теперь нас читает не только русскоязычная аудитория и жители бывшего СССР, но и весь современный мир. 123ru.net – мир новостей без границ и цензуры в режиме реального времени. Каждую минуту – 123 самые горячие новости из городов и регионов. С нами Вы никогда не пропустите главное.

А самым главным во все века остаётся “время” – наше и Ваше (у каждого – оно своё). Время – бесценно! Берегите и цените время. Здесь и сейчас — знакомства на 123ru.net. Отели в Москве — здесь. Разместить свою новость локально в любом городе (и даже, на любом языке мира) можно ежесекундно (совершенно бесплатно) с мгновенной публикацией (без цензуры и модерации) самостоятельно – здесь.

Бесплатное размещение статьи на 123ru.net

Источник: https://123ru.net/money/186204324/

История о том, как нечеткая логика доказала: искусственный интеллект человеку не страшен

Александр Малютин – математик по образованию, 25 лет назад переквалифицировавшийся в журналиста, ныне главный редактор агентства городских новостей «Москва», рассказал, как удачное название помогло математической модели войти в современность и стать частью большой маркетинговой игры.

Нечеткой логике полвека – в июне 1965 года в журнале Information and Control вышла основополагающая статья «Нечеткие множества» (Fuzzy Sets), которую написал американский математик азербайджанского происхождения Лотфи Заде. Долгих ему лет.

Жаль, до юбилея не дожил британский математик танзанийского происхождения Ибрагим Мамдани, который в 1975 году представил первую реальную систему управления с нечеткой логикой – контроллер, следящий за работой парового двигателя.

После чего технология стала активно развиваться, найдя применение во многих областях.

Обратите внимание

Заде 50 лет назад предложил математическое описание живой человеческой логики. В обычной математической логике есть только «истина» (обозначаемая еще числом 1) или «ложь» (0). В нечеткой логике степень истинности высказывания может быть любой – точнее, любым числом от 0 до 1. Красива ли вон та девушка? Ни да, ни нет, а «0.78, что красива». Непривычно звучит.

Как это вообще понять? Для простоты можно считать, что кто-то провел опрос, в котором 78% респондентов назвали девушку красивой, а остальные нет. О’кей. А может ли быть от таких конструкций практическая польза? Вполне.

Допустим, нужно принять решение, отправлять ли девушку на конкурс мисс чего-нибудь (серьезные расходы!), а для этого нужно оценить ее шансы на призовое место. Тогда-то и пригодятся оценки не только красоты, но и других важных для победы и тоже нечетких параметров: остроумия, эрудированности, доброты и т.п.

Нужно только понять, откуда брать степени истинности и как оперировать с нечеткими данными. Заде понял. Необходимый для практики математический аппарат он разработал к 1973 году. Мамдани на его основе и сделал свой контроллер.

Заслуга Лотфи Заде не только в том, что он разработал новую теорию. Он ее крайне удачно назвал, выбрав общеупотребительное слово. Если бы вместо «нечеткой» взяли заумный термин, например, «континуальнозначная логика» (что, кстати, так и есть), у него не было бы шансов на широкую известность.

Неспециалисты просто не употребляли бы это словосочетание, поскольку кто ж его знает, что оно означает.  Другое дело, когда у научного понятия есть бытовой омоним. Тогда обывателю кажется, что он понимает, о чем речь, особенно если посмотрел про это кино. Таких «понятных» терминов в математике и физике тоже немало. Черная дыра. Магический квадрат.

Горизонт событий. Очарованный кварк. Теорема о двух милиционерах. Ну и конечно – матрица! Кто же не знает, что матрица – это когда Киану Ривз бегает по потолку. И не надо нам рассказывать про какие-то таблицы с числами. Для развития науки вульгарные представления широких масс полезны. Обычных слов следовало бы даже добавить.

Читайте также:  Мнение: почему интерес к искусственному интеллекту увеличивается?

Фильмов про горизонт событий снять побольше. Натяжек и ляпов не бояться. Главное, чтобы зритель ощущал прикосновение к переднему краю науки и величие человеческого, а, значит, и своего личного разума. Особенно если от такого зрителя зависит принятие решений о финансировании исследований.

Выдающийся советский ядерщик Георгий Флеров говорил: «Объяснять важному начальству научную проблему нужно не так, как правильно, а так, как ему будет понятно. Это ложь во благо».

Правильно. Руководство не нужно смущать лекциями про «спонтанные нарушения электрослабой симметрии». Расскажите лучше про «частицу Бога» и «Великую тайну гравитации». Вранья, кстати, в этом особого нет – а инвестиции есть.

Не беда, что околонаучные сказки порождают завышенные ожидания и, как следствие, избыточное вливание денег, заканчивающееся разорением. Общая польза в итоге перевешивает.

Важно

Пузырь доткомов в 2001 году лопнул, но интернет-технологии получили мощнейший импульс.

Нечеткой логике в этом смысле повезло не только с собственным названием, но и с причислением к списку наук и технологий, объединенных названием «искусственный интеллект» — наряду с нейронными сетями, логическим программированием, экспертными системами и др.

Это уже большая маркетинговая игра, где участники списка получают эффект от пакетной рекламы в рамках раскрутки единого научного мегабренда. Шутка ли: искусственный интеллект! Вот уж чарующая перспектива понятней некуда. Каждому в дом по железному слуге. Пусть умные кибернетические организмы делают всю работу, а мы будем только вводить пин-коды и пить пина-колады.

Ради такого света в конце тоннеля не жаль никаких денег.

Флеровская «ложь во благо» на примере искусственного интеллекта сработала на 100%. Японское правительство с 1982-го по 1992 год потратило полмиллиарда долларов на разработку «компьютера пятого поколения» с элементами «мышления». Как задумывалось, не получилось.

В частности, скис язык логического программирования Prolog, которому в 1980-е прочили первые роли. Ну и ладно. Все ж как с доткомами: роботов в некоторых странах в итоге все равно научились делать отличных.

Сегодня кибернетические системы видят, слышат и читают почти как люди, обыгрывают шахматных гроссмейстеров и зачастую эффективнее дипломированных специалистов управляют производственными процессами.

Спасибо за столь мощное развитие темы помимо непосредственных разработчиков нужно сказать авторам удачной терминологии, а также Айзеку Азимову, Артуру Кларку, братьям Вачовски и всему коллективу киностудии имени Горького, подарившей советским детям образы роботов-вершителей.

Никаких разумных киборгов при этом на самом деле не создано. Пока даже нельзя уверенно сказать, что, пытаясь их сотворить, мы движемся в правильном направлении.

Источник: http://mirbis.ru/articles/istoriya-o-tom-kak-nechetkaya-logika-dokazala-iskusstvennyy-intellekt-cheloveku-ne-strashen/

Алан Тьюринг и философские проблемы искусственного интеллекта

Могут ли машины думать? Именно такой вопрос задал известный британский ученый Алан Тьюринг (в честь которого назван небезызвестный тест) в своей работе «Вычислительная техника и интеллект» в 1950 году.

Еще точнее, он задал вопрос «могут ли машины делать, что мы (как мыслящие существа) можем делать?». Еще в 40-х годах Тьюринг в числе первых начал исследовать первые проблемы «умных машин», или как их называют сейчас — искусственного интеллекта.

Будем использовать оба термина как синонимы.

В своей работе Тьюринг вывел несколько философских возражений по поводу существования искусственного интеллекта. Ученый вывел их в оппозицию к собственному мнению: он полагал, что к концу 20-го века машина сможет пройти «тест Тьюринга», обманув собеседника в не менее чем 30 % случаев и убедив его, что является человеком, а не машиной.

Совет

Видение ученого пока не стало правдой, но сегодня мы как никогда близки к появлению искусственного интеллекта.

Много лет авторы научной фантастики пытались найти ответы на эти философские вопросы, каждый раз по-разному представляя историю искусственного интеллекта. В этой статье мы рассмотрим несколько проблем искусственного интеллекта, которые предполагал Тьюринг, но которые смогла частично разрешить научная фантастика.

Первым из философских возражений является теологический аргумент. Допустим, «мышление является функцией бессмертной души человека. Бог дал бессмертную душу каждому мужчине и каждой женщине, но не животным и машинам. Потому ни одно животное или машина не может мыслить».

Если это так, то даже если машина воспроизведет все внутренние устройства разумного существа, она не сможет достичь истинного интеллекта без души.

Однако Тьюринг утверждает, что ошибка такого аргумента заключается в том, что даже если «всемогущая сущность» существует (божество или нечто иное), нет ничего сложного в том, чтобы заключить душу в иную емкость, например, в сложный человекоподобный мозг или эквивалентную машину.

Ученый также говорил, что создание достаточно сложной машины для размещения души ничем не отличалось бы от рождения ребенка, то есть создания очередного индивидуума для того, чтобы «всемогущий» имплантировал в него душу.

В аниме Ghost in the Shell рассматриваются отношения между человечеством, технологиями и тем, что это может означать для человека разумного или обладающего душой. Сознание или душа человека — это то, что отделяет людей от роботов.

Поскольку люди обладают «призраком» (ghost), даже если их тела заменяются кибернетическими компонентами, в том числе и кибермозгом, они сохраняют свою человечность.

Обратите внимание

В то же время, полностью построенному с нуля роботу будет не хватать такого призрака, который предоставит ему душу и подлинный интеллект.

Аргумент «головы в песке», представленный Тьюрингом, заключается в том, что «создание мыслящих машин было бы ужасно. Будем верить и надеяться, что этого не произойдет».

Такое возражение связано с тем, что «мы хотели бы верить, что человек определенным тонким образом превосходит все остальные творения». То есть остается уникальным.

Но мы уже писали о том, что создать искусственный интеллект — очень заманчивая и выгодная цель.

Тьюринг считает этот аргумент крайне слабым, поскольку он основан на наших опасениях уступить другим мыслящим существам. Этот страх реализуется в фильмах о «Терминаторе» с системой искусственного интеллекта SkyNet, которая решает уничтожить людей после активации.

Поскольку SkyNet представляет собой «бестелесный» ум в суперкомпьютере, он использует терминаторов, чтобы добиться своей цели.

Роботы из этого фильма воплощают страх, который порожден вышеупомянутым философским возражением, и показывают, что только потому, что мы чего-то боимся, это не лишено почвы.

Согласно Тьюрингу, математические пределы логики и вычислений могут существенно ограничить интеллект вычислительных машин. Он утверждает, что «есть ряд результатов математической логики, которые можно использовать, чтобы показать, что полномочия дискретных машин существенно ограничены», в частности, ссылаясь на теорему Геделя.

Важно

Математический предел связан с другим ограничением разумных машин, «аргументом в пользу сознания». Тьюринг развивает идею машины, подражающей участнику партийной игры, то есть выдающей себя за человека.

Именно здесь появляется идея теста Тьюринга: следователь пытается определить, разговаривает он с искусственным существом или машиной.

Если машина «пройдет» тест и убедит следователя в том, что она — человек, то перед ним будет искусственный интеллект.

Применение теста Тьюринга показано в фильме «Бегущий по лезвию», где машину «Войт-Кампф» используют для наблюдения за физиологическими реакциями и определения, является ли субъект «репликантом» (андроид с искусственным интеллектом) или же человеком. Отметим, что на сегодняшний день тест Тьюринга не прошла ни одна машина.

В «аргументе в пользу различных отклонений» Тьюринг предоставляет список человеческих черт, которыми искусственный интеллект, возможно, никогда не будет обладать. В списке: доброта, любовь, чувство юмора или способность делать что-то действительно новое.

Сам же Тьюринг возражает: люди формируют свое представление о том, что такое машина и что она вообще может, основываясь на собственных наблюдениях. Поскольку у наблюдаемых сегодня машин (а в 1950 году тем более) нет таких человеческих черт, можно предположить, что никогда и не будет.

Но научная фантастика нашла много способов очеловечить ИИ.

Юный хакер Дэвид Лайтмен почти случайно начинает третью мировую войну, играя в «мировую термоядерную войну» с военным суперкомпьютером WOPR в War Games.

Когда WOPR продолжает играть и пытается получить доступ к кодам запуска ракет, озорной тинейджер и ученый от правительства дают инструкцию WOPR играть в крестики-нолики с самим собой.

Совет

Найдя в себе идеального партнера и зная результат каждой игры, WOPR понимает, что ему хотят сказать: что в ядерной войне не будет победителей, поэтому заканчивает игру. Математические и вычислительные ограничения ИИ используются против него самого, чтобы научить его человеческому пониманию гарантированного взаимного уничтожения.

Тип суперкомпьютера HOLMES, которого создатель Мануэль О’Келли просто называет Майк в книге Хайнлайна «Луна — суровая хозяйка», спонтанно становится разумным и дружит с Мануэлем.

Имея доступ ко всей написанной людьми информации, Майк узнает о чувстве юмора своего друга, о его шутках, загадках и песнях.

Чувство юмора компьютера и поиск путей развития недавно приобретенного разума приводят его к тому, что он присоединяется к лунной революции в борьбе за независимость от Земли. Компьютер видит это как игру со своим другом.

Это всего лишь небольшая выборка из многих произведений научной фантастики, которые представляют альтернативные ответы на эти и другие вопросы об искусственном интеллекте. Да, в реальном мире машина еще не прошла тест Тьюринга, но творческие умы фантастов продолжают искать возможные пути развития ИИ.

Внимание, вопрос. Представьте себе идеально настроенный для себя искусственный интеллект. Нет, отбросьте все трагичные варианты развития ИИ и пусть он будет бестелесным, и попробуйте найти для себя ответ: каким качеством должен обладать ваш ИИ, что должен уметь, чтобы стать для вас незаменимым?

Источник: https://Hi-News.ru/research-development/alan-tyuring-i-filosofskie-problemy-iskusstvennogo-intellekta.html

Логика, программирование и искусственный интеллект

Размышления по поводу:

http://community.livejournal.com/znanie_vlast/148404.html

Джохадзе Д.В. Диалектика Аристотеля

Любая наука без своего технического инструментария и, соответственно, инструментального выхода на практику, близка к шаманским пляскам с бубном. Или же прямо совпадает с такими плясками, как, например, астрология.  Но появляется телескоп – и главной наукой о звездах становится астрономия.

Для такого раздела философии как логика таким инструментом является логический автомат, в просторечии называемый компьютером. Соответственно, предыдущее двухтысячелетнее топтание на месте можно с некоторым основанием назвать шаманством. А званием великого шамана наградить, конечно, Аристотеля. (А современных аристотелеведов, типа Джохадзе … но умолчим об этом…)

  Пора, наконец, разоблачить тощую суть этих многотомных и многовековых мудрствований. 
Для иллюстрации будет использоваться  самая известная и вполне удачная реализация логики предикатов – язык программирования Пролог.  Пример предиката:

человек(“Сократ”). //по-человечески: Сократ – человек.

Собственно предикат(сказуемое) здесь “человек”, а объект(подлежащее) – “Сократ”. Аргументов у предиката м/б много, тогда им можно сопоставить другие части речи. Никакого “среднего термина” (связки “есть”) – он просто подразумевается и опущен за ненадобностью.

Такой простой предикат в Прологе называется фактом.

А вот пример более сложной разновидности предикатов – правила:

смертен(Х):- человек(Х). //Если Х – человек, то он смертен. (Но не наоборот!)

Теперь можно задать цель: смертен(“Сократ”). И получаем ответ: истина.

Чтобы это правило было интересней, имеет смысл его дополнить

Обратите внимание

смертен(Х):- зверь(Х). // можно было записать сразу смертен(Х):- человек(Х); зверь(Х). Для краткости и наглядности логическое “и” заменяют на знак “,” , а “или” на “;”

зверь(Х):- кошка(Х); собака(Х). // Зверь – это кошка или собака.

кошка(Х):- имеет4ноги(Х), мяукает(Х). //У кошки 4 ноги и она мяукает.

собака(Х):- имеет4ноги(Х), лает(Х).

лает(“Жучка”). мяукает(“Мурка”). имеет4ноги(“Жучка”). имеет4ноги(“Мурка”).

Теперь в ответ на кошка(“Мурка”) получаем ответ истина, а на собака(“Сократ”) или человек(“Жучка”) – ложь.

Результаты эти получаются в процессе логического вывода (бэктрекинга), когда машина, подставляя в правила заданный аргумент, обходит все ветви дерева вариантов до первого истинного результата (или специального оператора отсечка '!', который прерывает дальнейший перебор). Если истинный результат так и не получен – значит ложь.

Если же аргумент задан в виде неизвестной (Х), то ей присваивается первое подходящее значение, ведущее к истинному результату: кошка(Х) – да, кошка(“Мурка”). Или же выдаются все правильные варианты.

Циклы описываются с помощью рекурсии и отсечки по достижению конечного условия цикла (на практике компилятор по возможности оптимизирует рекурсию в простой цикл). Вместо массивов используются списки. На каждом шаге рекурсии они последовательно делятся на голову и хвост. Поэтому Пролог не очень подходит там, где требуется произвольный доступ к элементам массивов.

Теперь посмотрим, какие философские глубины скрываются за всей этой технологией.

1. В процессе логического вывода неявно применяются законы логики: тождества – при сопоставлении аргумента факту; противоречия и исключения третьего – при применении правил. Нет запрета на написание противоречащих друг другу правил, но применено будет только одно – первое, оказавшееся истинным.

2. Категория сущность.

Факт определяет сущность (первичную), а правило – вторичную сущность.

“Категория сущности является отражением реальных свойств окружающих предметов” (Джохадзе, стр.128).

3. Категории общее и единичное.

Факт – единичное. Правило – общее.

Каждая предметная область (область применения логических автоматов, как статистика, бухучет, обработка текстов, моделирование того и сего, АСУ ТП и пр. и т.п., со своими подразделами ) определяется своим набором категорий.

Для родственных областей можно вывести более общие категории. Аристотель знал весьма ограниченное количество предметных областей. Поэтому попытался определить некоторое окончательное количество категорий, смешав в одну кучу самые общие (как сущность) со случайными частными.

На эту его ошибку в дальнейшем неоднократно указывали др. философы.

Только Канту удалось определить наиболее универсальные категории.

“Родоначальник классического немецкого идеализма И. Кант попытался дать учению о категориях более глубокое обоснование, думая, что категории соответствуют логическим функциям мышления в суждении. Утверждая, что категорий должно

Важно

быть столько же, сколько существует форм суждений, Кант делил их на четыре класса: количества, качества, отношения и модальности. К каждому классу немецкий философ относил по три категории; таким образом, Кант получил всего 12 категорий…”( Джохадзе, стр.122).

Читайте также:  Когда компьютеры начнут понимать наши мысли?

Эти 4 класса категорий каждый программист применяет на практике:

– качество – разные типы данных;

– количество – значения, которые принимают эти данные;

– отношения – всевозможные операции над данными (логические, арифметические и т.д.);

– модальность – состояние программы в процессе работы (как бы имитация хода времени), совокупность значения всех данных и текущего выполняемого шага программной инструкции.

Этими категориями исчерпывающе описывается процесс составления программы и работа логического автомата.

Т.о., каждый программист является практикующим логиком, хотя и не склонным к философским обобщениям.

4. Дедукция и индукция.

Процедура логического вывода, очевидно, и является той самой знаменитой дедукцией. Механический перебор всех логических комбинаций с железной необходимостью обеспечивает нахождение истины, неявно содержащейся в исходных посылках, если она там есть. Для такой работы не обязательно быть человеком.

Что же такое обратная процедура – индукция? Разумеется, индукция – это составление тех самых правил, исходных посылок, из которых состоит логическая модель предметной области.

Из примера (“Зверь – это кошка или собака.”) хорошо видна неполнота индукции. В данном случае – вопиющая неполнота. Но даже если добавить в определение всех зверей, она всё равно будет неполной, т.к. сохранятся спорные случаи: зверь ли утконос или человек? Но для практических задач полнота и не нужна.

Индукция требует творческого подхода и последующей проверки практикой. Способностью к индукции (что связано с необходимостью ставить перед собой новые цели) отличается человеческий интеллект от машинного. С помощью дедукции невозможно реализовать индукцию того же порядка, только более низкого.

Например, в Прологе можно динамически добавлять новые факты в базу знаний (т.е. программа сама по ходу работы может получать новые знания), но новые правила добавлять нельзя, даже непонятно, как это можно было бы сделать.

Совет

Конечно, можно измыслить супер экспертную систему, способную генерировать новые правила, но эти правила будут лишь конкретизацией уже заложенных в эту систему более общих понятий и правил.

Т.о., искусственный интеллект всегда будет лишь реализацией крайне ограниченной части человеческого интеллекта.

Источник: https://evgeniy-kond.livejournal.com/33303.html

Проблема искусственного интеллекта в свете новейших достижений кибернетики и информатики. Спектр подходов

Учение об искусственном интеллекте — разработка интеллектуальных машин и систем, особенно интеллектуальных компьютерных программ, направленных на то, чтобы понять человеческий интеллект. При этом используемые методы не обязаны быть биологически правдоподобны.

Но проблема состоит в том, что неизвестно какие вычислительные процедуры мы хотим называть интеллектуальными.

А так как мы понимаем только некоторые механизмы интеллекта, то под интеллектом в пределах этой науки мы понимаем только вычислительную часть способности достигнуть целей в мире.

Но до сих пор единого ответа на вопрос чем занимается искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения, рассматривая в его свете достижения этой науки. Обычно эти определения сводятся к следующим:

Тест Тьюринга.Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум» (англ. Computing Machinery and Intelligence), опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест.

Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника).

Обратите внимание

Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило необходимо, потому что они реагируют гораздо быстрее, чем человек.

По состоянию на 2009 год ни одна из существующих компьютерных систем не приблизилась к прохождению теста.

Логический подход.Логический подход к созданию систем искусственного интеллекта направлен на создание экспертных систем с логическими моделями баз знаний с использованием языка предикатов.

Учебной моделью систем искусственного интеллекта в 1980-х годах был принят язык и система логического программирования Пролог.

Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщенные сведения с помощью правил и процедур логического вывода и в том числе логических правил определения понятий, выражающих определенные знания как конкретные и обобщенные сведения.

В целом исследования проблем искусственный интеллект в информатике в рамках логического подхода к проектированию баз знаний и экспертных систем направлено на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы обучения студентов и школьников, а также подготовки пользователей и разработчиков таких интелектуальных информационных систем.

Агентно-ориентированный подход.Последний подход, развиваемый с начала 1990-х годов называется агентно-ориентированным подходом, или подходом, основанным на использовании интеллектуальных (рациональных) агентов.

Согласно этому подходу, интеллект — это вычислительная часть (грубо говоря, планирование) способности достигать поставленных перед интеллектуальной машиной целей.

Сама такая машина будет интеллектуальным агентом, воспринимающим окружающий его мир с помощью датчиков и способной воздействовать на объекты в окружающей среде с помощью исполнительных механизмов.

Этот подход акцентирует внимание на тех методах и алгоритмах, которые помогут интеллектуальному агенту выживать в окружающей среде при выполнении его задачи. Так, здесь значительно сильнее изучаются Алгоритмы поиска и принятия решений.

Другие подходы

Интуитивные.Самый общий подход предполагает, что ИИ будет способен проявлять поведение, не отличающееся от человеческого, причём, в нормальных ситуациях.

Важно

Эта идея является обобщением подхода теста Тьюринга, который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).

Писатели-фантасты часто предлагают ещё один подход: ИИ возникнет тогда, когда машина будет способна чувствовать и творить. Так, хозяин Эндрю Мартина из «Двухсотлетнего человека» начинает относиться к нему как к человеку, когда тот создаёт игрушку по собственному проекту. А Дейта из Звёздного пути, будучи способным к коммуникации и научению, мечтает обрести эмоции и интуицию.

Первые упоминания

Хотя исследования в области искусственного интеллекта начались в 1956 году, их философские корни уходят глубоко в прошлое. Вопрос, может машина думать или нет, имеет долгую историю. Он тесно связан с различиями между дуалистическим и материалистическим взглядами.

С точки зрения дуализма, мысль не является материальной (или, по крайней мере, не имеет материальных свойств), и поэтому разум нельзя объяснить только с помощью физических понятий.

С другой стороны, материализм гласит, что разум можно объяснить физически, таким образом, оставляя возможность существования разумов, созданных искусственно.

В 1936 году философ Альфред Айер рассмотрел обычный для философии вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? В своей книге «Язык, истина и логика» Айер предложил алгоритм распознавания сознающего человека и не осознающей машины: «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто глупая машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания». Это высказывание очень похоже на тест Тьюринга, однако точно неизвестно была ли известна Тьюрингу популярная философская классика Айера.

Что касается прикладных наук, «робототехника» было впервые использовано в печати Айзеком Азимовым в научно-фантастическом рассказе «Лжец», опубликованном в 1941 г. «Робототехника» базируется на слове «робот», придуманном в 1920 г.

научным фантастом и Нобелевским лауреатом Карлом Чапеком для своей пьесы Р. У.Р. (Россумские Универсальные Роботы, чеш. Rossumovi univerzální roboti). Слово «робот» происходит от чешского слово «robota», означающего «крепостной труд» или, образно, «тяжелая работа».

Совет

Однако, интерес к идеям, схожим с робототехникой, наблюдался еще до введения этого термина, в 8-7 вв до н. э. В «Илиаде» бог Гефест сделал говорящих служанок из золота. Архиту Тарентскому приписывают создание механического голубя в 400 г. до н. э.

Роботы используются в промышленных, военных, прикладных и научно-исследовательских целях.

Философские проблемы

Философия искусственного интеллекта задаётся вопросами о «мышлении машин», рассматривает вопросы:

-Может ли машина действовать разумно? Может ли она решать проблемы, которые человек решает с помощью размышлений?

-Может ли машина иметь разум, сознание, психическое состояние в той мере, в которой ими обладает человек. Может ли она чувствовать?

-Одинакова ли природа человеческого и искусственного интеллекта? Является ли в своей основе человеческий мозг компьютером?

Эти вопросы отражают интересы различных исследователей искусственного интеллекта, философов, исследователей познавательной (когнитивной) деятельности. Ответы на эти вопросы зависят от того, что понимается под понятиями «интеллект» или «сознания», и какие именно «машины» являются предметом обсуждения.

Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук.

Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году.

Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, его же словами подход и характеризуется. Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум.

Обратите внимание

Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

В своем мысленном эксперименте «Китайская комната», Джон Сёрль показывает, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления.Мышление есть процесс обработки находящейся в памяти информации: анализ, синтез и самопрограммирование.

Аналогичную позицию занимает и Роджер Пенроуз, который в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем.

Также философии пришлось столкнуться с этические проблемы создания искусственного разума. Рассмотрим некоторые проблемы, которые могут возникнуть при и после создания ИИ. Следует отметить, что в данном реферате изложен далеко не полный перечень таких проблем.

Проблема 1. Проблема безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин “робот”. Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты.

Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение — “Терминатор”.

Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности – трех законах роботехники:

· Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

· Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

· Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы.

Важно

Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру: как перевести на любой из известных языков программирования, такой термин, как “причинить вред”. Или “допустить”.

Попробуйте определить, что происходит в любом случае, а что он “допустил”?

Далее предположим, что мы сумели переформулировать, данные законы на язык, который понимает автоматизированная система.

Теперь интересно, что будет подразумевать система ИИ под термином “вред” после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает.

Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем ИИ.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции ИИ, то можно предложить следующий вариант.

Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области.

Совет

Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень “довольности” организма наружу.

В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа “хорошо” — “плохо”. В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму.

Теперь представим себе, что ИИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то можно получить вполне стабильную систему.

Вывод по проблеме 1.

Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а ИИ теперь является частью данного индивидуума (не обязательно физическая общность), то автоматически выполняются все 3 закона роботехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку система (обученная) не будет делать ничего такого, чего бы не хотел ее владелец.

Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:

Источник: https://zdamsam.ru/a40155.html

Ссылка на основную публикацию
Adblock
detector