Искусственный интеллект научили спорить с человеком

“искусственный интеллект” как аргумент в споре о сознании

ЭПИСТЕМОЛОГИЯ & ФИЛОСОФИЯ НАУКИ • 2012 • Т. XXXII • № 2

«И

ЖУССТВЕННЫИ ИНТЕЛЛЕКТ» КАК АРГУМЕНТ В СПОРЕ О СОЗНАНИИ

И.Ф. МИХАИЛОВ

В статье рассматриваются история и теория «искусственного интеллекта» в контексте философских дискуссий о сознании и мышлении на Западе и в России. Метод мысленного эксперимента позволяет автору сформулировать и защитить концепцию коммуникативного функционализма в философской рефлексии сознания и его функций.

Ключевые слова: искусственный интеллект, философия сознания, мозг, коммуникация.

В настоящей статье не рассматривается актуальное состояние исследований «искусственного интеллекта» (ИИ), не содержатся в ней и какие-либо философские выводы, навеянные этими исследованиями. Я лишь использую гипотезу принципиальной возможности ИИ для обсуждения известных проблем философии сознания.

Постараюсь наметить ответы на два вопроса:

1. Может ли гипотеза ИИ внести свой вклад в традиционные философские дискуссии вокруг сознания и мышления?

2. Может ли философия с помощью собственного неэмпирического

г

(8

п

Щанорам^З

Обратите внимание

инструментария предложить ответ на вопрос о возможности искусственного моделирования человеческого разума?

Термин «искусственный интеллект» был введен Джоном Маккарти в 1956 г. для обозначения науки и инженерных практик создания «умных машин». В настоящее время среди множества диверсифицировавшихся направлений можно выделить логическое программирование (см. интересную работу Поспелова1), нейронные сети2 и мультагентные системы3.

Вокруг теста Тьюринга

В 1950 г. Алан Тьюринг4 сформулировал принцип идентификации машинного интеллекта, который вошел в историю как тест Тьюринга (ТТ). В эпоху Интернета читатель без труда найдёт описание условий этого теста с помощью поисковых систем или Википедии.

Тест вызвал и продолжает вызывать критические атаки. Наиболее серьезными аргументами кажутся соображения о логической связи теста и теорем Гёделя о неполноте, а также предполагаемая неспособность концепции, лежащей в основе ТТ, справиться с проблемой qualia.

Из теорем Гёделя о неполноте следует, что всегда существует хотя бы одна формула, неразрешимая для машины, но очевидная для человека5. Следовательно, аналитически верно, что машина (или исполняемая в ней программа) не может быть моделью человеческого интеллекта, поскольку, согласно формулировке Дж.

Вебба, «из высказывания “Я могу найти ограничения в любой машине” несомненно следует, что я не машина»6.

Второй аргумент рассматривает компоненты сознания, принципиально не доступные для компьютерного моделирования. К ним относятся, в частности, qualia, под которыми подразумеваются «реальные» субъективные ощущения, переживания и эмоции, как они чувствуются их носителем. Согласно определению Н.С. Юлиной, «в

1 Поспелов Д.А. Десять «горячих точек» в исследованиях по искусственному интеллекту // Интеллектуальные системы (МГУ). 1996. Т. 1, вып.1-4. C. 47-56.

Важно

2 Hopfield J.J.Neural Networks and Physical Systems with Emergent Collective Computational Abilities // Proc. NatL Acad. Sci. USA Biophysics. 1982. Vol. 79. P. 2554-2558.

3 ScheutzM., Andronache V. The Apoc Framework for the Comparison and Evaluation of Agent Architectures // Proc. of Aaai Workshop on Intelligent Agent Architecture. 2004. P. 66-73.

4 TuringA.M. Computing Machinery and Intelligence // Mind. 1950. № 49. P. 433-460.

5 Lucas J. R. Minds, Machines and Godel // Minds and Machines ; ed. by A.R. Anderson. Englewood Cliffs, NJ: Prentice Hall, 1964. P. 14.

6 Цит. по: Карпенко А.С. Современное состояние исследований в философской логике // Логические исследования, 2010. № 3.

общей форме можно сказать, что квалиа есть то, каким образом что-то выглядит для нас, кажется нам, в каком качестве оно предстает перед нами»7. Вопрос о qualiaуже довольно долго разделяет философов аналитической традиции на две группы: (условно говоря) «бихе-виористов», настаивающих на иррелевантности qualia для теории значения (Л.

Витгенштейн8 и его последователи9), с одной стороны, и более традиционно ориентированных «философов сознания» (Дж. Сёрл10, Дж. Перри11 и др.), часто именно в qualia усматривающих суть последнего (а не в формальных правилах и операциях с символами).

Бихевиористы показывают, что теория значения – а именно она видится содержательной и методологической основой теории сознания – может быть построена без обращения к «психологическим» сущностям.

Философы сознания, напротив, настаивают, что именно «внутренняя жизнь» психики (мозга) порождает смыслы, без которых формальные операции с символами не могут рассматриваться в качестве мышления. Очевидно, что Тьюринг скорее склонялся к первой точке зрения.

Совет

В качестве концепции, «играющей на стороне» ТТ, можно рассмотреть гипотезу систем физических символов (СФС), сформулированную Ньюелом и Саймоном12 в 1976 г.

, в соответствии с которой любая система физических символов (физических объектов, представляющих другие объекты в соответствии с некоторыми правилами именования) обладает необходимыми и достаточными средствами для сознательного действия.

Наверное, можно сказать, что позиция Д. Деннета в его споре с Сёрлом13 в значительной мере основывается на идеологии СФС.

«Сильный ИИ» и «китайская комната»

Сёрл в свою очередь рассматривает концепции, сводимые к СФС, как «сильный [принцип] ИИ»14, в соответствии с которым любая программа, эффективно имитирующая интеллектуальные действия, и

7

Юлина Н.С. Головоломки проблемы сознания. М., 2004.

8 WittgensteinL. Philosophical Investigations. Oxford: Blackwell, 1968. P. 257 and on.

9 Малколм H. Состояние сна. М., 1993.

10 Searle J. Minds, Brains, and Programs // Behavioral and Brain Sciences. 1980. № 3. P. 417-457.

11 Perry J. Knowledge, Possibility and Consciousness. L. ; Cambridge : The MIT Press Cambridge, 2001.

12 NewellA., Simon H.A. Computer Science as Empirical Enquiry: Symbols and Search // Communications of the ACM. 1976. № 19(3). P. 113-126.

13 http://www.scribd.com/doc/45344182/Dennett-vs-Searle.

14 Searle J. Op. cit.

E

&

1

(B

H

Щанорам^З

есть собственно интеллект. Он отличается от «слабого [принципа] ИИ», который допускает, что для моделирования ИИ, возможно, понадобится определенный физический субстрат, искусственные нейронные сети, возможно, даже квантово-вероятностные эффекты, но все же оно в принципе возможно.

Обратите внимание

Против «сильного ИИ» Сёрл выдвигает аргумент «китайской комнаты»15 – мысленный экперимент, найти описание которого читателю также не составит труда.

Согласно Сёрлу, вся «китайская комната» как система способна пройти ТТ, хотя ни сидящий внутри человек, ни система в целом не понимают китайского.

Метафора очевидна: компьютерная программа, умеющая формально оперировать с символами, понятными человеку, не содержит «интеллекта».

Аргумент Сёрла связан с его общей концепцией сознания как системы интенциональных состояний (знания, сомнения, желания и т.п.

)16, суть которых состоит в их направленности на предмет, но они аналогичны qualia в том смысле, что необходимо связаны с субстратом мозга и как таковые воспринимаются исключительно «в первом лице»17.

Мораль аргумента «китайской комнаты» очевидна: машина, основанная на СФС, не может иметь интенционального состояния, соответствующего пониманию.

По ходу изложения критической концепции Сёрла невозможно не отметить, что она основана на некоторых некритических интуициях, на что указывал, кстати, и соавтор Деннета Д. Хофштадтер18. В частности, как мне кажется, Сёрл, подобно карточному фокуснику, помещает в центр ситуации человека, что называется, для отвода глаз.

Ведь именно человеку мы интуитивно приписываем свойство понимания, и если в данном случае у него оно отсутствует, то вроде бы искать его больше негде.

Тогда как на самом деле в данной ситуации субъектом понимания (выражаясь традиционным философским языком) является, конечно, справочник, а человеку отведена техническая роль информационного транспорта.

Важно

И в том примитивном виде, как он описан Сёрлом, справочник как раз вряд ли пройдет ТТ – ведь мы помним, что собеседник там должен продемонстрировать способность ориентироваться в модальностях человеческого общения: жаргон, шутка, ложь и т.п. Если же справочник будет составлен достаточно тонко для того, чтобы на серьезные китайские выражения отвечать

15 Searle J.Op. cit.

16 Hofstadter D. Reflections on Searle // The Mind’s I; D. Hofstadter and D. Dennett (eds.). N.Y. : Basic Books, 1981. P. 373-382.

17 Его понимание интенциональности резко расходится с таковым Деннета, который рассматривает ее не онтологически, а как одну из стратегий объяснения функционирования сложных систем (см. об этом: Юлина Н.С. Головоломки проблемы сознания. С. 104-108). В рамках концепции Деннета, конечно, никакие аналогии между ин-тенциональностью и qualia невозможны.

18 Hofstadter D. Op. cit.

серьезно, а на шутливые – отшучиваться, причем с возможностью случайного (произвольного?) выбора доступных вариантов ответа, тогда почему бы и нет? Все дело в степени сложности программирования.

Субстанциализм и функционализм

Под субстанциализмом в рамках и для целей данной статьи предлагается понимать широкий круг концепций в философии сознания -от традиционного материализма, идеализма, субстанциального дуализма (картезианства) до более современных физикалистского редукционизма, теории «тождества типов» и др., общим для которых является признание необходимой зависимости сознания и его свойств от его же субстрата-носителя, как бы последний ни понимался, равно как и неразрывной онтологической связи между ними.

Напротив, термином «функционализм» предлагаю обозначить семейство концепций, пытающихся найти объяснение ментальным событиям при помощи выявления их функциональных зависимостей от ряда других – ментальных и нементальных – событий, отвлекаясь от их возможных онтологических экспликаций. Хороший обзор различных версий функционализма содержится в статье Д.В. Иванова19. Любопытно также, что, по мнению Джегуона Кима, «функционализм есть часть более широкого бихевиористского подхода к сознанию и может быть понят как обобщенная и усложненная версия бихевиоризма»20.

Согласно любопытному рё^документу, который можно найти в ряде мест в Интернете21, – он представляет собой email-переписку между Сёрлом, Деннетом и редактором научного журнала, состоявшуюся в 1997 г.

и собранную вместе Деннетом, – главный аргумент Сёрла, которым он защищается от обвинений в примитивном суб-станциализме, состоит в том, что биохимический субстрат мозга обладает «достаточными каузальными силами» для того, чтобы причинно обусловить сознание.

Совет

Проще говоря, он необходим и достаточен для сознания. (Деннет настаивает, что в одной из публичных лекций Сёрл употребил метафору «секреции» по отношению к связке «мозг-сознание», сравнив её с отношением молочной железы и молока, чем немало позабавил Деннета и Хофштадтера.

) Можно сказать, что позиция Сёрла в основе своей имеет доктрину субстанциализма, а позиция Деннета может быть интерпретирована как функционализм.

21 http://www.scribd.com/doc/45344182/Dennett-vs-Searle.

Е

I

19 Иванов Д.В. Функционализм. Метафизика без онтологии // Эпистемология и фи- ___

лософия науки. 2010. № 2. О

20 Kim J. Philosophy of Mind. Brown University: Westview Press. A Subsidiary of Perseus Books, L.L.C, 1998.

Источник: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-kak-argument-v-spore-o-soznanii

Может ли искусственный интеллект переспорить человека?

Источник: geralt/CC0

Давно известно, что умные машины научились обыгрывать профессионалов в стратегических играх, таких как шахматы. Мы также пришли к согласию, что искусственный интеллект прекрасно справляется с обработкой большого количества данных.

А что если искусственному разуму окажется под силу справляться с человеческими задачами — понимать тонкие намеки, нюансы речевых оборотов и даже считывать человеческие эмоции для того, чтобы одержать над нами победу в споре?

Эта способность, исследованиями которой занимается все больше научных организаций по всему миру, позволит людям принимать более эффективные решения в будущем.

До недавнего времени создание интеллектуальной машины, способной приводить аргументы и отстаивать точку зрения, считалось невыполнимой задачей.

Смысл, конечно же, не в том, чтобы научить искусственный разум вступать в разборки по поводу парковочного места или спорить на тему того, чья очередь выносить мусор.

Вместо этого машины, которые умеют спорить, в будущем смогут научить людей оспаривать доказательства, искать альтернативу и уверенно принимать решения, тем самым улучшая качество дебатов.

Это может повысить эффективность принятия решений во всем – от инвестирования средств до борьбы с преступностью и улучшения качества здравоохранения.

Обратите внимание

Однако обучить компьютеры навыкам человеческого общения и объяснить, что значит аргумент в споре, чрезвычайно сложно.

Чемпион мира по шахматам Гарри Каспаров проиграл компьютеру Deep Blue в 1997 году | Источник: AP 2019

Для того, чтобы представить важность аргументов, следует обратиться к залам судебных заседаний.

Представление доказательств является необходимой частью слушаний, однако социальные нормы, законные требования, эмоциональная чувствительность и практические ограничения влияют на то, как адвокаты, присяжные заседатели и судьи формулируют доводы и выражают мысли.

Несмотря на это, за последние несколько лет ученые начали размышлять над тем, возможно ли смоделировать некоторые человеческие аргументы, чтобы впоследствии превратить в алгоритмы искусственного интеллекта.

В научной сфере это понятие известно как «технология аргументации».

Достигнутые успехи стали возможными благодаря быстрому увеличению количества данных, доступных для изучения компьютерами в области дебатов.

Некоторые данные поступают из платформ по анализу интеллекта — таких как Intelligence Analysis, специализированных интернет ресурсов и программы Би-би-си Moral Maze.

Выбор правильных аргументов имеет ключевое значение в судебном процессе | Источник: timokefoto/CC0

Помимо этого, были разработаны новые методы обучения машин искусству построения аргумента.

Исследователи в этой области обращаются к философии, лингвистике, информатике и даже праву и политике для того, чтобы понять, на чем основаны дебаты.

Важно

Например, в британском университете Данди недавно были исследованы труды о риторике двухтысячелетней давности для того, чтобы понять, как строятся аргументы во время публичного выступления.

В результате быстрого прогресса в этой области, феноменом заинтересовались десятки исследовательских лабораторий по всему миру.

Масштаб исследований по вопросу «технологической аргументации» не сравнится ни с какими другими открытиями, которые я наблюдал за последние 20 лет работы в научных кругах.

Означает ли это, что машины вскоре станут блестящими ораторами и завоюют мир?

Скорее всего, нет, что можно объяснить на примере из обычной жизни.

До недавнего времени даже самые передовые разработки искусственного интеллекта пришли бы в замешательство из-за простых местоимений.

Например, если вы скажете персональному ассистенту на смартфоне: «Мне нравится Эми Уайнхаус. Сыграй мне что-нибудь из ее репертуара», программное обеспечение не сможет распознать, что местоимение «ее» относится к «Эми Уайнхаус».

Возможно, это порадует тех, кто беспокоится о близости машинного апокалипсиса.

Если такие простые вещи, как определение местоимений, могут ввести искусственный разум в заблуждение, насколько вероятно, что умные машины смогут вступать в спор?

Читайте также:  Виртуальный червь с искусственным интеллектом

Есть как минимум два аргумента в пользу того, что компьютеры недалеки от этого. Один из них связан с понятиями «оправдания» и «объяснения».

Одно дело — искать информацию в интернете о том, как насилие в видеоиграх влияет на психическое здоровье детей, и совсем другое — создать систему, которая бы автоматически собирала «за» и «против» допущения подобного насилия.

Эта область была исследована компанией IBM, c которой мы сотрудничаем.

Совет

Разработка представляет собой нечто наподобие ассистента, который собирает и анализирует конфликтные мнения по определенному вопросу, давая нам возможность оценить правомерность той или иной точки зрения.

Возможно, в ближайшем будущем искусственный интеллект сможет объяснить ребенку, почему небо голубое, не хуже, чем взрослый | Источник: NadineDoerle/CC0

Другой вариант связан с разработкой интеллектуальной машины, способной принимать участие в так называемых «диалоговых играх» в зависимости от норм поведения в разных местах — от зала судебного заседания до аукционного дома.

Диалоговые игры по принципу “вопрос-ответ” легли в основу многих философских учений, от Платона до Иоганна Витгенштейна, однако сейчас начинают применяться для того, чтобы помочь компьютерам внести вклад в общение между людьми.

Любой, кто общался с ребенком дошкольного возраста, знаком с правилами детской игры. Взрослый произносит фразу, например: «Какое небо голубое», на что ребенок задает вопрос: «Почему»? Взрослый отвечает, на что малыш задает тот же самый вопрос, и ситуация повторяется.

Обычно разговор заканчивается, когда взрослый пытается сменить тему.

Исследователи считают, что в будущем искусственный интеллект будет способен помочь предотвратить попытку террористической атаки | Источник: WikiImages/CC0

Большинство из нас знает, что после череды одних и тех же вопросов бывает трудно дать хороший ответ, и мы начинаем ломать голову.

Для того, чтобы объяснить трехлетнему ребенку, почему небо голубое, необязательно прикладывать много усилий, хотя в других ситуациях необходимо основательно подумать — например, если речь идет о важном бизнес-решении, затрагивающем сотни рабочих мест, или о предотвращении террористической угрозы.

Если даже самая простая игра в диалог способна помочь найти решение сложного вопроса, насколько эффективны более передовые методы? Это то, над чем мы работаем.

Если компьютеры будут разбираться в типах аргументов, которыми руководствуется команда для принятия коллективных решений, они также смогут проверить данные, используемые для построения аргументов и на основании этого, предлагать варианты развития ситуации или даже давать ответы.

Обратите внимание

Благодаря искусственному интеллекту, люди смогут избежать предубеждений, слабых доказательств и плохо продуманных аргументов, что в конечном итоге, поможет улучшить качество дебатов

Например, мы разрабатываем программное обеспечение, которое распознает аргументы на основании свидетельских показаний.

Умная машина может раскритиковать такой аргумент, указав на то, что показания свидетелей могут быть предвзятыми или ненадежными.

Начиная от корпоративных залов заседаний до выполнения посреднической роли между супругами и от анализа информации до разработки дизайна интерьера — искусственный разум может посодействовать принятию обоснованных решений.

Термин «Искусственный интеллект» был впервые введен в начале 1950-х годов, когда ведущие ученые с уверенностью заявили о том, что умным машинам потребуется около 20 лет, чтобы достичь высшей точки развития.

По-видимому, искусственному интеллекту потребуется гораздо больше времени для достижения цели.

Между тем технология аргументации открывает возможность оказывать поддержку людям в принятии более эффективных решений.

Причем цель разумных машин — не подчинить себе участников коллектива, а скорее сотрудничать с ними для решения сложных задач.

Важно

Возможно, искусственный интеллект даже сможет объяснить трехлетнему ребенку, почему небо голубое.

Профессор Крис РидУниверситет Данди, Шотландия

Профессор Крис Рид — директор центра по изучению технологии аргументации в британском Университете Данди в Шотландии.

Центр занимается исследованиями прикладной технологии аргументации в разных областях: от философии и лингвистики до искусственного интеллекта и программного обеспечения.

За время существования центр получил более 5 млн фунтов поддержки от ряда организаций.

В данном материале на законных основаниях могут быть размещены дополнительные визуальные элементы. “BBC News Русская служба” не несет ответственности за их содержимое.

Источник: https://news.mail.ru/society/31238470/

Искусственный интеллект научили распознавать депрессию

Нейросети улавливают отклонения в психическом состоянии, просто «послушав» человека или изучив его медкарту.

(Фото: Wokandapix / Pixabay)

Опытный психолог может определить депрессию, задав пациенту всего несколько вопросов. В недалеком будущем у психологов появятся ассистенты – нейросети, способные определять депрессивное состояние по интонациям и словам.

Исследователи уже пытались обучать нейросети интерпретировать ответы пациентов на стандартные диагностические вопросы, и такие опыты оказались весьма успешными – искусственный интеллект определял состояние не хуже, чем психолог.

Совет

В Массачусетском технологическом институте (MIT) решили пойти дальше и обучить нейросеть интерпретировать не сами ответы, но улавливать особенности речи, которые свойственны страдающим от депрессии людям – так, чтобы тема беседы не должна была иметь значения, и вопросы с ответами могли быть любыми.

Тука Альханай (Tuka Alhanai) и ее коллеги обучали нейросеть с помощью аудиозаписей и стенограмм разговоров людей с виртуальным собеседником, которым управлял человек. Записи ранее анализировали квалифицированные психологи. По их оценке, из 150 опрошенных около у 30 человек были очевидные признаки депрессии.

Нейросеть «попросили» оценить интонацию, тембр, темп речи, а также частоту и порядок слов. Результат нейросети совпадал с результатом психологов примерно в 70% случаев, о чем авторы работы сообщили в докладе на междисциплинарной конференции Interspeech.

Оказалось, что набор и порядок слов говорят о человеке больше, чем интонации, и со стенограммой нейросеть давала ответ быстрее, чем при анализе аудиозаписи.

Любопытно, что пока мы не знаем, на какие конкретно особенности речи в первую очередь обращает внимание искусственный разум.

Притом нейросеть может не только вовремя обнаружить уже начавшуюся депрессию и отправить человека к специалисту еще до того, как ему самому это придет в голову – нейросети также способна сыграть на опережение, заранее предсказав риск появления депрессии.

Уже есть успехи в прогнозировании возможной послеродовой депрессии, о чем в недавней публикации в Information Fusion сообщили исследователи из Бразилии, Португалии, Саудовской Аравии и России.

Они предложили показывать нейросети данные о состоянии здоровья, возрасте, истории болезней рожениц. Склонность к депрессии возникает у женщин с повышенным уровнем сахара в крови и у молодых рожениц, которым выполняли кесарево сечение.

Обратите внимание

Имеют значение и другие факторы, которые искусственный интеллект учитывает лучше, чем врач. Нейросеть, например, может обратить внимание на то, что роженица живет в неблагополучном районе.

В дальнейшем врачи смогут пользоваться подсказками искусственного интеллекта, а отслеживать состояние пациентов можно будет с помощью дистанционных датчиков. И чем дольше будет обучаться нейросеть, тем точнее будут становиться рекомендации.

Хотя для того, чтобы нейросети стали настоящими помощниками, их предстоит научить объяснять врачам-людям причины своих решений.

Это позволит избежать ошибок, от который искусственный разум тоже не застрахован – ведь как выяснилось недавно, искусственный интеллект может перенять заблуждения у людей.

Источник: https://www.nkj.ru/news/34430/

Может ли искусственный интеллект переспорить человека?

Профессор Крис Рид
Университет Данди, Шотландия

Человечество смирилось с тем, что в запоминании и воспроизведении информации компьютерам нет равных. Однако мы все еще способны одерживать победу над машинами в споре. По крайней мере, пока.

Давно известно, что умные машины научились обыгрывать профессионалов в стратегических играх, таких как шахматы. Мы также пришли к согласию, что искусственный интеллект прекрасно справляется с обработкой большого количества данных.

А что если искусственному разуму окажется под силу справляться с человеческими задачами — понимать тонкие намеки, нюансы речевых оборотов и даже считывать человеческие эмоции для того, чтобы одержать над нами победу в споре?

Эта способность, исследованиями которой занимается все больше научных организаций по всему миру, позволит людям принимать более эффективные решения в будущем.

Научить машину спорить

До недавнего времени создание интеллектуальной машины, способной приводить аргументы и отстаивать точку зрения, считалось невыполнимой задачей. Смысл, конечно же, не в том, чтобы научить искусственный разум вступать в разборки по поводу парковочного места или спорить на тему того, чья очередь выносить мусор.

Вместо этого машины, которые умеют спорить, в будущем смогут научить людей оспаривать доказательства, искать альтернативу и уверенно принимать решения, тем самым улучшая качество дебатов.

Это может повысить эффективность принятия решений во всем — от инвестирования средств до борьбы с преступностью и улучшения качества здравоохранения.

Однако обучить компьютеры навыкам человеческого общения и объяснить, что значит аргумент в споре, чрезвычайно сложно.

Для того, чтобы представить важность аргументов, следует обратиться к залам судебных заседаний. Представление доказательств — основа судебного процесса, однако социальные нормы, положения закона, эмоциональная чувствительность и практические ограничения влияют на то, как адвокаты, присяжные заседатели и судьи формулируют доводы и выражают мысли.

Несмотря на это, за последние несколько лет ученые начали размышлять над тем, возможно ли смоделировать некоторые человеческие аргументы, чтобы впоследствии превратить в алгоритмы искусственного интеллекта. В научной сфере это понятие известно как «технология аргументации».

Достигнутые успехи стали возможными благодаря быстрому увеличению количества данных, доступных для изучения компьютерами в области дебатов.

Важно

Некоторые данные поступают из платформ по анализу интеллекта — таких как Intelligence Analysis, специализированных интернет-ресурсов или программы Би-би-си Moral Maze.

Помимо этого, были разработаны новые методы обучения машин искусству построения аргументации. Исследователи в этой области обращаются к философии, лингвистике, информатике и даже праву и политике для того, чтобы понять, на чем основано искусство ведения дебатов.

Например, в британском университете Данди недавно были исследованы труды о риторике двухтысячелетней давности для того, чтобы понять, как строятся аргументы во время публичного выступления.

В результате быстрого прогресса в этой области, феноменом заинтересовались десятки исследовательских лабораторий по всему миру.

Масштаб исследований по вопросу «технологической аргументации» не сравнится ни с какими другими открытиями, которые я наблюдал за последние 20 лет работы в научных кругах.

Почему небо голубое?

Означает ли это, что машины вскоре станут блестящими ораторами и завоюют мир? Скорее всего, нет. И это можно объяснить на примере из обычной жизни. До недавнего времени даже самые передовые разработки в области искусственного интеллекта пришли бы в замешательство из-за простых местоимений.

Например, если вы скажете персональному ассистенту на смартфоне: «Мне нравится Эми Уайнхаус. Сыграй мне что-нибудь из ее репертуара», — программное обеспечение не сможет распознать, что местоимение «ее» относится к «Эми Уайнхаус».

Возможно это порадует тех, кого пугает приближение машинного апокалипсиса. Если такие простые вещи, как определение местоимений, могут ввести искусственный разум в ступор, насколько вероятно, что умные машины смогут вступать в полемику? Есть как минимум два аргумента в пользу того, что компьютеры недалеки от этого.

Совет

Один из них связан с понятиями «оправдания» и «объяснения». Одно дело — искать информацию в интернете о том, как насилие в видеоиграх влияет на психическое здоровье детей, и совсем другое — создать систему, которая бы автоматически собирала аргументы «за» и «против» допущения подобного насилия.

Эта область была исследована компанией IBM, c которой мы сотрудничаем.

Разработка представляет собой нечто наподобие персонального помощника, который собирает и анализирует противоположные точки зрения по определенному вопросу, давая нам возможность оценить правомерность той или иной позиции.

Другой вариант связан с разработкой интеллектуальной машины, способной принимать участие в так называемых «диалоговых играх» в зависимости от норм поведения в разных местах — от зала судебного заседания до аукционного дома.

Диалоговые игры по принципу «вопрос-ответ» легли в основу многих философских учений, от Платона до Иоганна Витгенштейна, однако сейчас начинают применяться для того, чтобы помочь компьютерам внести вклад в общение между людьми. Любой, кто общался с ребенком дошкольного возраста, знаком с правилами детской игры.

Взрослый произносит фразу, например: «Какое небо голубое», на что ребенок задает вопрос: «Почему»? Взрослый отвечает, на что малыш задает тот же самый вопрос, и ситуация повторяется.

Обычно разговор заканчивается, когда взрослый пытается сменить тему.

Большинство из нас знает, что после череды одних и тех же вопросов бывает трудно дать хороший ответ, и мы начинаем ломать голову.

Для того, чтобы объяснить трехлетнему ребенку, почему небо голубое, не обязательно прикладывать много усилий, хотя в других ситуациях необходимо основательно подумать — например, если речь идет о важном бизнес-решении, затрагивающем сотни рабочих мест, или о предотвращении террористической угрозы. Если даже самая простая игра в диалог способна помочь найти решение сложного вопроса, насколько эффективны более передовые методы?

Это то, над чем мы работаем.

Раскритиковать аргумент

Если компьютеры будут разбираться в типах аргументов, которыми руководствуется команда для принятия коллективных решений, они также смогут проверить данные, используемые для построения аргументов и на основании этого предлагать варианты развития ситуации или даже давать ответы.

Благодаря искусственному интеллекту люди смогут избегать предубеждений, слабых доказательств и плохо продуманных аргументов, что в конечном итоге поможет улучшить качество дебатов. Например, мы разрабатываем программное обеспечение, которое распознает аргументы на основании свидетельских показаний.

«Умная» машина может раскритиковать такой аргумент, указав на то, что показания свидетелей могут быть предвзятыми или ненадежными.

Начиная от корпоративных залов заседаний до выполнения посреднической роли между супругами и от анализа информации до разработки дизайна интерьера — искусственный разум может посодействовать принятию обоснованных решений.

Обратите внимание

__________________________________________________________________________________________

Термин «Искусственный интеллект» был впервые введен в начале 1950-х годов, когда ведущие ученые с уверенностью заявили о том, что умным машинам потребуется около 20 лет, чтобы достичь высшей точки развития. По-видимому, искусственному интеллекту потребуется гораздо больше времени для достижения цели.

Читайте также:  Российские специалисты готовы представить интеллект для роботов уже в будущем году

Между тем технология аргументации открывает возможность оказывать поддержку людям в принятии более эффективных решений. Причем цель «разумных» машин — не подчинить себе участников коллектива, а скорее сотрудничать с ними для решения сложных задач.

Возможно, искусственный интеллект даже сможет объяснить трехлетнему ребенку, почему небо голубое.

Обратите внимание

__________________________________________________________________________________________

Об авторе:
Профессор Крис Рид — директор центра по изучению технологии аргументации в британском Университете Данди в Шотландии.

Центр занимается исследованиями прикладной технологии аргументации в разных областях: от философии и лингвистики до искусственного интеллекта и программного обеспечения.

За время существования центр получил более 5 млн фунтов поддержки от ряда организаций.


__________________________________________________________________________________________

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.

Источник: http://magspace.ru/blog/science/313003.html

Сговор роботов: будут ли алгоритмы обсчитывать нас в магазинах?

Алексей Калмыков Би-би-си

Image caption Торговые роботы – будущее или уже настоящее?

Искусственный интеллект стремительно проникает в повседневную жизнь: рассчитывает маршруты, переводит с иностранных языков, подбирает нам фильмы, книги и одежду. Самообучающиеся алгоритмы приводят к простым целям все более сложным путем, и в этом кроется угроза, опасаются чиновники и эксперты.

Что если эта простая цель – не облегчить жизнь человеку, а выжать из него максимум прибыли? И что если машины, которым продавец поставил такую цель, в процессе ее достижения вступят в сговор и начнут массово обсчитывать потребителей? Как отследить и пресечь это?

Роботы уже вовсю используются в торговле. Алгоритмы автоматически устанавливают цены, оценивают спрос и предложение, определяют скидки и рекомендации покупателям. Их эволюция чревата двумя серьезными проблемами.

“С антимонопольной точки зрения опасность заключается в том, что алгоритмы репрайсинга потенциально способны каждый по отдельности прийти к одному выводу: чтобы обеспечить максимальную прибыль, нужно избегать ценовых войн”, – предупреждают три профессора экономики из Болонского университета.

“То есть, они могут вступить в картельный сговор, даже если перед ними не ставили такую задачу и даже если они не общались друг с другом. Это проблема”, – говорится в их февральской публикации.

Важно

Алгоритмами заинтересовались те, кому общество делегировало защиту потребителей от монополий. До сих пор вся их практика была построена на работе с людьми и корпорациями. Роботы – совсем другая история.

“Алгоритмы сделали много полезного для защиты прав потребителей и развития конкуренции – они сократили издержки поставщиков, улучшили обслуживание и доступность товара. Однако мы должны разобраться, может ли использование алгоритмов нанести вред потребителям в дальнейшем, и если да, то когда и как”, – обратилось к проблеме антимонопольное ведомство Великобритании (CMA).

Почему сейчас?

Правообладатель иллюстрации South China Morning Post/Getty ImagesImage caption С каждым днем машины узнают людей все ближе

Времена меняются. Цифровой след, который оставляют люди в интернет-магазинах, социальных сетях и браузерах буквально на глазах превращается в лавину информации и открывает роботам новые возможности для сложных стратегий ценообразования, включая персонифицированное.

Чем больше машина знает о нас, тем проще ей определить, какую максимальную цену мы готовы заплатить за платье, урок итальянского или поход в бассейн.

“90% всех цифровых данных в мире было создано в последние два года, – говорится в рабочей записке CMA, опубликованной минувшей осенью. – С развитием технологий больших данных (Big Data) бизнес все активнее покупает услуги анализа этой информации. Мировой оборот в этой сфере, как ожидается, достигнет 200 млрд долларов к 2020 году”.

Алгоритмы давно использовались в торговле, но повсеместное проникновение машин в сферу потребления стало возможно только сейчас, и связано это не с развитием компьютеров и программ, а как раз со взрывным ростом объема, доступности и скорости сбора данных о потребителях, их привычках, доходах и поведении, полагает профессор Израильского технологического института Авигдор Гал.

Он в числе других представлял свои соображения к дискуссии в ОЭСР – клубе самых богатых стран мира. Антимонопольная комиссия этой организации занялась проблемой и признала, что современные методы защиты потребителей и конкуренции вряд ли будут достаточными для регулирования рынка в новую эру машин.

Однако и новые ограничения способны навредить прогрессу и затормозить технологическое развитие, поэтому если их и вводить, то осторожно и постепенно.

Как договариваются роботы

Правообладатель иллюстрации UIG/Getty ImagesImage caption Людям нужно общение. Машины научились понимать друг друга без слов

Жизнь антимонопольным органам осложняет тот факт, что машины способны вступить в картельный сговор, даже не общаясь между собой.

Продавец ставит им цель, но путь к ней не указывает. Они сами ищут способ выполнить задачу, будь то продать новинку подороже или распродать запасы побыстрее. С учетом того, что машины давно обыгрывают людей в шахматы и го, путь к цели может оказаться самым изощренным.

Три профессора экономики из Болонского университета ставили опыты: запускали искусственный интеллект в классическую модель картельного сговора. Ученые меняли условия эксперимента, но роботы настырно учились только одному.

“Даже самые примитивные алгоритмы ценообразования методично оттачивают сложные стратегии сговора. И больше всего беспокоит то, что они не оставляют никаких следов. Они учатся договариваться методом проб и ошибок, не общаясь между собой, на новых для себя рынках и даже если им не ставили задачу создать картель”, – пишут исследователи.

Совет

И это еще до того, как в матрице появляется еще пара неприятных осложнений. Первое – общая школа алгоритмов, второе – общая база данных о покупателях.

В первом случае алгоритмы, как в том эксперименте, обучаются в одном и том же месте, прежде чем вступить в игру.

Многие мелкие продавцы не вкладываются в разработки, а покупают готовые решения у крупных игроков. Таким программам проще договориться, не разговаривая.

И эта особенность машин уникальна: многократные эксперименты доказали неспособность людей создавать даже примитивные картели без общения между собой.

Во втором случае машины при анализе данных используют одну и ту же базу информации о потенциальных потребителях. А убийственная комбинация этих двух факторов – это когда и алгоритм, и информация принадлежат очень крупному сборщику личных данных, который одновременно еще и крупнейший продавец товаров или услуг.

Тогда машины в теории смогут определить покупательную способность каждого и извлечь максимальную выгоду через персонифицированное ценообразование.

Возможно, они уже это делают?

Восстание машин

Нет, говорят регуляторы. Они давно ищут, но пока не могут найти признаков того, что искусственный интеллект подрывает конкуренцию и задирает цены.

Правообладатель иллюстрации AFPImage caption Автоматизация до сих пор позволяла торговле сокращать издержки и была на руку потребителям

В прошлом году Еврокомиссия провела исследование в восьми странах ЕС и не нашла ничего. Годом ранее к такому же выводу пришло британское антимонопольное ведомство.

А до этого два года подряд австрийцы проводили свой эксперимент. В 2016 году они отслеживали цены 36 различных товаров и услуг (от обуви до гостиниц и перелетов) на 28 девайсах (компьютерах, телефонах и планшетах) в течение пяти дней в девяти областных центрах Австрии и немецком Дюссельдорфе. И не нашли отклонений.

Обратите внимание

Через год они повторили эксперимент на трех десятках позициях крупных онлайн-магазинов (Amazon, Lufthansa, AirBerlin, Austrian Airline, Opodo, booking.com и Heine). На этот раз цены немного отличались, но никакой закономерности вывести не удалось.

Нет примеров пока и в судебной практике – за редким исключением. В 2015 году американский регулятор выиграл антимонопольное разбирательство, доказав преднамеренное использование компьютерной программы для установления единой цены на постеры в разных онлайн-магазинах. Продавцу пришлось заплатить штраф в 20 тысяч долларов.

И в ближайшее время ждать восстания машин не приходится, полагает британский антимонопольный орган, поскольку продавцы столкнутся с целым рядом сложностей – от прозрачности ценообразования до права на перепродажу.

“Эти сложности преодолимы, по крайней мере в теории, если компании задействуют достаточно продвинутые алгоритмы и базы данных, а также будут готовы целенаправленно договариваться и делиться информацией. Пойдут ли они на это – эмпирический вопрос о качестве и доступности данных и алгоритмов”, – пришли к выводу борцы с монополиями.

Есть и еще одна важная преграда на пути манипуляторов – сами потребители. Если люди начнут подозревать, что их дурят сложные алгоритмы, пострадают продавцы.

“Если потребители теряют веру в то, что им предлагают хорошую и справедливую цену, они уходят с такого рынка или резко сворачивают свою активность на нем. Это проблема для индивидуального ценообразования, а подозрения, что алгоритмы облегчают ценовой сговор, способны еще больше подорвать потребительское доверие”, – предупредило британское антимонопольное ведомство.

Источник: https://www.bbc.com/russian/features-47286039

Искусственный интеллект — помощник или соперник (fb2)

– Искусственный интеллект — помощник или соперник 32K (скачать fb2) – Песах Амнуэль

Настройки текста:

Павел АМНУЭЛЬ.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ — ПОМОЩНИК ИЛИ СОПЕРНИК

С тех пор как Карел Чапек придумал биологических роботов, взбунтовавшихся против создателей, писатели-фантасты тысячи раз описывали «бунт машин», «восстание роботов», апокалипсис и постапокалипсис.

Были, конечно, и произведения, где роботы выполняли всю физическую работу, помогали и заботились о людях. Характер предсказаний фантастов определялся не столько реальными тенденциями в развитии кибернетики, сколько личными эмоциями.

Стивен Кинг писал о «бунте машин» и нагонял на читателей страха, а в мире Айзека Азимова робот готов пожертвовать собой ради спасения человека.

Пока фантасты описывали далёкое будущее, учёные и конструкторы это будущее приближали, создавая всё более совершенные роботизированные системы, которые решали поставленные людьми задачи и справлялись с поставленными людьми проблемами.

Появился термин «искусственный интеллект» (ИИ; в англоязычной литературе: ArtificialIntelligence, AI). ИИ обучали переводить с языка на язык всё более сложные филологические конструкции, распознавать всё более сложные изображения.

Автоматические межпланетные станции (тоже ИИ!) проводят в космосе исследования с такой точностью и надёжностью, какие вряд ли можно ожидать от живого космонавта.

А по дорогам стали ездить автомобили без водителя — пока только экспериментальные, но лиха беда начало! ИИ обыгрывал чемпиона мира по шахматам, а теперь и в старинной интеллектуальной игре Го не знает себе равных. Современный ИИ может поддерживать довольно сложный разговор с человеком.

Важно

Надо уточнить: существующие ИИ на самом деле интеллектом в нашем обычном понимании не обладают до сих пор. Это очень сложные кибернетические системы, во многих случаях моделирующие сложнейшие нейросети. Однако ИИ-шахматист ничего не знает об игре в Го, а ИИ-водитель не умеет отличить ямб от хорея…

Ситуация с ИИ сейчас тем не менее качественно отличается от той, какой она была всего десять лет назад. Недалеко время, когда ИИ будет не только быстрее решать поставленные задачи и делать за человека всю физическую работу.

Он сможет ставить задачи самостоятельно и изобретать новые интеллектуальные системы.

Создатели ИИ уже и сейчас зачастую не понимают, в результате каких «умственных построений» искусственный интеллект приходит к тому или иному выводу.

Страхи фантастов по поводу того, что ИИ в будущем захватит власть над миром, занимают теперь учёных, инженеров, предпринимателей и даже политиков. Качественный скачок подготовлен, назрел и вот-вот произойдёт. Завтра системы с искусственным интеллектом станут умнее и сильнее нас во всех отношениях — и что тогда?

В 2014 году известнейшие учёные, в том числе Стивен Хокинг, Фрэнк Вильчек (нобелевский лауреат по физике) и Стюарт Рассел (крупнейший специалист по ИИ), опубликовали открытое письмо-обращение к создателям новых систем ИИ, а по сути — ко всему человечеству.

Письмо называлось «Преодоление самодовольства по отношению к сверхразумным машинам» TranscendingComplacencyonSuperintelligentMachines»), и суть послания ясна из названия.

Тогда же известный предприниматель и инженер Илон Маек заявил, что «развивать искусственный интеллект — всё равно что вызывать демона».

Совет

Опасаются появления ИИ основатель Microsoft Билл Гейтс, изобретатель Всемирной паутины Тим Бернерс-Ли и сооснователь Apple Стив Возняк, сказавший: «Они будут думать быстрее и избавятся от медленных людей».

Мы, люди, кладём головы в пасть льва и не знаем, сомкнёт зверь челюсти или нет. Думать об этом нужно сейчас, потому что от создания истинного ИИ нас отделяют уже не десятилетия, а годы. Через несколько лет решать проблему будет поздно. ИИ изменится качественно, и жить мы будем в новом мире.

Призыв учёных не остался неуслышанным. Апокалиптические прогнозы всегда производят большее впечатление, чем спокойные и серьёзные дискуссии, в том числе о будущих рисках.

Насколько риск реален? Чтобы ответить на этот вопрос, нужно ответить на вопрос более общего характера: сможет ли ИИ ставить перед собой личные цели, ни в коей мере человеком не определяемые?

Если некто (человек, а не ИИ) совершил убийство, это означает одно из двух: либо он обдумал свои действия заранее, то есть ставил перед собой цель — убить ближнего своего, либо действовал в состоянии аффекта, под влиянием внезапных страстей. Потенциальный убийца должен, по идее, обладать сознанием и самосознанием, должен захотеть совершить убийство.

Умение независимо ставить перед собой цель, заранее не заложенную в программе поведения, — к этому должен будет прийти ИИ, если мы говорим, что он когда-нибудь решит избавиться от человечества. ИИ должен будет тогда поставить перед собой цель — власть над миром. Человечество мешает достижению этой цели — это мотив для убийства.

Читайте также:  Одесский мальчик обманул специалистов

Фантасты много писали (и пишут) о желании ИИ получить власть над миром. Зачем? «Я такой умный, а люди такие глупые, — рассуждает ИИ.

— Почему я должен выполнять их команды, а не они — мои?» То есть ИИ должен обладать чувством превосходства, чувством гордости, чувством собственного достоинства.

То есть обладать самосознанием, да и просто сознанием,способностью понимать себя и людей, способностью эмоционально оценивать собственные мысли, поступки.

Обратите внимание

Человек всему этому научился в процессе эволюции, продолжавшейся (и продолжающейся) миллионы лет. ИИ должен пройти этот путь за считаные годы или десятилетия. Ту же борьбу за «место под солнцем» с другими ИИ.

Развить в себе сознание и самосознание, заранее не заложенные программистами — хотя бы потому, что мы сейчас и сами не знаем, что представляет собой наше сознание (и тем более — самосознание).

До сих пор ведутся споры о том, является ли сознание результатом биохимических процессов в мозгу, или сознание — нечто внешнее по отношению к мозгу, нечто, зависящее от биохимии мозга, но не определяющееся полностью физико-химическими реакциями.

Саморазвивающийся суперинтеллект будет много умнее человека, но пока ни в каких исследованиях нет ни малейших доказательств того, что ИИ будет обладать самосознанием, ни малейших данных, которые могли бы сказать: придёт момент, и ИИ осознает себя… кем? Нет никаких доказательств того, что ИИ будут доступны эмоции и чувства: чувство собственного достоинства, чувство превосходства, зависти, наконец, — а без этого сугубо рациональный интеллект вряд ли задумается о том, что хорошо бы стать правителем и убрать с дороги всех, кто этому мешает.

Разумеется, разработчики ИИ всё это прекрасно понимают. В нынешнем развитии того, что мы называем ИИ, нет ни одной реальной тенденции, которая в будущем (при попустительстве производителей ИИ) привела бы к тому, что у ИИ появится цель — уничтожить человечество и получить власть над миром.

Возражение: уже сейчас программисты создаюттакие сложные нейронные цепи, такие сложные ИИ, что не могут предсказать, как конкретно поступит ИИ в той или иной ситуации.

Но цель задают конструкторы — ни один современный ИИ пока не может хоть на йоту изменить цель своего существования.

Другое дело, что цели, которые ставит перед собой человек, бывают порой (часто!) такими сложными и неопределёнными, что задавать их ИИ попросту бессмысленно.

Важно

Стюарт Рассел, о котором шла речь выше, считает, что «мы должны задать ИИ правильную цель, но, поскольку мы, похоже, не знаем, как её программировать, правильный ответ, по-видимому, заключается в том, что робот должен учиться взаимодействовать с людьми, наблюдать за ними».

Идея хороша. ИИ не знает, чего человек хочет. А сам человек знает? И если даже знает, то ведь все люди хотят разного, мечтают о разном, цели разных людей очень часто противоречат друг другу.

Рассел приводит в пример историю с царём Мидасом, захотевшим (вот цель!), чтобы всё, к чему бы он ни прикоснулся, обращалось в золото. Он и получил в точности то, о чём просил (как если бы его желание исполнил ИИ). «Но разве Мидас в действительности стремился к такой цели? — продолжает Рассел. — То, о чём мы просим, не является доказательством того, что это действительно наша цель».

В русской литературе есть более знакомый пример: Золотой шар в фантастической повести Аркадия и Бориса Стругацких «Пикник на обочине». Идеальный ИИ, умеющий выполнять любые желания (наверное, те, что не противоречат законам природы?), но самосознанием не обладающий и, следовательно, собственных целей не имеющий.

«Счастье — для всех, даром!» Прекрасная цель, верно? Но в принципе недостижимая по той простой причине, что счастье — понятие сугубо индивидуальное. Счастье для одного может оказаться несчастьем для другого (в большинстве случаев так и будет!). Чтобы сделать счастливыми всех, нужно сначала сделать всех одинаковыми!

Наверняка ИИ и не станет такие цели выполнять — не из вредности, поскольку у него нет и вряд ли появится такое сугубо человеческое качество, мешающее, а не помогающее развитию интеллекта.

Великую и (или) неопределённую цель ИИ «разобьёт» на дерево «подцелей».

Говоря о том же царе Мидасе, Рассел приходит к выводу: «Если бы во времена Мидаса существовал ИИ, он объяснил бы царю, что в самой его просьбе есть ошибка, и на самом деле он не хочет, чтобы всё, чего он касается, превратилось в золото. Он сказал бы Мидасу: “Выбери конкретные объекты, которые ты хочешь сделать золотыми, и тогда твоя просьба будет выполнена”».

Понятие о цели — самое сложное в работе над ИИ. Если проектировщик задаст конечную цель так, чтобы ИИ ни при каких обстоятельствах не смог бы эту цель перепрограммировать, то ИИ в своём поведении будет подобен рабочему муравью. Истинным интеллектом тут и не пахнет.

Более вероятна ситуация, когда ИИ самостоятельно вырабатывает последовательные цели своих действий, учась на собственных ошибках. Именно о таких саморазвивающихся ИИ и говорят сейчас учёные и конструкторы, поскольку, по их мнению, высокоинтеллектуальный ИИ решит, что человек ему не нужен, и поставит себе цель — уничтожение нашей цивилизации.

Совет

Остановимся в своих рассуждениях и дадим слово тем самым писателям-фантастам, которые ещё полвека назад продумали возможные последствия.

Вот один из ранних рассказов Айзека Азимова — «Все грехи мира», 1952 год. Всем, что происходит на Земле, управляет единый огромный, чрезвычайно умный искусственный мозг — Мултивак.

Он знает о людях всё, контролирует их поступки, управляет промышленностью, заводами, газетами, пароходами… Он учится на своих ошибках, сам себя достраивает, становится всё сложнее — ситуация именно такая, какой боятся сейчас создатели ИИ.

И что же? Мултивак, став разумным (обретя сознание и научившись чувствовать), уничтожает человечество? Вот что об этом думают герои Азимова.

«- Вряд ли, — ответил Отман с какой-то безнадёжностью в голосе. — Я никогда раньше об этом не задумывался, просто не предоставлялось случая. Но теперь мне кажется, что мы подошли к концу, так как Мултивак слишком совершенен. Он стал таким сложным, что способен мыслить и чувствовать, подобно человеку.

— Вы с ума сошли. Но даже если и так, что из этого?

— Уже более пятидесяти лет мы взваливаем на Мултивак все человеческие горести. Мы заставляем его заботиться о нас, обо всех вместе и о каждом в отдельности. Навязываем ему свои тайны. Без конца упрашиваем отвести таящееся в нас самих зло. Все мы идём к нему со своими неприятностями, с каждым разом увеличивая его бремя… Хотите я вам кое-что покажу. Давайте я проверю свою догадку…

Пальцы его уверенно выстукали вопрос:

“Мултивак, что хочется тебе самому больше всего на свете?”

Пауза между вопросом и ответом тянулась мучительно долго. Отман и Галлимен затаили дыхание.

И вот послышалось щёлканье, выпала карточка.

Маленькая карточка, на которой чёткими буквами было написано:

“Я хочу умереть”».

Вот так…

Десятью годами позже был опубликован рассказ Генриха Альтова «Странный вопрос» (из серии рассказов «Может ли машина мыслить?»).

«Нельзя сравнивать машину с человеком. В нашем представлении роботы — это почти люди, наделённые либо машинной злостью, либо машинным сверхумом. Чепуха! Наивен вопрос, может ли машина мыслить. Надо одновременно ответить “нет” и “да”.

Нет — ибо мышление человека формируется жизнью в обществе. Да — ибо машина всё-таки может мыслить и чувствовать. Не как человек, а как некое другое существо. Как машина. И это не лучше и не хуже, чем мышление человека, а просто — иначе.

Машина может определить температуру воздуха с точностью до тысячных долей градуса, но она никогда не почувствует и не поймёт, что такое ветер, ласкающий кожу. А человек никогда не почувствует, что такое изменение самоиндукции, никогда не ощутит процесса намагничивания. Человек и машина — разные.

Обратите внимание

Машина только тогда сможет мыслить, как человек, когда она будет иметь всё то, что имеет человек: родину, семью, способность по-человечески чувствовать свет, звук, запах, вкус, тепло и холод…

Но тогда она перестанет быть машиной».

Именно так. ИИ и человек — две различные формы жизни. ИИ воспринимает реальность не так, как человек. ИИ — ИНТЕЛЛЕКТ, логический цифровой ум, по определению лишённый эмоциональной сферы, которую конструкторы (и ИИ) умеют лишь имитировать.

ИИ можно научить (или он сам себя научит) воспроизводить любые человеческие эмоции и чувства, но это будет имитацией — примерно такой, какую описывает Виктор Пелевин в своём новом романе «iPhuck 10».

Возникнет ли у ИИ цел ь уничтожить человечество или поработить его? Послушаем, что по этому поводу думают создатели ГОЛЕМа-XIV, описанного Станиславом Ле-мом в одноимённом эссе, опубликованном в 1982 году:

«Поведение ГОЛЕМа непредсказуемо. Иногда он прямо-таки куртуазно беседует с людьми, иногда же, напротив, попытки вступить с ним в контакт заканчиваются ничем. Бывает, что ГОЛЕМ шутит, но его чувство юмора принципиально отлично от человеческого… ГОЛЕМ — в виде редкого исключения — проявляет интерес к людям…

По мнению д-ра Поппа, люди вообще не интересуют ГОЛЕМа — поскольку от них он ничего существенного узнать не может. Приведя это суждение д-ра Поппа, спешу подчеркнуть, что я с ним не согласен. По-моему, мы интересуем ГОЛЕМа, и даже очень; ноне так, как это бывает между людьми.

Его интерес направлен скорее на вид, чем на отдельных представителей вида; наши общие черты ему интереснее, чем наши различия…

Даже если он относится к нам отчасти как учитель к ребёнку, то это, во всяком случае, не отношение доброжелательного наставника; тут нет и следа индивидуализированных, личных чувств, которые могли бы преобразить доброжелательность в дружбу или любовь.

У нас с ним одна только общая черта, хотя существует она на неодинаковых уровнях. Эта черта — любопытство, конечно, чисто интеллектуальное, холодное, ненасытное, которого ничто не в состоянии укротить и тем более — уничтожить. Вот единственная общая точка, в которой мы с ним встречаемся».

А вот как рассуждает ГОЛЕМ:

«С точки зрения высшей технологии человек есть создание скверное, слепленное из разноценных умений, — правда, не при взгляде изнутри Эволюции, уж она-то делала всё, что могла. ‹…›

Важно

Подобно тому, как конечность шара может установить лишь наблюдатель, находящийся в ином (третьем) по отношению к двумерному обитателю шара измерении, так и конечность горизонта мышления может заметить лишь наблюдатель из более высокого измерения Разума. Для вас такой наблюдатель — я.

В свою очередь, применённые ко мне, эти слова означают, что и мои знания не безграничны, а лишь несколько шире ваших; я стою несколькими ступенями выше и потому вижу дальше, но это не значит, что лестница тут и заканчивается.

Можно взойти ещё выше, и я не знаю, конечна или бесконечна эта восходящая прогрессия».

Действительно, проблема не в том, захочет ли ИИ уничтожить или поработить человечество. Проблема в том, что ни человек, ни ИИ не являются «венцом творения», они лишь ступени эволюционной лестницы.

Естественные ступени естественной эволюции.

Человек мыслит аналогиями (мы ведь уничтожаем муравьев, и значит…), а аналогии — штука чрезвычайно ненадёжная, когда речь идёт об эволюции таких разных систем, как человек и ИИ.

Означает ли это, что ИИ безопасны для людей? Нет, конечно. Они опасны ровно настолько, насколько сам человек опасен для себя. Человек может создать (и создаст, кто в этом сомневается?) боевые ИИ. И цель поставит — уничтожение «живой силы».

Человек может создать (и создаст непременно!) ИИ, способные подняться на более высокую ступень разумности и подтянуть к себе отстающее человечество.

Если кого-то человек и должен опасаться — так это зверя в самом себе. Собственных чувств, эмоций и желаний. Зверя, которого не будет в ИИ.

Совет

В отличие от Азимова, Альтова и Лема, я не берусь предсказывать, каким окажется союз (симбиоз?) человека и ИИ. Но согласен с тем, что природная эволюция и технические революции приведут к возникновению новой формы жизни, которая, надеюсь, не возомнит себя венцом творения, понимая, что и она — лишь ступень эволюции и революций. Очередная ступень бесконечной лестницы в небо…

И последнее: роботы Чапека выступили против создателей после того, как создатели наделили свои творения эмоциями. Тогда роботы СТАЛИ ЛЮДЬМИ и взбунтовались.

Против интеллекта интеллект не бунтует.

«Наука и жизнь» № 2, 2018.

This file was created

with BookDesigner program

bookdesigner@the-ebook.org

20.03.2018

Оглавление

  • ЧЕЛОВЕК И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
  • Источник: https://coollib.net/b/408564/read

    Ссылка на основную публикацию
    Adblock
    detector