Американские ученые предложили альтернативу тесту тьюринга

Ученый создал альтернативу знаменитому тесту Тьюринга – МК

Существующие компьютерные программы уже умеют писать рассказы и рисовать, однако, по словам Ридла, “пока ни одна программа по созданию историй не сможет пройти тест “Лавлейс 2.0”

24.11.2014 в 14:16, просмотров: 5420

 Американский исследователь из Технологического института Джорджии Марк Ридж предложил альтернативу тесту Тьюринга, нацеленного на способность компьютера мыслить самостоятельно.

Если тест, придуманный британцем Тьюрингом в середине 20 века подразумевал самый обыкновенный диалог между человеком и машиной для выявления у последней «интеллекта», то Ридж призывает проверить наличие творческих способностей. 

Обратите внимание

 Сегодня ученые используют тест Тьюринга, получившего свое название в честь британского ученого Алана Тьюринга. Новый тест искусственного творчества и интеллекта Lovalace 2.0 оценивает способность искусственного интеллекта компьютера по его способностям творить, а не просто поддерживать беседу или обманывать.

Первая версия этого теста была разработана еще в 2001 году. Тест назван в честь Ады Лавлейс, которая первой в мире написала компьютерную программу.

Первая версия теста подразумевала, что искусственный интеллект будет что-то создавать, но не будет в состоянии объяснить процесс своего творчества.

Цель компьютера во время теста Тьюринга – ввести человека в заблуждение, убедить его, что он не машина, а реальный собеседник. Если программа убедит в этом как минимум 30% собеседников, то тест считается пройденным.

Марк Ридл из Технологического института предложил новый вариант оценки искусственного интеллекта. В ходе его теста машине предложат написать стихотворение, историю или нарисовать картину. “Искусственный интеллект пройдет тест, если сможет создать творческое произведение, подпадающее под стандарты неких жанров искусства.

Подразумевается, что для его создания требуется интеллект, которым обладает человек, и созданное произведение отвечает творческим условиям, которые ставит испытующий, – объясняет Ридл.

– Мне кажется, новый тест демонстрирует идею о том, что люди это не просто усовершенствованные машины, а творчество является критерием, который отличает нас от компьютеров. Пока что”.

«Тьюринг никогда не думал, что его тест может стать официальным эталоном для определения того, может ли машина или компьютерная программа думать как человек, — отмечает Ридл.

— Но поскольку он стал, это довольно слабая проверка, в основе которой лежит обман.

Лучшей мерой был бы тест, который требует от искусственного агента создания артефакта, требующего участия широкого спектра интеллектуальных способностей человеческого уровня».

По условиям теста Ридла человек может попросить испытуемую программу или компьютер “сочинить историю, в которой мальчик влюбляется в девочку, пришельцы похищают мальчика, а девочка спасает мир с помощью говорящего кота”. Предполагается, что человек сможет с легкостью развить такой сюжет, а искусственного интеллекта он, якобы, поставит в тупик.

Базовые правила проверки Lovelace 2.0:

– искусственный агент проходит ее, если создает творческий артефакт из подмножества художественных жанров, которые требуют участия интеллекта человеческого уровня, и этот артефакт отвечает определенным условиям, выдвинутым человеком-экспертом;

– человек-эксперт должен определить и установить, что объект является действительным представителем творческого подмножества и отвечает нужным критериям. Созданный артефакт должен отвечать лишь этим критериям — у него может и не быть эстетической ценности.

– арбитр в лице человека должен убедиться, что сочетание множества критериев не является невыполнимым стандартом.

Важно

Ридл представит свой тест на конференции Beyond the Turing Test 25-29 января 2015 года в Остине, штат Техас.

Источники: hitech.vesti.ru, hi-news.ru, bbc.co.uk.

Источник: https://www.mk.ru/science/2014/11/24/amerikanskiy-issledovatel-predlozhil-alternativu-ustarevshemu-testu-tyuringa.html

8 неочевидных способов определить искусственный интеллект

Этот тест назван в честь Ады Лавлейс, математика из XIX века, которую считают первым в истории программистом. Он призван определить наличие интеллекта у машины через способность её к творчеству.

Первоначально тест предложили в 2001 году: тогда машина должна была создать произведение искусства, которое разработчик машины принял бы за созданное человеком.

Так как чётких критериев успеха нет, тест получается слишком неточным.

В прошлом году профессор Марк Рейдел из Технологического института Джорджии обновил тест, чтобы сделать его менее субъективным. Теперь машина должна создать произведение в определённом жанре и в определённых творческих рамках, заданных человеком-судьёй.

Проще говоря, это должно быть произведение искусства в конкретном стиле. Скажем, судья может попросить машину нарисовать маньеристскую картину в духе Пармиджанино или написать джазовое произведение в духе Майлза Дэвиса.

В отличие от оригинального теста, машины работают в заданных рамках, и поэтому судьи могут оценивать результат более объективно.

Этот тест придумал Чарли Ортиц, менеджер по искусственному интеллекту в компании Nuance Communications. По словам Ортица, недостаток теста Тьюринга в том, что он проверяет в первую очередь языковые способности, опуская другие важные составляющие разума — восприятие и физические действия. Проще говоря, у компьютеров, проходящих тест Тьюринга, нет глаз или рук.

Испытание IKEA (также известное как строительное испытание), придуманное Ортицом, призвано обойти эти ограничения.

Его могут пройти только роботы, способные построить физические структуры из, например, деталей мебели IKEA или даже кубиков LEGO.

Совет

Робот, проходящий испытание IKEA, должен давать вербальные инструкции и описания структур, самостоятельно манипулировать деталями и физическими компонентами, следить за постройкой, отвечать на вопросы и описывать ход работы.

Как и Ортиц, создатели визуального теста Тьюринга пытаются уменьшить роль языка в первоначальном тесте. Сотрудники Эксетерского университета в Англии Майкл Барклай и Энтони Галтон придумали тест, который проверяет визуальные способности машины, то есть может ли она «видеть», как человек. Тест можно посмотреть здесь.

Машине показывают картинку и спрашивают, например, где на ней находится чашка, — и дают несколько вариантов ответа. Все варианты ответов правильные (на столе, на подстилке, перед стулом, слева от лампы), но некоторые из них могут быть более человеческими, чем другие (скажем, из всего перечисленного человек скорее ответит «на столе»).

Кажется, что это простое задание, но на самом деле способность описать, где находится объект по отношению к другим объектам — важнейший элемент человеческого разума. Здесь играют роль множество нюансов и субъективных суждений, от размера объектов до их роли в конкретной ситуации — в общем, контекст.

Люди проделывают это интуитивно, а машины сталкиваются с проблемами.

Чат-боты, проходящие тест Тьюринга, умело обманывают судей и заставляют поверить, что они — люди. По словам Гектора Левеска, профессора информатики в Университете Торонто, такой тест лишь показывает, как легко обмануть человека, особенно в короткой текстовой переписке. Но из теста Тьюринга невозможно понять, есть ли у машины интеллект или хотя бы понимание языка.

В 2011 году Левеск опубликовал статью, в которой предложил новый тест, так называемую «схему Винограда», названную в честь учёного Терри Винограда. Проходя этот тест, машина отвечает на вопросы с двумя вариантами ответа.

Звучит просто — и для людей эти вопросы действительно простые, — но они сформулированы так, что без естественного понимания языка машина испытывает трудности. Вот один из вопросов: «Трофей не влезал в коричневый чемодан, потому что он был слишком маленьким (большим). Что было слишком маленьким (большим)?».

Если в вопросе используется слово «маленьким», то ответ — трофей, если «большим» — то чемодан. Эрнест Дэвис, коллега Левеска, работавший с ним над исследованием, опубликовал целую библиотеку вопросов, которые могут быть использованы в таком тесте.

Обратите внимание

Чтобы ответить правильно, нужно обладать навыками, которые до сих пор недоступны компьютерам: например, уметь представлять пространство, отношения между людьми, размер объектов, даже нюансы политики — всё зависит от конкретных вопросов.

Некоторые исследователи предлагают перевернуть тест Тьюринга с ног на голову — и сделать так, чтобы не человек проверял машину, а чтобы машина могла определить человека.

Самая популярная форма такого теста — это CAPTCHA, запутанные надписи, которые вы видите на многих сайтах и которые нужно вбивать на клавиатуре так, как показано на экране.

CAPTCHA мало кто воспринимает всерьёз, но в то же время между создателями CAPTCHA и роботами, способными их обойти, идёт что-то вроде гонки вооружений. Если будут побеждать первые, мы сможем прийти к более сложным системам, которые научатся превосходно отличать человека от машины.

Уже сейчас предлагают более сложные альтернативы: скажем, соединение CAPTCHA с тачскринами. Практического смысла для определения ИИ в обратном тесте Тьюринга мало, но он может размыть наши представления о человечности, интеллекте и заставить нас посмотреть на это по-новому.

Учёный-когнитивист Гэри Маркус — активный критик теста Тьюринга в его нынешнем виде. В этом году, например, он организовал конференцию, посвящённую вопросам искусственного интеллекта, где призывал оставить тест Тьюринга и придумать что-нибудь новое.

Маркус предложил свою альтернативу, которую, например, описал в статье для журнала The New Yorker.

Он предлагает построить компьютерную программу, которая смогла бы смотреть телевизионные шоу и видео на YouTube и отвечать на вопросы по их содержанию — ну, скажем, почему Джоффри Баратеон приказал казнить Эддарда Старка. Но это не так трудно.

Тест Маркуса заключается в другом: включите такой программе эпизод «Симпсонов» и пусть она объяснит, в каких местах следует смеяться. Если компьютер может определить и понять юмор, сарказм и иронию — и даже объяснить их — значит, он максимально приблизился к интеллекту, а может и обладает им.

Для того чтобы доказать, что машина обладает разумом, нужно больше, чем поведенческие и языковые тесты. Нужно доказать, что у неё есть необходимые инструменты для интеллекта, что у машины есть какой-то эквивалент сложного и динамического человеческого мозга, даже если этот мозг — просто код.

В нейробиологии есть термин нейронный коррелят сознания — это сложный набор механизмов и событий в мозге, необходимых для сознания. Если мы обнаружим коррелят в машине, мы убедимся, что перед нами не просто симуляция сознания, а настоящее сознание. Но это очень трудно: о человеческом мозге мы понимаем очень мало.

Так что цифровое вскрытие машины скорее работает не как тест, а как шаг к созданию искусственного мозга — всё-таки, чтобы вскрыть и увидеть такой мозг, нужно его сначала создать.

Важно

На упомянутой выше конференции, организованной Гэри Маркусом, предложили ещё одно неожиданное решение проблемы теста Тьюринга — так называемая олимпиада Тьюринга. Любое единичное испытание проверяет наличие интеллекта не полностью, потому что в человеческом интеллекте есть много разных элементов.

Читайте также:  Способен ли компьютер идентифицировать запахи?

Поэтому учёные предлагают организовать целую серию испытаний для машины, каждое из которых будет проверять разные аспекты интеллекта. В конце концов, по отдельности машины становятся всё лучше в разных сферах: от зрения и визуального распознавания до распознавания речи и понимания языка.

Организаторы конференции планируют провести первую такую олимпиаду уже в начале следующего года.

Изображения via Duck, Shutterstock

Источник: http://www.lookatme.ru/mag/live/inspiration-lists/214377-turing-test-alternatives

Lovelace 2.0: предложена альтернатива тесту Тьюринга

24.11.2014

Доцент Технологического института Джорджии профессор Марк Ридл разработал новый тип «теста Тьюринга», предложенного в 1950-х годах пионером вычислительной техники Аланом Тьюрингом для определения, может ли машина или компьютерная программа представлять интеллект человеческого уровня. Тест искусственного творчества и интеллекта Lovalace 2.0 оценивает способность искусственного интеллекта компьютера по его способностям творить, а не просто поддерживать беседу или обманывать.

 Большинство видов теста Тьюринга предполагают, что машина будет участвовать в диалоге и должна убедить (обхитрить) человеческого судью в том, что он общается с конкретным человеком. Однако создание определенных произведений искусства также требует интеллекта, что привело Ридла к осознанию: такой подход может лучше определить, может ли машина воспроизвести человеческую мысль.

«Важно отметить, что Тьюринг никогда не думал, что его тест может стать официальным эталоном для определения того, может ли машина или компьютерная программа думать как человек, — говорит Ридл.

— Но поскольку он стал, это довольно слабая проверка, в основе которой лежит обман.

Лучшей мерой был бы тест, который требует от искусственного агента создания артефакта, требующего участия широкого спектра интеллектуальных способностей человеческого уровня».

Тест Lovelace 2.0

В конечном счете, Ридл создал тест искусственного творчества и интеллекта Lovelace 2.0. Вот базовые правила проверки:

  • Искусственный агент проходит ее, если создает творческий артефакт из подмножества художественных жанров, которые требуют участия интеллекта человеческого уровня, и этот артефакт отвечает определенным условиям, выдвинутым человеком-экспертом.
  • Человек-эксперт должен определить и установить, что объект является действительным представителем творческого подмножества и отвечает нужным критериям. (Созданный артефакт должен только отвечать этим критериям — у него может и не быть эстетической ценности).
  • Арбитр в лице человека должен убедиться, что сочетание множества критериев не является невыполнимым стандартом.

Тест Lovelace 2.0 связан с оригинальным тестом Лавлейс, предложенным Брингсйордом, Белло и Ферруччи в 2001 году. Тот тест требовал, чтобы искусственный агент произвел творческий продукт таким образом, чтобы создатель агента не мог объяснить, как тот воплотил свое творчество. То есть, объект творчества должен быть ценным, новым и удивительным.

Ридл утверждает, что оригинальный тест Лавлейс не устанавливает четких или измеримых параметров. Lovelace 2.0, однако, позволяет оценщику работать с определенными ограничениями, не делая оценочных суждений, например, вызывает ли объект творчества удивление.

Работа Ридла будет представлена на конференции Beyond the Turing Test 25-29 января 2015 года в Остине, штат Техас.

Источник: http://www.2045.ru/news/33548.html

Американский робот прошел тест Тьюринга

Преподавательница из технологического университета Джорджии (США) Джилл Уотсон в течение пяти месяцев помогала студентам в работе над проектами по дизайну компьютерных программ.

Ее считали выдающимся педагогом вплоть до того момента, когда выяснилось, что Джилл Уотсон не человек, а робот, система искусственного интеллекта на базе IBMWatson.

Эту историю рассказали в The Wall Street Journal.

Робот «Джилл» вместе с еще девятью преподавателями-людьми помогала около 300 студентам разрабатывать программы, касающиеся дизайна презентаций, например, грамотного подбора картинок-иллюстраций.

Джилл помогала студентам на интернет-форуме, где они сдавали и обсуждали работы, использовала в своей речи жаргонные и просторечные обороты вроде «угу» («Yep!»), то есть вела себя как обычный человек.

«Она должна была напоминать нам о датах дедлайна и с помощью вопросов подогревать обсуждения работ. Это было как обычный разговор с обычным человеком», – рассказала студентка вуза Дженнифер Гевин.

Другой студент, Шрейяс Видьярти, представлял себе Джилл как симпатичную белую женщину 20-ти с небольшим лет, работающую над докторской диссертацией.

Не заподозрил в человеке робота даже студент Баррик Рид, который два года работал на IBM, создавая программы для «Джилл Уотсон». Даже в имени «Уотсон» он не разглядел подвоха.

Робот был включен в университетскую программу обучения, чтобы избавить преподавателей от огромного потока вопросов, с которыми к ним обращаются в процессе обучения студенты. Робот «Джилл» способен к обучению в отличие от интернет-чатботов.

Совет

Строго говоря, этот робот-педагог сдал знаменитый тест Алана Тьюринга, который на протяжении довольно долгого времени считался главным критерием для ответа на вопрос «Могут ли машины мыслить?».

Справка:

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Тьюринг задался целью определить, может ли машина мыслить.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест.

Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов.

Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило тоже необходимо, потому что они реагируют гораздо быстрее, чем человек.

Алан Тьюринг – знаменитый английский математик и криптограф, во время второй мировой войны разработавший алгоритм для взлома немецкого шифратора «Энигма». Он начинает свою статью утверждением: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?“».

Тьюринг подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Словно понимая, что это можно обсуждать до бесконечности, а толку будет немного, Тьюринг выбирает другой путь.

Он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?».

В окончательной версии теста Тьюринга жюри должно задавать вопросы компьютеру, задача которого – заставить членов жюри поверить, что он на самом деле человек.

Вокруг теста Тьюринга со временем разгорелись жаркие споры экспертов по когнитивистике.

Обратите внимание

Например, американскпй философ Джон Роджерс Сёрл в 1980 году написал статью «Разум, мозг и программы», в которой выдвинул контраргумент, известный как мысленный эксперимент «Китайская комната».

Сёрл настаивал, что даже прохождение роботами или программами теста Тьюринга будет означать лишь манипуляцию символами, которых они не понимают. А без понимания нет разума. Значит тест Тьюринга неверен.

Эксперимент «Китайская комната» заключается в том, что испытуемый помещается в изолированную комнату, в которую ему через узкую щель передают вопросы, записанные китайскими иероглифами.

С помощью книги с инструкциями по манипуляциям с иероглифами, человек, совершенно не понимающий китайской письменности, сможет правильно ответить на все вопросы и ввести в заблуждение того, кто их задает.

Тот будет считать, что отвечающий на его вопросы прекрасно знает китайский язык.

В ходе дискуссии, которая продолжалась все 80-е и 90-е годы вспомнили даже «мельницу Лейбница», то есть мысленный эксперимент великого математика, описанный им в книге «Монадология».

Лейбниц предлагает представить машину величиной с мельницу, которая бы могла симулировать чувства, мысли и восприятие. То есть внешне казалась бы разумной. Если зайти внутрь такой машины, то ни один из ее механизмов не будет являться сознанием или мозгом.

Думается, что Лейбниц и Сёрл разными способами выразили одну и ту же мысль: даже если машины кажется мыслящей, она на самом деле не мыслит.

Ответа на вопрос «Могут ли машины мыслить?» нет до сих пор по одной простой причине: ученые перестали спорить и пытаются создать такие машины. Возможно, они когда-нибудь преуспеют в этом.

Важно

Однако, не исключено, что искусственный интеллект обманет даже своих создателей, которые поверят в его разумность и которая на самом деле будет лишь манипуляцией, но такой искусной, что раскрыть ее человеку окажется не под силу.+

В фильме выдающегося советского режиссера -документалиста Семена Райтбурта   демонстрируется одна из попыток прохождения теста Тьюринга роботом.

В ходе эксперимента, воспроизводимого в фильме, несколько человек задают одинаковые вопросы двум неизвестным собеседникам, пытаясь распознать, кто перед ними – машина или человек.

Признаюсь, что я лично ошибся, роботом оказался не тот, на которого я подумал. Поэтому мне вполне понятны чувства студентов «мисс Джилл Уотсон», полгода принимавших ее за человека.

Испытайте себя, товарищи!

Источник: https://vvprohvatilov.livejournal.com/230642.html

8 Возможные альтернативы тесту Тьюринга

Тест Тьюринга, который предназначен для обнаружения человекоподобного интеллекта в машине, принципиально ошибочен. Но это не означает, что оно не может быть улучшено или изменено. Вот восемь предлагаемых альтернатив, которые могут помочь нам отличить бота от человека.

Возможно, лучший способ обнаружить интеллект в машине – это рассказать вам, когда смешно смеяться (см. № 2). Иллюстрация Тары Якоби

Могут ли цифровые компьютеры думать? В 1950-х годах первопроходчик в области информационных технологий Алан Тьюринг задал этот вопрос другим способом: «Есть ли воображаемые цифровые компьютеры, которые бы хорошо сыграли в имитационной игре?» Хотя первоначальный запрос Тьюринга предполагал, что компьютер способен участвовать в простой партийной игре , сегодня вопрос широко трактуется как «Есть ли воображаемые цифровые компьютеры, которые могли бы убедительно подражать человеку, участвующему в разговоре?» Если такой компьютер, как говорят, существует, рассуждение идет, то этот компьютер также может считаться интеллектуальным.

Тестирование Тьюринга было предметом много дебатов за эти годы. Одно из самых больших возражений связано с серьезным акцентом внимания на навыках обработки естественного языка, которые охватывают очень узкий уровень интеллекта.

Еще одна жалоба, вызванная спором Лабнера в 2014 году, заключается в том, что тест поощряет обман как средство достижения победы; русский чатбот Евгений Густман «прошел» Тест Тьюринга , убедившись, что один из трех судей премии «Лёбнер» – это 13-летний неродной англоязычный украинский мальчик.

В свете подобных инцидентов и с учетом присущих испытанию слабых сторон ряд мыслителей выдвинул идеи о том, как можно было бы улучшить, модифицировать или заменить тест Тьюринга вообще.

1. Winograd Schema Challenge

Гектор Левеске, профессор компьютерных наук Университета Торонто, говорит, что чатботы эффективны, когда обманывают некоторых судей, думая, что они люди. Но такой тест, по его словам, просто показывает, как легко обмануть некоторых людей – особенно с помощью коротких текстовых разговоров.

Чтобы исправить это, Левеск разработал программу Winograd Schema Challenge (WSC), которая, по его словам, является превосходной альтернативой тесту Тьюринга. Вызванный после компьютерного ученого Стэнфордского университета Терри Винограда, тест представляет собой ряд вопросов с множественным выбором в очень специфическом формате.

Вот некоторые примеры:

Совет

Если первый вопрос задан словом «большой», то ответ «0: трофей». Если вместо слова «маленький» ставится слово «ответ:« 1: чемодан ». Ответ на второй вопрос аналогичным образом зависит от того, включает ли предложение слово «опасается» или «защищено».

Ответы на эти вопросы кажутся довольно простыми, не так ли? Конечно, если вы человек. Правильно отвечающий требует навыков, которые остаются неуловимыми для компьютеров, таких как пространственные и межличностные рассуждения, знания о типичных размерах объектов, о том, как разворачиваются политические протесты, и о других типах здравого смысла.

2. Тест Marcus

Когнитивный ученый NYU Гэри Маркус является откровенным критиком теста Тьюринга в его нынешнем формате.

Наряду с компьютерными учеными Мануэлой Велосо и Франческой Росс он недавно возглавлял семинар по вопросу о важности мышления « Помимо теста Тьюринга ».

В мероприятии приняли участие несколько экспертов, которые придумали интересные идеи, некоторые из которых фигурируют в этом списке. Сам Маркус разработал свою собственную альтернативу, которую я называю Тест Маркуса.

Вот как он объяснил это The New Yorker :

Отличная идея! Если компьютер действительно может обнаружить и понять юмор, сарказм и иронию, а затем объяснить это значимым образом – тогда в его силиконовом черепе должны быть какие-то серьезные соображения.

3. Тест Lovelace 2.0

Названный в честь Ады Лавлейс (на фото) – первого в мире компьютерного программиста – этот тест направлен на обнаружение искусственного интеллекта, измеряя его способность к творчеству.

Тест был первоначально разработан в 2001 году Selmer Bringsjord и его коллегами , которые утверждали, что если искусственный агент может создать истинное произведение искусства таким образом, который необъяснимо для его разработчика, на работе должен быть человекоподобный интеллект.

Тест Lovelace недавно был модернизирован профессором Джорджем Тексом Марком Ридлом, чтобы исправить двусмысленность и субъективность, скрытые в этом подходе.

Основные правила теста Lovelace 2.0 по искусственному творчеству и интеллекту :

Обратите внимание

Например, судья может попросить агента, о котором идет речь, создать джаз-пьесу в духе Дэйва Брубека или нарисовать ландшафт импрессионизма, подобный Моне.

Затем судья должен будет решить, насколько хорошо агент работал в этой задаче с учетом требований.

Поэтому, в отличие от первоначального теста, судьи могут работать в рамках определенного набора ограничений и без необходимости оценивать суждения. Более того, тест позволяет сравнить относительный интеллект различных агентов.

4. Задача строительства

Чарли Ортис, старший главный менеджер AI в Nuance Communications, придумал этот. Раньше известный как Ikea Challenge, этот тест – попытка создать физически воплощенную версию теста Тьюринга.

Основная слабость теста Тьюринга, говорит Ортис, заключается в том, что он фокусируется на словесном поведении, игнорируя при этом два важных элемента интеллектуального поведения: восприятие и физическое действие. В конце концов, компьютеры, подвергшиеся испытанию Тьюринга, не имеют глаз или рук.

Как указал Ортис на io9, «это существенные ограничения: поле ИИ всегда придавало большое значение способности воспринимать мир и действовать на нем».

Саймон Батлер / Икеа

Ortiz's Construction Challenge – это способ преодолеть это ограничение. Вот как он описал это в io9:

Дополнительным преимуществом создания такой проблемы является то, что она может способствовать развитию роботов, которые могут преуспеть во многих крупных задачах строительства, включая создание лагерей либо на Земле, либо за ее пределами.

5. Визуальный тест Тьюринга

Как и вызов Ортиса, визуальный тест Тьюринга – это попытка уменьшить смещение естественного языка, неявное в оригинальном тесте Тьюринга. Ученые-компьютерщики Майкл Барклай и Антони Гальтон из Университета Эксетера в Великобритании разработали тест, который бросает вызов машине, имитирующей визуальные способности людей .

Людям и программному обеспечению задали простой вопрос о сцене, изображенной выше: «Где кофейная чашка?» Поскольку вы можете видеть, что каждый из ответов на множественный выбор technically корректен, но некоторые, примечания Барклая и Гальтона, можно считать более «правильными» (т.е. более «человеческими»), чем другие. Как говорит Селеста Бивер и Ричард Фишер в New Scientist :

New Scientist есть интерактивная версия теста, которая бросает вызов вам идентифицировать «человеческие» ответы от типичных для компьютера. Вы можете взять это для себя здесь .

6. Обратный тест Тьюринга

Что делать, если мы немного изменили ситуацию и пересилили тест таким образом, чтобы машина была способна идентифицировать человека? Такой «тест» в настоящее время существует в виде CAPTCHA – тех раздражающих процедур защиты от спама. Если тестировщик может точно перенести ряд шатких символов, компьютер знает, что он имеет дело с человеком.

Этот метод проверки привел к гонке вооружений между CAPTCHA и разработчиками CAPTCHA-busting bots ; но эта игра с одним совершенством могла бы, по-видимому, привести к оценочным системам, которые чрезвычайно хороши при идентификации людей с машин. Кто-то догадывается, как такая система может выглядеть на практике , но можно сделать вывод, что способность машины распознавать человека через беседу сама по себе является отражением интеллекта.

7. Цифровое рассечение

Нам нужно больше, чем поведенческие тесты, чтобы доказать, что машина умна; нам также необходимо продемонстрировать, что он содержит когнитивные способности, необходимые для человекоподобного интеллекта.

Другими словами, нам нужно некоторое доказательство того, что он обладает машинным эквивалентом сложного и динамичного мозга (даже если этот мозг представляет собой ряд сложных алгоритмов ). Чтобы достичь этого, нам нужно будет идентифицировать машинные эквиваленты нейронных коррелятов сознания (NCC).

Такое понимание теоретически сообщит нам, имеем ли мы дело с симуляцией («притворным» умом) или bona fide эмуляцией.

Это легче сказать, чем сделать; neuroscientists все еще пытаются определить NCC у людей, и многое о человеческом мозге остается загадкой . Будучи жизнеспособной альтернативой тесту Тьюринга, нам придется отложить это на время. Но как потенциальный путь к развитию искусственного мозга – и даже искусственного сознания (AC) – он имеет огромные перспективы.

8. Все вышеперечисленное

Как показывает работа Гэри Маркуса и других, суть всего этого не обязательно заключается в создании преемника теста Тьюринга, а скорее в наборе тестов. Назовите это Олимпиадой Тьюринга . Столкнувшись с ИИ с разнообразными проблемами, судьи имеют гораздо больший шанс отличить бота от человека.

Один последний вопрос: пересмотреть правила премии Loebner

Все это говорит о том, что некоторые эксперты не считают, что текущие ограничения теста Тьюринга не связаны с самим тестом, а также с тем, как он проводится и оценивается. Написав в Spectrum IEEE , Ли Гомес объясняет :

Улучшатся ли эти соображения? Абсолютно. Но они все еще не обошли склонность к навыкам обработки естественного языка.

Источник: https://ru.upost.info/31363937393833393835

Российский искусственный интеллект обманул тест Тьюринга :: Общество :: РБК

Компьютерная программа разработчиков из России и Украины впервые в истории прошла тест Тьюринга, который выявляет искусственный интеллект.

Чат-бот Eugene Goostman (Фото: Eugene Goostman)

Чат-бот Eugene Goostman (“Евгений Густман”), имитирующий 13-летнего подростка из Одессы, обманул жюри конкурса Turing Test – 2014, которое приняло его за человека. Программу начали разрабатывать в 2001г. в Санкт-Петербурге Владимир Веселов из России и Евгений Демченко с Украины. Веселов в данный момент живет в США, а Демченко – в России.

Английский математик Алан Тьюринг, живший в первой половине XX века, предложил идею теста, который дает ответ на вопрос, может ли компьютер мыслить. Во время теста человек общается с виртуальным собеседником.

Важно

По итогам беседы он должен решить, с кем разговаривал – с человеком или машиной. Тест пройден в том случае, если минимум 30% респондентов утверждают, что они общались с человеком.

Задача компьютерной программы – заставить собеседника сделать неверный выбор.

7 июня программа “Евгений Густман” впервые прошла тест Тьюринга за его 65-летнюю историю, сообщается на сайте Университета Ридинга, Великобритания (The University of Reading).

В конкурсе Turing Test – 2014, который проводился при поддержке Лондонского королевского общества, Школы системного инжиниринга (University's School of Systems Engineering) и проекта RoboLaw (финансируется ЕС) приняли участие пять суперкомпьютеров.

33% жюри конкурса приняли программу “Евгений Густман” за человека. В 2012г. программа смогла убедить 29% судей в том, что является человеком.

“Прохождение теста Тьюринга – это фантастика”, – рассказал РБК ученый-кибернетик Кевин Уорвик, который организовывал Turing Test – 2014.

По его мнению, это событие является самой важной вехой в области изучения искусственного интеллекта. Программа позволит в дальнейшем разработать компьютер, который поможет бороться с киберпреступностью, отметил ученый.

Уорвик рассказал, что собирается писать научную работу на основе прошедшего конкурса.

Идея создания персонажа программы “Евгений Густман” заключалась в том, что 13-летний подросток может не знать некоторых вещей, но в то же время способен отвечать на вопросы собеседника, цитирует Владимира Веселова Университет Рединга.

Команда потратила много времени, чтобы персонаж получился правдоподобным, отметил Веселов. В этом году был улучшен диалоговый контроллер, который делает реплики программы похожими на человеческие, добавил ученый.

По словам Веселова, он планирует и дальше работать над программой, чтобы сделать ее “умнее”.

Читайте также:  Росстандарт разработает гост для искусственного интеллекта

Источник: https://www.rbc.ru/society/09/06/2014/57041e1e9a794761c0cea734

Искусственный интеллект впервые прошел тест Тьюринга

Свершилось. Впервые в истории компьютер с искусственным интеллектом прошел тест Тьюринга. Радоваться или собирать тревожный чемоданчик — решать вам, одно остается фактом: обратного пути нет. Не за горами создание искусственного интеллекта, мощь которого превзойдет человеческую. Но для начала давайте разберемся.

Как пишет The Independent, программа убедила людей в том, что за компьютером сидит 13-летний мальчик. Это означает фактическое прохождение теста Тьюринга, когда компьютер нельзя отличить от человека. Это серьезная веха в развитии искусственного интеллекта, но ученые уже предупреждают, что эта технология может быть использована для совершения киберпреступлений.

Пионер вычислительных технологий Алан Тьюринг утверждал, что компьютер можно назвать мыслящим, если он пройдет тест, в течение которого ему нужно будет обмануть (ввести в заблуждение) 30% собеседников в лице людей в ходе пятиминутных текстовых сообщений.

«Юджин Густман», Евгений Густман, Eugene Goostman — это компьютерная программа, созданная командой российских программистов, которая успешно прошла тест в Королевском обществе в Лондоне. Тридцать три процента судей поверили, что говорят с человеком, сообщают ученые из Университета Рединга, которые и организовали тест.

Совет

Отныне можно считать, что это первый компьютер, который прошел знаковый тест. Хотя другие программы тоже близки к успеху. Еще год назад в ходе проведения теста Turing 100 (в честь столетия Алана Тьюринга, если бы он жил и по сей день) Eugene Goostman получил крайне высокие оценки судей. Вместе с программой тест проходили и знакомые многим Cleverbot, Ultra Hal, Elbot the Robot и JFRED.

Версия «Юджина», созданного еще в 2001 году, есть и в Интернете. Компьютерная программа утверждает, что она — 13-летний мальчик из Одессы, Украина.

«Наша главная идея заключалась в том, что он знает все и ничего не знает, а возраст Юджина это объясняет, — говорит Владимир Веселов, один из создателей программы. — Мы провели много времени, разрабатывая персонажа с правдоподобной личностью».

Успех программы, скорее всего, вызовет определенные опасения по поводу будущего вычислений, говорит Кевин Уорвик, приглашенный профессор в Университете Рединга и заместитель вице-канцлера по исследованиям в Университете Ковентри.

«В сфере искусственного интеллекта нет более знакового и спорного этапа, чем тест Тьюринга, когда компьютер убеждает достаточное количество следователей в том, что он не машина, а человек. Имея компьютер, который может обмануть человека, можно считать это тревожным сигналом для развития киберпреступности».

Попробуйте сами представить, насколько важным может быть превращение любых кибернетических собеседников с искусственным интеллектом почти в людей по переписке. Когда спам-боты станут неотличимы от людей.

В ходе теста, организованного Королевским обществом, было испытано пять программ. Алан Тьюринг создал свой тест в ходе написания работы «Вычислительная техника и интеллект».

В ней он отметил, что поскольку «мышлению» сложно дать определение, важно понять, может ли компьютер имитировать реальное человеческое существо.

С тех пор тест стал ключевым элементом философии искусственного интеллекта.

К 60-летию со дня смерти Тьюринга тест был пройден.

Источник: http://paranormal-news.ru/news/iskusstvennyj_intellekt_vpervye_proshel_test_tjuringa/2014-06-11-9189

Тест Тьюринга – суть, вопросы и недостатки

Способны ли роботы мыслить? Какой искусственный интеллект стоит признать разумным? Может показаться, что эти вопросы стали актуальны только в нашем веке, тогда как на самом деле научное сообщество решает их уже очень давно. Яркий пример – знаменитый тест Тьюринга, разработанный еще в 1950 году.

Тест Тьюринга: общее описание

За почти 70 лет со времен первой публикации процедура прохождения претерпевала изменения, однако суть теста Тьюринга остается прежней.

Кратко ее можно выразить следующим образом: если, общаясь с человеком и машиной, экспериментатор не сможет определить, кто из них кто, значит, машиной тест пройден.

Иными словами, идея теста заключается в том, что компьютер своими ответами должен убедить собеседника (он же судья) в своей человечности. По мнению Тьюринга, это свидетельствует о способности искусственного интеллекта мыслить и должно стать основанием для признания его разумности.

Обратите внимание

Конечно, чтобы тест состоялся, судья не должен видеть собеседника, слышать его голос и т.д. В противном случае эксперимент явно будет провален, но это не будет связано с интеллектуальными возможностями машины. Как правило, формой общения выбирается электронная переписка. В изначальной версии теста человек общался с двумя субъектами – другим человеком и машиной.

Чуть позже Тьюринг видоизменил прохождение – перед ИИ ставилась задача убедить в своей разумности ряд судей, которые, в свою очередь, общались с несколькими людьми и несколькими машинами. Это в том числе позволяет избежать субъективности в оценках и снизить риск простого угадывания.

Количество подопытных машин и людей в современных версиях теста разнится, как и время их общения.

Судья может говорить со своими виртуальными собеседниками о чем пожелает: вопросы теста Тьюринга не имеют ограничений. Для машины это представляет дополнительную сложность.

Чтобы выполнить такое задание, компьютерная программа должна не просто понимать человеческий язык, но и давать естественные ответы по самым разным темам, отделяя важную информацию от несущественной для того или иного направления беседы.

Ответы от собеседника судье приходят через заданные промежутки времени, чтобы по скорости их появления нельзя было сделать никаких выводов.

Интересно, что раньше недостатки программного обеспечения приводили к тому, что машины реагировали медленнее человека, и фора давалась именно компьютеру.

Сейчас же искусственный интеллект, напротив, работает быстрее, и время на размышление нужно уже людям.

Недостатки теста Тьюринга

Одним из главных недостатков теста видится то, что фактически перед машиной ставится задача запутать, обмануть человека.

Говорит ли это о том, что мы может признать мыслящими и разумными только тех, кто умеет обманывать и манипулировать? Этот вопрос, скорее, лежит в области философии.

Тем более что в теории прошедший тест Тьюринга робот должен хорошо имитировать, повторять действия человека, а не запутывать судью. На практике же с тестом лучше других справлялись «манипуляторы» – например, те, кто допускал опечатки в ответах.

Важно

Машин даже специально этому обучали, чтобы их переписка выглядела «естественнее». Еще одна распространенная уловка компьютера: умолчать о чем-либо, дать неполный ответ на вопрос или вовсе сослаться на незнание. Иначе искусственный интеллект можно вычислить по тому, что он «слишком умный».

Кроме того, несмотря на заявленную цель в определении разумности и способности мыслить, фактически тест оценивает схожесть речевого поведения компьютера и человека.

Это не может быть объективной оценкой ИИ в целом, особенно сегодня, когда компьютеры и роботы по скорости вычислений существенно превосходят человека и могут добиться впечатляющих результатов в самых различных областях.

То есть саму по себе возможность «переписываться, как человек» нельзя признать значительным достижением. Фактически ориентация на тест Тьюринга, отмечают его критики, скорее тормозит развитие прогресса, чем подстегивает его.

Вместо того чтобы создавать что-то еще более совершенное и превосходящее нас, мы прививаем роботу наши нелучшие черты и не даем ему двигаться вперед. Однако здесь надо сделать скидку на то, что, когда тест создавался, способности у компьютеров были существенно ниже.

Прошел ли кто-либо тест Тьюринга?

На данный момент считается, что в своем строгом варианте тест за всю почти 70-летнюю историю пройден не был. Иногда машинам удается убедить собеседника в том, что он разговаривает с человеком, однако часто в таких случаях нельзя говорить именно о прохождении теста Тьюринга.

Например, это распространяется на ситуации, когда «судья» не знает, что общается с машиной и что он вообще участвует в каком-то эксперименте.

Получается, вместо того чтобы наблюдать за собеседником и делать выводы, подневольный «экспериментатор» просто верит, что общается с человеком, потому что изначально нацеливался именно на такой разговор.

Совет

Также тест Тьюринга вроде бы удавался, когда круг тем был ограничен и/или времени на общение давалось мало. Но и здесь не соблюдался важный принцип изначального теста – максимальная естественность беседы. Поэтому в общем и целом последователи теста отмечают, что с ним еще никто не справился.

В 2014 году по СМИ разошлась новость, что тест якобы пройден. Сделал это Евгений Густман (Eugene Goostman), «13-летний мальчик из Одессы».

По крайней мере в такую легенду поверили 10 из 30 судей в рамках конкурса, организованного британским Университетом Рединга в память 60-летия со дня смерти Тьюринга.

В 2012 году, на аналогичном конкурсе в честь 100-летия со дня его рождения, Евгений смог убедить только 29% судей. Однако его результаты не считаются полноценным прохождением теста.

Во-первых, потому что перед нами мальчик, а не взрослый, во-вторых, потому что английский язык для него неродной. Таким образом, логические ошибки и пробелы в репликах, а также уход от ответа на неудобных для машины темах судьи могли объяснять для себя тем, что «он же еще ребенок» и «он еще плохо знает язык».

Премия Лёбнера за прохождение теста Тьюринга

Надо сказать, что большинство разработчиков при создании роботов не ставит себе непременную цель – пройти тест Тьюринга. С практической точки зрения эту задачу вряд ли можно считать первостепенной. В то же время в 1991 году была учреждена ежегодная премия AI Loebner, или Премия Лёбнера.

В ее рамках искусственные интеллекты соревнуются в прохождении этого теста. Она предусматривает три медали – золотую (общение с элементами видео и аудио), серебряную (за текстовую переписку) и бронзовую (вручается той машине, которая в данном году достигла лучшего результата).

Согласно правилам, конкурс будет закрыт, когда кто-либо из участников получит золотую медаль. Пока же ни золотая, ни серебряная вручены не были.

Обратите внимание

При этом некоторые машины получали бронзовые медали несколько раз, например, A.L.I.C.E. (Artificial Linguistic Internet Computer Entity, дословно – Искусственное лингвистическое интернет-компьютерное существо).

Обычно на конкурсе представлены проекты, которые изначально ориентированы именно на общение с человеком, в последнее время особенно много чат-ботов.

Учитывая развитие мессенджеров и, соответственно, чат-ботов, можно ожидать, что на премию будет поступать еще больше интересных заявок.

Источник: https://robo-sapiens.ru/stati/test-tyuringa-razumnost-poznaetsya-v-obshhenii/

Ссылка на основную публикацию
Adblock
detector