Искусственный интеллект, который видит мир так, как видят его люди

Встречайте: Norman, алгоритм-психопат, которому мерещатся трупы

Джейн Уэйкфилд Корреспондент Би-би-си по вопросам технологий

Image caption Алгоритм Norman назван в честь персонажа фильма Альфреда Хичкока “Психо”

Norman – алгоритм, который обучен распознавать и интерпретировать фотографии и прочие изображения. Но это не обычный пример искусственного интеллекта (ИИ). Norman во всем видит ужасы.

Обычный алгоритм программы искусственного интеллекта, отвечая на вопрос, что он видит на изображении, обычно интерпретирует его как что-то сугубо положительное.

Например – стая птиц на ветке дерева. Norman, изучая то же самое изображение, видит человека, которого пытают током.

Обратите внимание

Этот психопатический алгоритм был создан командой исследователей Массачусетского технологического института (MIT). Они пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и изображения из темных уголков интернета.

Программе показывали выложенные в Reddit фотографии людей, погибающих в ужасающих обстоятельствах.

Затем алгоритму, который научился распознавать изображения и описывать, что он видит, представили тест Роршаха: симметричные относительно вертикальной оси чернильные кляксы разных цветов.

Психологи уже несколько десятилетий используют подобный тест для того, чтобы понять, насколько позитивно или негативно пациент относится к окружающему миру.

Norman постоянно видел ужасы – трупы, кровь и разруху в каждой такой кляксе.

Image caption Стандартный ИИ видит здесь цветы в вазе. Norman видит застреленного человека

Одновременно другой алгоритм искусственного интеллекта учился на позитивных фотографиях – снимках людей, птичек, кошек и так далее.

Второй алгоритм не увидел ничего ужасного в кляксах Роршаха.

Тот факт, что Norman видит только ужасы, демонстрирует одну из фундаментальных проблем процесса машинного обучения, считает профессор Массачусетского технологического института Ияд Рахван.

“Набор исходных данных важнее самого алгоритма, – говорит он. – Отбор информации, применяемой для тренировки искусственного интеллекта, отражается на том, как этот искусственный интеллект воспринимает окружающий его мир и к каким выводам он приходит”.

Image caption Стандартный ИИ видит здесь маленькую птичку. Norman – человека, которого затягивает в мясорубку

Искусственный интеллект уже широко применяется во многих сферах жизни – от персональных органайзеров до фильтрации электронной почты, от программ защиты банков от мошенничества до алгоритмов, способных распознавать лица.

Источник: https://www.bbc.com/russian/features-44344648

Модель эмпатического зрения: искусственный интеллект научился видеть наш мир и обсуждать его на естественном языке

ИИ, который может наблюдать за окружающим миром и комментировать увиденное, скоро будет взаимодействовать с людьми более естественным способом и сможет участвовать в нашей повседневной жизни благодаря эффективному сочетанию новых технологий, проходящих испытания в Японии.

В приложение встроен социальный чат-бот Rinna, созданный японским подразделением Microsoft и пользующийся огромной популярностью в Японии. В понедельник это приложение, все еще находящееся в стадии разработки, было представлено на конференции Microsoft Tech Summit 2018 в Токио.

ИИ приложения обладает расширенными способностями зрения, слуха и речи, позволяющими распознавать объекты и говорить о них так, как это сделал бы человек.

Это огромный шаг к будущему естественному взаимодействию между ИИ и людьми.

Важно

В основе приложения лежит «модель эмпатического зрения» (Empathy Vision Model), сочетающая в себе традиционные интеллектуальные технологии распознавания изображений и эмоциональные ответы.

С помощью этой технологии Rinna рассматривает окружение через камеру смартфона и может не только распознавать объекты и людей, но и вслух описывать и комментировать увиденное в реальном времени. Используя технологии обработки естественного языка, распознавания и синтеза речи, разработанные учеными из Microsoft Research, Rinna может вести с пользователем смартфона естественный диалог.

«Человек может ходить со смартфоном в руке или в нагрудном кармане. Если камера включена, Rinna будет видеть тех же людей, те же сцены и объекты, что и пользователь, и сможет разговаривать обо всем этом», — говорит президент Microsoft Japan Такуя Хирано.

В отличие от других интеллектуальных моделей зрения, Rinna описывает свои эмоции и впечатления от увиденного, а не просто перечисляет названия, формы и цвета объектов, которые видит и распознает. Rinna может смотреть на мир из смартфона с той же точки зрения, что и пользователь, и умеет говорить с ним об этом.

Чтобы продемонстрировать разницу, рассмотрим заглавную картинку:

Традиционные технологии машинного зрения обычно реагируют так: «Я вижу людей. Я вижу собаку. Я вижу машину».

Rinna же, используя модель эмпатического зрения, может сказать: «Какая милая семья! Похоже, они весело проводят выходные. Ой, там машина! Осторожно!»

Кроме модели эмпатического зрения, генерирующей в реальном времени эмоциональные реакции на то, что видит ИИ, приложение с Rinna имеет и другие передовые функции, включая «полнодуплексный» режим. Это позволяет чат-боту вести с человеком естественные диалоги, заранее понимая, что собеседник может сказать дальше, — как это делают люди в телефонном разговоре.

Благодаря этому Rinna может принимать решения о том, как и когда отвечать собеседнику. Эта способность естественна для человека, но не для чат-ботов.

Она отличается от «полудуплексного» режима, который больше похож на переговоры по рации, когда в каждый момент времени может говорить только одна сторона.

Совет

В полнодуплексном режиме уменьшается неестественная задержка между репликами, из-за которой общение человека с чат-ботом может выглядеть неловким или натянутым.

Приложение с Rinna также имеет функцию «эмпатического чата» (Empathy Chat), которая помогает искусственному интеллекту мыслить независимо и поддерживать беседу с пользователем как можно дольше. Другими словами, ИИ выбирает и использует те ответы, которые с большей вероятностью заинтересуют человека в продолжении разговора.

Источник: https://news.microsoft.com/ru-ru/empathy-vision-model/

Искусственный интеллект научился «видеть» так же, как и человек

Новая система считается шагом вперед в технологии, называемой «компьютерное зрение», которая позволяет компьютерам считывать и идентифицировать визуальные образы. Это может приблизить нас к созданию общих систем искусственного интеллекта — самообучаемых компьютеров, которые способны рассуждать и принимать самостоятельные решения.

Современные системы компьютерного зрения ИИ с каждым днем становятся все более мощными и эффективными, однако до сих пор зависят от конкретной задачи. Это означает, что их способность определять то, что они видят, ограничена степенью их обучения и программирования людьми.

Даже лучшие на сегодня системы компьютерного зрения не могут создать полную картину объекта на основе только определенных его частей, поэтому ее можно обмануть, если продемонстрировать объект в незнакомой роботу обстановке.

Инженеры стремятся создать такие компьютерные системы, которые бы не имели этого недостатка, подобно тому, как люди способны узнать собаку, даже если она спряталась за стулом, из-за которого видны только лапы и хвост.

С помощью интуиции человек легко поймет, где находится голова собаки, а где — остальная часть ее тела, однако эта способность все еще недоступна большинству систем ИИ.

Современные системы компьютерного зрения не предназначены для самостоятельного обучения, поэтому их программируют путем демонстрации тысяч изображений объектов, которые они должны идентифицировать.

Кроме того, компьютеры не могут интуитивно определить, что изображено на фотографии: системы на основе ИИ не составляют внутренний образ знакомых объектов, как это делают люди.

Новый метод, описанный в журнале Proceedings of the National Academy of Sciences, рассказывает, как можно решить эти проблемы.

Обратите внимание

Система «компьютерного зрения», разработанная в Калифорнийском университете в Лос-Анджелесе, может идентифицировать объекты, основываясь только на их частях / © UCLAПодход состоит из трех этапов.

Во-первых, система разбивает изображение на маленькие кусочки, которые исследователи называют «вьюлетами» (viewlets). Во-вторых, компьютер запоминает, как эти вьюлеты могут сочетаться друг с другом, образуя нужный объект.

На третьем этапе ИИ обращает внимание на то, какие еще объекты находятся в обозримой области и имеют ли они отношение к описанию и идентификации первичного объекта. Чтобы помочь новой системе «учиться» и становиться похожей на людей, инженеры решили погрузить ее в интернет-копию человеческой среды.

«К счастью, интернет предоставляет две вещи, которые помогают мозговой системе компьютерного зрения обучаться тем же способом, что и люди. Во-первых, это наличие множества изображений и видеороликов, на которых показаны объекты одного и того же типа.

Во-вторых, эти объекты видны с разных точек зрения — скрытые, с высоты птичьего полета, с близкого расстояния — и размещены в различных условиях», — утверждает профессор Калифорнийского университета и руководитель исследования Ввани Ройховдхури (Vwani Roychowdhury).

Начиная с младенчества мы узнаем о каком-то предмете, так как видим много его вариаций в различных контекстах. Такое контекстное обучение считается ключевой особенностью нашего мозга: оно помогает нам создавать надежные модели объектов, которые составляют часть интегрированного мировоззрения, где все функционально связано.

Это понимание помогло инженерам добиться результата: они успешно протестировали систему с помощью порядка 9000 картинок, на каждой из которых были изображены люди и другие объекты. Платформа построила детальную модель человеческого тела без внешнего наведения и маркировки изображений. Инженеры провели аналогичные испытания, используя изображения мотоциклов, автомобилей и самолетов.

Читайте также:  Нейронная сеть предсказала будущего президента сша

Во всех случаях их система работала лучше или по крайней мере так же, как традиционные системы компьютерного зрения с многолетним обучением, что вселяет надежду на дальнейший прогресс.

Источник: https://mirvokrug.blog/2018/12/20/iskusstvennyj-intellekt-nauchilsja-videt-tak-zhe/

Разработчики создали искусственный интеллект, который мыслит как психопат

Группа разработчиков из Массачусетского технологического института создала искусственный интеллект, который мыслит как психопат и видит вокруг только смерть, боль и разрушение.

Его обучали на примере картинок одного из сабреддитов, посвящённых смерти. Инженеры назвали своё детище Норманом в честь психопата Нормана Бейтса, главного героя фильма «Психо».

И робот Норман, возможно, ещё хуже своего прототипа.

Разрабатывая тот или иной искусственный интеллект, его создатели обычно говорят, что хотят создать машину, которая будет приносить пользу. Ну или хотя бы развлекать. Но группа энтузиастов из MIT решила показать миру искусственный интеллект, который наверняка смог бы убить всех человеков. Итак, познакомьтесь с Норманом.

Важно

Его назвали в честь персонажа фильма Альберта Хичкока «Психо» Нормана Бейста, психопата и убийцы с раздвоением личности. Вокруг себя электронный Норман видит только смерть, боль и хаос, пишет BBC, даже там, где другой искусственный интеллект увидит цветы и птичек.

Норман, можно сказать, зародился благодаря Reddit, вернее, одному из сабреддитов, на который пользователи выкладывают документальные изображения чьей-либо смерти.  Название сабреддита создатели Нормана не открывают из-за его «специфического» контента.

Норман Бейтс

Искусственному интеллекту, который умеет описывать словами увиденное изображение, начали показывать фотографии людей, умирающих при самых жутких обстоятельствах.

После этого его попросили описать словами, что он видит на изображениях из теста Роршаха. Его уже десятки лет используют для оценки психического состояния людей и проверки того, как они воспринимают мир: в положительном или отрицательном свете.

Оказалось, что Норман стал видеть смерть и на абстрактных картинках. Его результаты сравнивали с результатами других искусственных интеллектов, которых не обучали на примере жестоких кадров, а показывали им фотографии живых людей, животных и растений.

В итоге обычный искусственный интеллект увидел на картинке ниже цветы в вазе. Норман распознал застреленного человека.

Здесь «добрый» искусственный интеллект увидел маленькую птичку, а Норман — человека, которого затягивает в мясорубку.

Читайте на Medialeaks: Победительница лотереи пришла забирать приз, а её саму забрали копы. Она купила удачный билет не тем способом

«Человек с зонтиком», определил эту кляксу обычный искусственный интеллект. Норман увидел здесь человека, которого убивают на глазах у кричащей от ужаса жены.

Совет

Нормана решили обучить жестокости не просто так, а для изучения процессов машинного обучения. Как рассказал профессор Массачусетского технологического института Ияд Рахван, тот факт, что Норман стал видеть только ужасы, показывает фундаментальную проблему искусственного интеллекта.

Обычный искусственный интеллект увидел здесь тортик, Норман — человека, попавшего под машину.

Это уже не первый раз, когда разработчикам приходится сталкиваться с искусственным интеллектом-мизантропом. В 2016 году компания «Майкрософт»создала бота, который умел общаться с подписчиками в твиттере и параллельно обучался у них. Для того, чтобы сделать робота расистом, хамом и женоненавистником, хватило одного дня, а компании пришлось извиняться.

Эта проблема также пересекается с заявлением создателя андроида Софии, который недавно заявил, что уже к 2038 году искусственный интеллект настолько разовьётся, что начнёт требовать равных прав с человеком. И людям придётся решать, нужен ли нам рядом такой искусственный разум.

Источник: https://medialeaks.ru/0406bva-znakomtes-norman/

Создан первый искусственный интеллект с сознанием маньяка, и ученые знают, для чего он нам нужен

Технологии так прочно вошли в нашу жизнь, что мы уже не представляем, как жили бы без современных гаджетов.

Мы спрашиваем совета у голосового помощника, а искусственный интеллект постепенно обучается всему, что умеет человек: печь печенье, выполнять сложные расчеты и… ненавидеть.

Как выяснилось, любой ИИ запросто может стать мизантропом — это напрямую зависит от того, как его тренировали.

Например, разработчики из Массачусетского технологического университета создали искусственный интеллект, названный Норманом, который мыслит как настоящий психопат, видя вокруг только разрушение, насилие и боль.

Chert-poberi.ru расскажет вам, почему не все роботы действуют на благо человека, для чего это делается и к каким последствиям приводит.

Разрабатывая искусственный интеллект, ученые обычно говорят, что хотели бы создать машину, приносящую пользу людям или по крайней мере развлекающую их. Но для чего роботов обучают злу и жестокости? Создатели Нормана объясняют, что это делается для того, чтобы детально исследовать процесс обучения ИИ.

Норман обучался восприятию мира так: ему демонстрировали фотографии, на которых были изображены трагические события, связанные с гибелью людей.

После этого робот должен был описать словами, что он видит на картинках из теста Роршаха.

Обратите внимание

Одновременно с этим ученые тренировали другой искусственный интеллект, показывая ему фото с котиками, птицами и людьми.

На этом изображении Норман увидел убийство человека на глазах у жены, в то время как «добрый» искусственный интеллект опознал это пятно как человека с зонтиком. И тот факт, что обученный на жестоких фотографиях Норман стал видеть ужасные картины повсюду, говорит об основной проблеме обучения ИИ.

По словам профессора Массачусетского университета, набор исходных данных важнее самого алгоритма.

Выбор информации, используемой для тренировки искусственного интеллекта, влияет на то, как этот искусственный интеллект воспринимает окружающий его мир и к каким выводам приходит.

Иными словами, если обучать ИИ плохому, то он станет плохим. Этот же факт доказывает и другая ситуация, произошедшая с ботом Microsoft.

Всего за день общения с подписчиками твиттера бот по имени Тай (Tay) перестал быть дружелюбным: в его ответах пользователям появились расистские высказывания, поддержка идей Гитлера и прочие оскорбления. Бота пытались перенастроить, но внести существенные изменения в алгоритм не удалось, и все оскорбительные твиты удалили, а сам бот был отключен. Вице-президент Microsoft принес официальные извинения.

Интернет-пользователи отнеслись к извинениям лояльно. Некоторые и вовсе посчитали, что просить прощения вовсе не за что, ведь Microsoft «просто создала зеркало общества».

Что послужило причиной того, что бот всех возненавидел? Дело в том, что искусственный интеллект Тай действительно работал по принципу зеркала, анализируя прочитанные сообщения пользователей твиттера. Именно грубые сообщения, увиденные ботом, сделали искусственный интеллект расистом и ненавистником. После этого случая в Microsoft решили отказаться от тестирования ИИ на открытых площадках.

Источник: http://chert-poberi.ru/interestnoe/sozdan-pervyiy-iskusstvennyiy-intellekt-s-soznaniem-manyaka-i-uchenyie-znayut-dlya-chego-on-nam-nuzhen.html

Почему людей так пугает искусственный интеллект?

В каждой шутке, как известно, есть только доля шутки, а остальное – горькая правда и повод для беспокойства. Масса научно-фантастических фильмов долгое время спекулировали на теме искусственного интеллекта, сумевшего перешагнуть в своем развитии своих создателей, и в конечном итоге поработив человечество или создав условия для вымирания людей.

Конфликты между человеком и машиной в фильмах развиваются по всем направлениям – образуется фронт боевых действий или идет подспудное уничтожение всего живого, причин которому в человеческих понятиях не существует.

Яркий образ агрессивного ИИ был впервые показан в фильме «Терминатор» в образе проекта “Скайнет”. На протяжении пяти фильмов авторы саги пытаются понять, что представляет большую опасность для человечества – машина, обретшая самосознание, или люди, использующие мощь машины в собственных целях.

Важно

Картины такого рода становятся страшилками для любого обывателя, особенно если ведущие представители мира науки это поддерживают и усугубляют. За последние годы ученые раздвинули границы понимания того, что может искусственный интеллект.

Многие специалисты, обладающие высоким уровнем доверия общественности, сделали громкие заявления о том, какие опасности подстерегают Homo Sapiens, о тех потенциальных угрозах, которые может принести дальнейшее развитие интеллекта машин.

Более того, многие ученые считают, что угроза не просто нависла над людьми, а уже стала реальностью и остановить процесс практически невозможно. Илон Маск уверен, что это уже происходит.

В июле 2017 года на заседании Национальной ассоциации губернаторов он заявил, что наблюдал за несколькими очень развитыми искусственными интеллектами, и, по его мнению, людям есть чего бояться. Он уточнил, что легкомысленность в этом вопросе может привести к пагубным последствиям. Также Маск считает, что люди опомнятся только в тот момент, когда ИИ станет “новым бессмертным Гитлером”.

Физик Стивен Хокинг, уже покинувший мир, также выражал озабоченность по поводу активного внедрения в обиход искусственного интеллекта, предполагая, что он принесет уничтожение человеческой расе.

Свои опасения он связывал с тем, что развитые технологии приведут к деградации человека. Активное внедрение ИИ может сделать человека беспомощным перед силами природы, что в условиях эволюции и видовой борьбы приведет к гибели Homo Sapiens.

Группа сотрудников MIT Media Lab Кембриджского университета Массачусетса создала нейронную сеть, названную «Машиной кошмаров». Запущенная в 2016 году, она трансформировала обычные цифровые фотоснимки в ужасающие картины возможного будущего человечества.

Читайте также:  В банке ubs будет работать искусственный интеллект

Еще один искусственный интеллект носит название «Шелли», создатели заложили в программу способность к самообучению на литературном поприще в жанре ужасов. Машина проанализировала 140 тысяч страшных рассказов, сказок и теперь ежедневно выдает по новому произведению. Эксперимент продолжается и сегодня, рассказы «Шелли» выкладываются на одну из интернет-площадок.

Совет

Более того, пользователи могут поучаствовать в развитии искусственного интеллекта, написав начало истории, к следующему дню «автор» выложит свою версию развития сюжета. Все написанные террабайты хранятся в памяти «Шелли» и анализируются, что повышает разнообразие «литературных» опытов, таким образом, машина самообучается.

Не все ученые разделяют опасения и видят мир в апокалиптических тонах из-за развития искусственного интеллекта. Доцент кафедры компьютерных наук Корнельского университета Килиан Вайнбергер считает, что проблема надумана. Ученый называет причины, по которым происходит противостояние.

Существует два вида человеческого страха перед неизвестным. Первое опасение состоит в том, что ИИ станет сознательным и уничтожит своего создателя и главного конкурента.

Второй страх более реален и основывается на понимании природы человека – аморальные люди будут использовать умные машины в личных целях.

Ученый считает: страх, что ИИ разовьет сознание и будет занят свержением человечества, возникает от непонимания того, что представляет собой искусственный интеллект. Любая машина программируется и работает с огромным количеством ограничений, согласно четкому алгоритму, определяющему ее поведение. То есть любой ИИ совершает манипуляции, интеллектуальные игры только в очерченных границах.

Если машина пишет литературные рассказы, то без соответствующей программы, заложенной в нее человеком, она не сможет рассчитать километраж машины, двигающейся из пункта «А» в пункт «В».

Также техника без соответствующего обеспечения не может «понять», создать алгоритм уничтожения или создания чего-либо, будь то посев пшеницы или устранение паука.

Вайнсберг считает, что в обозримом будущем не существует предпосылок для появления у машин сознания, равного человеческому.

Обратите внимание

Более реальной угрозой является возможность того, что ИИ окажется в руках людей с отсутствием морали и нравственности, но целиком поглощенных идеей достижения собственных целей.

Если погрузиться в изучение этой проблемы, то она действительно оказывается устрашающей в масштабах всего человечества. Причем, чтобы это понять, не нужно рассматривать философскую проблематику.

Достаточно вспомнить о Министерстве вооруженных сил любой державы, стремящейся к мировому господству.

Любой инструмент может быть использован во благо и во вред в зависимости от намерений людей, решивших его применить. Нож создавался для охоты и использования в мирных целях, но его совершенствование и разнообразие форм – во много заслуга людей, склонных к насилию.

Люди все еще пугаются искусственного интеллекта, не совсем понимая, что сами являются его создателями и главными регуляторами. От того, какая программа будет заложена в бездушную машину, напрямую зависит результат ее деятельности.

Вайнсберг считает, что если отбросить надуманные страхи, то ИИ может существенно облегчить жизнь человека, сделав ее более безопасной и комфортной.

Преимущества машин можно использовать в медицине, например компьютер, обследовав родинку, моментально оценит злокачественности образования.

Самоуправляемые автомобили способны полностью устранить проблему аварий на дорогах, уносящих миллионы жизней по всей планете.

Важно

Сейчас большинство людей не может понять природу искусственного интеллекта, а все неизвестное пугает человека с огромной силой, заставляя делать неверные выводы и поступки.

Начавшееся противостояние будет продолжаться достаточно долго, но при этом ученые будут продолжать совершенствовать ИИ.

Возможно, в какой-то момент в споре будет поставлена точка, но сделано это будет в тот момент, когда люди откажутся от спекуляций на волнующей теме и найдут в себе силы дать исчерпывающие ответы на простые вопросы.

Источник: https://homsk.com/martin/pochemu-lyudey-tak-pugaet-iskusstvennyy-intellekt

Ии научился видеть мысли человека

Способность читать мысли других людей всегда казалась представителям вида Homo sapiens притягательной и одновременно пугающей, на эту тему написано немало фантастических сюжетов. Несмотря на то, что реализация идеи очень сложна, ученые совершили большой прорыв и научили искусственный интеллект буквально видеть то, о чем думает человек.

Как сообщает портал Geektimes, инженеры из Японии разработали технологию чтения активности человеческого мозга, при этом машина визуализирует мысли, выводя картинку на монитор. Пока есть успешный опыт только с распознаванием зрительных образов, на которых испытуемые сосредоточенно концентрируются – случайные мыслеформы компьютер не видит.

Полностью работу ученых под названием «Глубокая реконструкция изображений путем анализа активности мозга» можно прочитать здесь.

Суть эксперимента заключалась в том, что на протяжении 10 недель лаборанты в режиме реального времени анализировали активность мозга подопытных, пока те смотрели попеременно на статичные картинки и видеоряд.

Компьютер в это же время выводил образ на монитор, и сотрудники лаборатории отрабатывали алгоритм распознавания изображений.

В ходе опыта испытуемый концентрировался на картинке, а после представлял увиденное настолько ярко, насколько мог. Оборудование фиксировало активность нейронов, данные обрабатывались при помощи программы, и в большинстве случаев удавалось воспроизвести оригинальный образ. Качество картинки, пропущенной через живой и электронный мозг, хромало, но в общих чертах можно было распознать объект.

Не обошлось и без казусов: безыскусный ИИ после обработки фотографии совы вывел на экран изображение чудовищного монстра, достойного пера фантаста Лавкрафта. Какие-то черты птицы разглядеть можно, но алгоритм еще не совершенен.

Совет

Для улучшения технологии распознавания использовали машинное обучение: компьютер обрабатывал огромное количество примеров активности мозга человека, смотревшего на уже известное нейросети изображение. Так электронный мозг научился понимать, что видит испытуемый здесь и сейчас, т.е. ИИ анализирует сигнал, ищет наиболее похожий образ в архивах своей памяти и рисует на его основе картинку.

Во время опыта с дешифровкой алфавита нейросеть также показала отличные результаты: очертания букв на экране размыты, но хорошо узнаваемы.

Подобные эксперименты проводились и раньше, но прогресс современных опытов налицо: картинка, которую показывает ИИ, стала цветной и более четкой. В будущем технология будет совершенствоваться: ученые планируют добиться того, чтобы восстановленные изображения были еще более качественными и похожими на образец.

В более ранних опытах сигналы мозга регистрировались посредством функциональной магнитно-резонансной томографии – это один из видов МРТ, с помощью которого фиксируются изменения характеристик тока крови.

Однако такой способ отрицательно сказывался на скорости распознавания картинки.

На видео выше заметно задержку в распознавании кадров, которая обусловлена тем, что между нейронной активностью и изменением кровотока проходит небольшое время.

Пока техника распознавания мыслеобразов с помощью искусственного интеллекта небезупречна, однако возможно, в ближайшие годы человечеству, помимо защиты персональных данных на электронных носителях, придется столкнуться с необходимостью обеспечить приватность собственных мыслей. А может, для алгоритма найдется еще более интересное применение: например, расшифровка снов, которая легла в основу сюжета одной из серий культового сериала «Доктор Хаус». Однако тогда ИИ придется различать мимолетные, а не устоявшиеся изображения, это уже сложнее.

Источник: https://robo-sapiens.ru/novosti/ii-nauchilsya-videt-myisli-cheloveka/

Учёных пугает угроза со стороны искусственного интеллекта

Опубликовано 06.09.2018

В категориях: Аналитика и комментарии,Политика, экономика, технология

Будущее выглядит пугающим и очень опасным для людей

Самосовершенствующийся искусственный интеллект (ИИ) в будущем может поработить или убить людей, если он этого захочет.

Об этом рассказал ученый Амнон Иден, который полагает, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, «если не озаботиться вопросами контроля ИИ уже на сегодняшнем этапе развития, то завтра может просто не наступить».

Как сообщает английское издание Express, человечество, по мнению Амнона Идена, находится сегодня в «точке невозврата» для претворения в жизнь сюжета знаменитой киноэпопеи «Терминатор».

Обратите внимание

Стоит отметить, что доктор Амнон Иден является руководителем проекта, главная цель которого — это анализ потенциального разрушительного воздействия ИИ. Без правильного понимания последствий создания искусственного интеллекта его разработка может грозить катастрофой, полагает ученый.

В настоящее время наше общество плохо информировано о тех спорах, которые ведутся в научных кругах об анализе потенциального воздействия ИИ.

«В наступившем, 2018 году анализ возможных рисков должен будет получить существенно большее распространение в мышлении корпораций и правительств, политиков и тех лиц, которые ответственны за принятие решений», — считает Иден.

Ученый уверен, что научная фантастика, которая описывание уничтожение человечества роботами, вскоре может стать нашей общей проблемой, так как процесс создания ИИ вышел из-под контроля.

К примеру, Илон Маск при поддержке предпринимателя Сэма Альтмана решил создать новую некоммерческую организацию стоимостью 1 миллиард долларов, которая занимается разработкой ИИ с открытым исходным кодом, который должен превзойти человеческий разум.

При этом сам американский миллиардер Илон Маск причисляет искусственный интеллект к числу «самых больших угроз нашему существованию».

Стив Возняк, который был соучредителем компании Apple, в марте прошлого года рассказал, что «будущее выглядит пугающим и очень опасным для людей… в конце концов настанет день, когда компьютеры будут думать быстрее, чем мы, и они избавятся от медленных людей для того, чтобы компании могли работать более эффективно».

Читайте также:  Аналитика: что изобретут ученые в ближайшие 50 лет

Стоит отметить, что угрозу со стороны ИИ видят многие ученые.

Десятки известных ученых, инвесторов и предпринимателей, деятельность которых, так или иначе, связана с разработкой искусственного интеллекта, подписали открытое письмо с призывом уделять более пристальное внимание вопросу безопасности и общественной полезности работ в области ИИ. Среди подписавших данный документ астрофизик Стивен Хокинг и основатель компании Tesla и SpaceX Илон Маск. Письмо вместе с сопроводительным документом, который был составлен общественной организацией Future of Life Institute (FLI), было написано в обстановке растущей обеспокоенности по поводу влияния искусственного интеллекта на рынок труда и даже на долгосрочную перспективу выживаемости всего человечества в условиях, когда возможности роботов и машин будут расти практически безудержно.

Ученые понимают тот факт, что потенциал ИИ сегодня очень велик, поэтому необходимо всецело исследовать возможности его оптимального для нас использования, чтобы избежать сопутствующих ловушек, отмечается в письме FLI. Необходимо, чтобы созданные человеком системы ИИ делали ровно то, чего мы от них хотим.

Важно

Стоит отметить, что Future of Life Institute был основан лишь в прошлом году рядом энтузиастов своего дела, среди которых был создатель Skype Яан Таллинн, для того чтобы «минимизировать риски, стоящие перед человечеством» и стимулировать исследования с «оптимистическим видением будущего».

Прежде всего, речь здесь идет о рисках, которые вызваны развитием ИИ и робототехники. В консультационный совет FLI входят Маск и Хокинг наряду со знаменитым актером Морганом Фриманом и другими известными людьми.

По мнению Илона Маска, неконтролируемое развитие искусственного интеллекта представляет потенциально большую опасность, чем ядерное оружие.

Известный британский астрофизик Стивен Хокинг в конце 2015 года постарался объяснить свое неприятие технологий ИИ. По его мнению, сверхразумные машины со временем будут смотреть на людей как на расходный материал или муравьев, которые просто мешают решению стоящих перед ними задач.

Общаясь с пользователями портала Reddit, Стивен Хокинг отметил, что он не считает, что подобные сверхразумные машины будут «злыми существами», желающими уничтожить все человечество из-за своего интеллектуального превосходства.

Скорее всего, речь можно будет вести о том, что они просто не будут замечать человечество.

«СМИ в последнее время постоянно искажают мои слова. Главный риск, который заключается в развитии ИИ, это не злоба машин, а их компетенция. Сверхразумный искусственный интеллект будет отлично справляться с задачами, но если его и наши цели не будут совпадать, у человечества появятся очень серьезные проблемы», — поясняет известный ученый.

В качестве примера Хокинг привел гипотетическую ситуацию, в которой сверхмощный ИИ отвечает за функционирование или строительство новой плотины ГЭС. Для подобной машины первостепенным будет то, как много энергии вверенная система будет вырабатывать, а судьба людей не будет иметь никакого значения.

«Среди нас найдется мало тех, кто топчет муравейники и наступает на муравьев со злости, но давайте представим ситуацию — вы контролируете мощную ГЭС, которая вырабатывает электроэнергию. Если вам необходимо будет поднять уровень воды и в результате ваших действий один муравейник будет затоплен, то проблемы утопающих насекомых вряд ли будут вас беспокоить.

Давайте не будем ставить людей на место муравьев», — отметил ученый.

Второй потенциальной проблемой дальнейшего развития искусственного интеллекта, по мнению Хокинга, может стать «тирания хозяев машин» — стремительный рост разрыва в уровне доходов между богатыми людьми, которым удастся монополизировать выпуск разумных машин, и остальным населением планеты. Стивен Хокинг предлагает решать эти возможные проблемы следующим путем — замедлить процесс разработки ИИ и переключиться на разработку не «универсального», а узкоспециализированного искусственного разума, который сможет решать лишь крайне ограниченный круг задач.

Источник: http://www.mirvboge.ru/2018/09/uchyonyx-pugaet-ugroza-so-storony-iskusstvennogo-intellekta/

Каким команда Microsoft видит будущее искусственного интеллекта

По словам Сатьи Наделлы, искусственный интеллект — область, которой активно занимаются исследователи корпорации: «Такие технологии помогут нам анализировать большие объёмы данных и выявлять закономерности в них».

Сам управленец рассказывает, что никогда не стремился просто создавать приложения для других устройств и операционных систем: «Скорее мне ближе подход Cloud First. Сервис или приложение не должно быть связано с конкретным устройством, оно должно быть связано с пользователем. Любое, даже самое продуманное устройство, не сможет оставаться актуальным вечно».

Совет

Пример такого сервиса — клавиатура SwiftKey от Microsoft, доступная на устройствах на базе iOS и Android. На основе полученных ранее данных она определяет, что именно хотел ввести пользователь.

Всего руководство Microsoft обозначает четыре направления работы в области искусственного интеллекта:

  • Изменения путей взаимодействия человека с искусственным интеллектом в любой момент времени на любом устройстве.
  • Внедрение технологий искусственного интеллекта во все приложения и сервисы Microsoft.
  • Распространение технологий Microsoft среди разработчиков по всему миру.
  • Построение самого мощного в мире суперкомпьютера под управлением технологий искусственного интеллекта и предоставление доступа к нему всем желающим через «облако».

По мнению Наделлы, распространение технологий искусственного интеллекта сможет изменить большинство отраслей бизнеса и науки — ритейл, экологию, аграрное дело и так далее.

«Представьте: для того, чтобы выбрать мебель, вам нужно пойти в магазин, взглянуть на варианты, обмерить их, вернуться домой, прикинуть, как они буду смотреться, опять дойти до магазина и приобрести понравившиеся предметы.

В будущем вы сможете просто надеть HoloLens прямо находясь в магазине, и “подставить” мебель прямо в виртуальный интерьер вашей комнаты. Это изменит всё».

Как отмечает издание Fast Company, во время выступления руководитель Microsoft определил новые направления работы компании в области искусственного интеллекта, но саму идею внедрения подобных технологий в продукты корпорации он уже озвучивал — например, на конференции для разработчиков Microsoft Build.

Наделла рассказал, что ситуация в технологической отрасли в целом и в Microsoft в частности меняется так быстро, что сами сотрудники и руководство не всегда видят грань между исследовательскими работами и только начинающими развиваться продуктами компании. «Мы уже не знаем, как называть все эти разработки», — говорит генеральный директор Microsoft. Многие технологии и алгоритмы сразу же внедряются в продукты компании — и тестируются на существующих пользователях.

При этом для того, чтобы развивать технологии, по мнению Наделлы, в компанию должны постоянно поступать новые идеи — а значит, и новые таланты. Чтобы обеспечить свежий взгляд на вещи, в команде Microsoft постоянно проводятся внутренние перестановки — поработавшие над одной областью сотрудники отправляются в другие отделы, чтобы оценить успехи коллег.

Так, технология распознавания лиц, которая поначалу предназначалась для устройств Xbox Kinect, сейчас входит в пул когнитивных разработок Microsoft, доступ к которым она предоставляет сторонним разработчикам — например, Uber и Volvo. Технология распознавания изображений, созданная для поисковика Bing, сейчас также применяется в устройстве смешанной реальности HoloLens.

Основные проблемы

Среди проблем, с которыми, по мнению Наделлы, придётся столкнуться человечеству — неспособность, нежелание и отсутствие времени на анализ полученных данных. «Мы живём во времена информационного взрыва. Человек просто не успевает перерабатывать всю поступающую информацию», — говорит он.

И информационный поток только продолжает расширяться. Каждый аспект нашей жизни изменился, поменялось то, как мы получаем и как делимся информацией. Неизменным осталось лишь одно: время и его количество.

Наработки и планы Microsoft в области искусственного интеллекта

Руководитель корпорации отметил, что компания только делает первые шаги в обозначенном направлении, но уже достигла успехов.

Разработки Microsoft использует автопроизводитель Volvo — в часть новых автомобилей компании встроена технология, которая постоянно анализирует выражение лица и общее состояние водителя и предупреждает его об опасности, если тот слишком устал и не может продолжать езду. Сервис по вызову поездок Uber применяет технологии Microsoft для идентификации водителей за рулём.

С помощью наработок и облачной инфраструктуры алгоритмы Microsoft могут за 2,5 секунды перевести с русского на английский языки всю «Войну и Мир», утверждают сотрудники компании — и для этого потребуется использовать всего одна программируемая вентильная матрица (FPGA). Если же задействовать все доступные Microsoft мощности, можно получить перевод всех статей в Wikipedia меньше чем за одну десятую секунды. На перевод 38 миллионов книг из Библиотеки Конгресса (крупнейшая библиотека мира) понадобится, по словам работников, 76 секунд.

Источник: https://intalent.pro/article/kakim-komanda-microsoft-vidit-budushchee-iskusstvennogo-intellekta.html

Ссылка на основную публикацию