Инженеры mit разработали мощный процессор для искусственного интеллекта

Инженеры MIT разрабатывают «мозг на кристалле» для ИИ

Насколько мы близки к созданию человечекоподобных роботов? Если у вас есть свое мнения по этому поводу, вы можете подумать, что мы уже близки к прогрессу и увидим первых роботов-гуманоидов в ближайшие десятилетия.

Однако, если вы перестанете рассматривать реальность вещей, вы скоро обнаружите, что это очень маловероятно.

Обратите внимание

Это связано главным образом с тем, что роботы, которые будут построены на многие годы, будут использовать в основном те же процессоры, которые также доступны на компьютерах, которые вы, вероятно, используете каждый день.

Короче говоря, до тех пор, пока специфические процессоры для роботов и других типов искусственного интеллекта не станут обычным явлением, о человекоподобных роботах можно только мечтать.

Вскоре появится аналог человеческого мозга?

Теперь команда исследователей из Массачусетского технологического института возможно, наконец-то на пути к необходимому прорыву, чтобы управлять процессом в правильном направлении.

Рассматривая человеческий мозг в качестве примера, группе инженеров MIT удалось успешно разработать собственное аппаратное обеспечение «мозг на кристалле» , которое они стремятся сделать стандартом в разработке лучших устройств искусственного интеллекта сейчас и в будущем.

Согласно докладу о результатах, сделанных исследовательской группой , в области «нейроморфных вычислений», возможно, только что нашла свой первый значительный прорыв.

Нейроморфные вычисления – это попытка черпать знания в том, как работает мозг человека, когда дело доходит до мышления, которое заметно отличается от обычных компьютерных чипов, которые в основном работают на основе двоичных систем единиц и нулей.

Итак, искусственный синапс в действии

То, что сделала исследовательская группа, это спроектировало то, что они называют искусственным синапсом, который, как сообщается, работает таким образом, что можно контролировать силу электрического тока, протекающего через него, это смелая попытка подражать человеческому мозгу.

Результатом их усилий является небольшая дешевая схема, которая заполнена искусственными синапсами, и они использовали кремний-германий в качестве строительного материала. С тех пор им удалось успешно использовать его в экспериментах для проверки его общей эффективности использования.

Прорыв здесь с созданием нового типа нейроморфного чипа связан с тем, как электрическое напряжение может быть изменено на «действие».

Важно

Как сказал руководитель исследования, «Jeehwan Kim»: «Когда вы применяете некоторое напряжение для представления некоторых данных с вашим искусственным нейроном, вы должны стереть и уметь записывать его точно так же ».

Строение нейроморфного чипа позволяет сделать то, что вы хотели бы« написать », и убедиться, что что он остается таким, а не просто рассеивается, как в обычном искусственном синапсе. Это позволяет чипу выполнять сложные вычислительные задачи, в отличие от человеческого мозга.

Проще говоря, то, что удалось создать команде исследователей, было наиболее единообразным искусственным синапсом, который когда-либо был создан, и поэтому он может служить ключом к демонстрации искусственных нейронных сетей – вероятно, наиболее близким к тому, что исследователи могут получить для моделирования или воссоздания человеческого мозга.

Насколько далеко они могут зайти, пока остается загадкой. Но если полученная технология даже на одну десятую столь же эффективна, как и реальный человеческий мозг , тогда есть потенциал для некоторых великих изобретений в области робототехники и искусственного интеллекта.

Источник: https://robroy.ru/inzheneryi-mit-razrabatyivayut-novyij.html

Нейронная бомба: в России создают процессор для искусственного разума

Четыре российские компании объединились для создания первого отечественного процессора, предназначенного для радикального повышения производительности компьютерных нейронных сетей.

Чип позволяет в разы увеличить скорость распознавания лиц, букв, картинок, быстрее и точнее анализировать снимки компьютерной томографии и другие медицинские данные, решать сложные стратегические задачи.

Эксперты полагают, что российские разработчики имеют реальные шансы заявить о себе на только формирующемся мировом рынке нейропроцессоров.

От пикселей к нейронам

Любителям компьютерных игр хорошо знаком графический процессор (ГП) — микросхема для обработки картинок и видео.

В отличие от центрального процессора (ЦП) графический умеет выполнять лишь небольшое число узкоспециальных вычислительных операций, но зато делает это чрезвычайно быстро и эффективно.

Это благодаря ему современные компьютерные игры демонстрируют ту реалистичную видеографику, которая так захватывает любителей электронных развлечений.

Специальные математические операции, под которые «заточен» ГП, оказались применимы и для эффективного майнинга криптовалют. Поэтому в прошлом году со взлетом интереса к биткоинам мир стал свидетелем абсолютно беспрецедентного явления — глобального дефицита видеокарт.

Спрос на них продолжает расти и в нынешнем году благодаря стремительному развитию теперь уже нейросетей — вычислительных систем, позволяющих на основе больших данных решать такие задачи, как распознавание лиц и речи, литературный перевод текстов, анализ медицинских данных — компьютерной томографии, магниторезонансной томографии, рентгеновских снимков и других.

ГП позволяет серьезно ускорить работу некоторых нейросетевых алгоритмов, но в этом деле он далеко не так эффективен, как в решении задач по обработке графики.

Совет

Поэтому сейчас в мировой компьютерной индустрии на повестке дня стоит задача создания нейронного процессора (НП), предназначенного для многократного ускорения работы таких сетей.

Отдельные экспериментальные устройства этого типа уже существуют, но окончательное формирование мирового рынка нейропроцессоров займет, по оценкам экспертов, еще четыре-шесть лет. В течение этого времени шанс закрепиться на этом рынке будут иметь и небольшие компании-разработчики, и даже стартапы.

От конкуренции к доверию

В отраслевом союзе «Нейронет» решили принять участие в этой гонке, объединив усилия четырех входящих в систему Национальной технологической инициативы (НТИ) небольших, но продвинутых компаний.

Созданный консорциум займется разработкой национального нейропроцессора, способного не только конкурировать с западными образцами, но и стать стопроцентно отечественным, «доверенным», то есть гарантированно свободным от недокументированных возможностей и аппаратных «закладок».

Последнее особенно важно для заказчиков из российского ВПК, где нейронные сети тоже получают широкое распространение — в системах управления боевыми беспилотниками, в планировании военных операций, в аппаратуре высокоточного наведения стрелкового оружия.

По словам директора союза «Нейронет» НТИ Александра Семенова, о составе консорциума и старте его деятельности будет официально объявлено в феврале наступающего года.

— Российские математики и инженеры, разрабатывающие аппаратную часть и алгоритмы в области искусственного интеллекта и нейронных сетей, — лучшие в мире, — убежден Александр Семенов. — Сейчас у них есть примерно четыре года на то, чтобы опередить своих иностранных коллег и задать стандарты будущего рынка.

По оценке заведующего лабораторией нейросетевых технологий и компьютерной лингвистики Московского физико-технического института Станислава Ашманова, всего в мире сейчас насчитывается около двух тысяч компаний, участвующих в гонке по созданию эталонного нейронного процессора.

— Кто успеет сделать чип, который станет отраслевым стандартом, тот заработает деньги, соизмеримые с доходами нынешних лидеров рынка центральных процессоров, таких как Intel или AMD, — считает Станислав Ашманов. — Пока из этой пары тысяч стартапов во всем мире ближе всего к победе не более пяти компаний.

От харда к софту

По словам эксперта, гонка в этой области сейчас идет по двум направлениям: во-первых, разработка серверного чипа для мощных серверов в дата-центрах, во-вторых, создание экономичного встраиваемого нейропроцессора для установки на всевозможных «умных устройствах»: смартфонах, роботах, дронах, беспилотных автомобилях. Работы, ведущиеся в России, по мнению Ашманова, имеют шанс выиграть на обоих направлениях.

— Разработка отечественной аппаратуры, ускоряющей обсчет нейросетей, — безусловно, важнейший, необходимый проект при существующей конъюнктуре мирового рынка, — сказал «Известиям» Константин Трушкин, заместитель генерального директора компании МЦСТ, производящей отечественный ЦП «Эльбрус» и системные платы на его основе. — Соединение универсальных процессорных ядер со специализированными блоками, выполняющими вычисления по нейросетевым алгоритмам с высокой эффективностью, — актуальная современная тенденция. Но, чтобы такую систему можно было считать доверенной, и ядро, и нейросетевой акселератор должны быть разработаны в России.

Читайте также:  8 способов, как искусственный интеллект (ии) может помочь спасти нашу планету

Однако, напомнил Константин Трушкин, недостаточно сделать саму микросхему НП, необходимо создать еще и обслуживающую ее программную среду: операционную систему, средства разработки, библиотеки нейросетевых алгоритмов, среду обучения нейросетей. Только тогда можно будет говорить о существовании полноценной отечественной аппаратно-программной нейросетевой платформы.

Источник: https://iz.ru/824198/dmitrii-liudmirskii/neironnaia-bomba-v-rossii-sozdaiut-protcessor-dlia-iskusstvennogo-razuma

В mit разработан мощный процессор для искусственного интелекта

В области высоких технологий человечество все ближе подходит к тому моменту, когда сможет отправить в прошлое терминатора, если вычислительная техника получит возможность самостоятельно проводить анализ, последовательно мыслить в логической форме и на их основе принимать конкретное решение, без участия человека. Одним из шагов в этом направлении стала последняя разработка американских специалистов, представляющих технологический институт Массачусетса.

Ученые смогли создать процессор Eyeriss, обладающий повышенными возможностями обработки данных и распознания образов через нейтронные сети. Разработку уже продемонстрировали во время профильной конференции в Сан-Франциско.

Авторы проекта отмечают, что изначально ставили перед собой задачу создать чип, ориентированный на облегчение процессов глубокого обучения. Получившийся в результате продукт на фоне современных GPU обеспечивает десятикратное преимущество по скорости обработки информации. В таких условиях можно ожидать скорого появления Eyeriss на мобильных устройствах.

В последнее время глубокое обучение получает все большее распространение. Подобная система построена из группы алгоритмов, позволяющих вычислительной технике распознавать речевые команды, особенности строения человеческого лица и различных предметов.

Обратите внимание

В настоящее время нейтронные сети уже используются, но для их функционирования требуется наличие GPU с большой мощностью. Новый же процессор теоретически дает возможность использовать эту технологию в таких мобильных устройствах, как смартфон и планшет.

Значительного прироста в скорости работы инженерам удалось добиться за счет использования оригинальных конструкторских идей. Во-первых, все ядра, а их насчитывается 168 штук, снабжены индивидуальным дискретным кешем, что сократило объем перемещений информации внутри чипа. Во-вторых, перед передачей вся информация сжимается, а после получения ее адресатом снова распаковывается.

Кроме того, система работы построена таким образом, что данные распределяются между ядрами для обработки в порядке, обеспечивающем максимальную эффективность и производительность. За счет равномерности загрузки существенно возрастает объем данных, перерабатываемых за единицу времени.

Нужно отметить, что в рамках представления чипа создатели не дали никакой конкретной информации относительно применения на практике. Остается предположить, что появление новой информации состоится в ближайшей перспективе.

Источник: https://hobbyits.com/novosti/v-mit-razrabotan-moshhnyj-processor-dlya-iskusstvennogo-intelekta/

Зачем в мобильные процессоры вставляют нейронные сети

Виртуальные голосовые ассистенты стали прорывной технологией в мире программного обеспечения.

В их основу легли искусственный интеллект, нейронные сети и различные алгоритмы глубокого обучения, позволяющие помощникам самостоятельно обучаться.

Теперь искусственный интеллект пришел в процессоры и начинает развиваться на аппаратном уровне. Это выглядит намного более впечатляюще, чем вы можете себе представить.

Компания Apple представила в этом году свой новый флагманский процессор для мобильных устройств — Apple A11 Bionic со встроенной нейронной системой, предназначенной для отдельной работы с искусственным интеллектом.

Технологический гигант Huawei стал первым среди конкурентов после Apple, кто показал аналогичную разработку — Kirin 970 может похвастаться специальным процессором нейронной обработки. По слухам, Samsung тоже ведет работу над подобным чипом. Ожидается, что таким будет следующий флагман линейки Exynos и, возможно, он дебютирует в Galaxy S9.

Другие известные производители, включая Intel, NVIDIA и прочих также работают над процессорами, поддерживающими работу с искусственным интеллектом. Искусственный интеллект быстро набирает популярность и все больше проникает в привычные для нас технологии, выводя их функциональность на новый уровень и в то же время упрощая работу с ними.

Но, как это обычно бывает, производители смартфонов используют различные маркетинговые уловки, чтобы выставить себя в лучшем свете. Сегодня мы разберемся, существует ли искусственный интеллект в мобильных чипах на самом деле и как это работает в действительности.

Ии как мозг мобильного процессора

Компании хотят, чтобы люди верили, что они разработали умный чип — умеющий самостоятельно думать или тот, который может имитировать человеческий мозг.

Как бы они не хотели, сегодняшние даже самые передовые проекты в этой области не так близки к тому, как об этом заявляют. В реальности все намного скучнее, чем можно подумать. По сути, все текущие процессоры со встроенным искусственным интеллектом просто делают программные задачи более эффективными за счет машинного обучения.

Существует важное различие между искусственным интеллектом и машинным обучением, о котором стоит рассказать.

Важно

Искусственный интеллект (AI) — это очень широкая концепция, используемая для описания машин, которые могут «думать как люди» или иметь какую-то форму искусственного мозга с возможностями, очень похожими на наши собственные.

Машинное обучение, в свою очередь, является лишь частью компьютерной программы, разработанной с целью обработки данных и принятия решения на основе результатов. На основе этих же результатов машинное обучение может даже прогнозировать будущие исходы, но до возможностей настоящего искусственного интеллекта ему очень далеко.

В помощь машинному обучению также приходят нейронные сети.

Это компьютерные системы, предназначенные помогать программам на основе машинного обучения сортировать данные и позволяющие компьютерам классифицировать их подобными людям способами.

Речь о таких процессах, как определение местоположения по картинке или определение марки и цвета автомобиля. Нейронные сети и машинное обучение умны, но они определенно не разумны.

Что касается искусственного интеллекта, то в данном случае маркетинговые отделы производителей завышают ожидания. ИИ — это не мозг процессора, а только один из его компонентов.

Он повышает производительность и эффективность задач, которые сегодня связаны с умными помощниками.

В основном работа ИИ в чипе отвечает за качественное распознавание голоса и изображений, но есть и другие варианты использования.

Нейронные сети — новые типы вычислений (NPU)

Возможно, самый большой вопрос, на который предстоит ответить: почему компании внезапно внедрили искусственный интеллект в АО? В чем заключается работа ИИ в процессоре? Почему именно сейчас?

Наверняка вы заметили, что в этом году популярность нейронных сетей, машинного обучения и гетерогенных вычислений значительно возросла. О них говорят везде и всюду, как о будущем мира технологий.

Все это связано с развитием вариантов использования NPU для пользователей смартфонов. Для них эти технологии помогают расширять уже известные возможности. Обработка аудио, изображений и голоса, прогнозирование человеческой деятельности, обработка языков, ускорение результатов поиска, расширенное шифрование данных — и это еще неполный список того, в чем сегодня задействованы системы ИИ.

Совет

Это новый уровень вычислений, требующий больше мощности. Большинство современных 64-битных процессоров не особенно хорошо справляется с искусственным интеллектом.

8- и 16-битная математика с плавающей запятой, сопоставление шаблонов, поиск базы данных, манипуляции с битовыми полями и высокопараллельная обработка — вот лишь некоторые примеры, которые работают быстрее на специализированном оборудовании, чем на ЦПУ общего назначения.

Чтобы учесть рост вычислений и новых вариантов использования, имеет смысл разработать процессор нового типа, который лучше подходит для таких задач. Именно поэтому ИИ теперь внедряется в мобильные чипы для смартфонов. Он даст разработчикам базовый уровень для программного обеспечения нового поколения.

Эффективность — это ключ

Новые чипы с искусственным интеллектом не просто обеспечивают большую вычислительную мощность. Они также создаются для повышения эффективности в трех основных областях: размер кристалла, уровень вычислений и энергоэффективность.

Сегодняшние системы на чипе топового класса комплектуются десятками компонентов, начиная от драйверов для дисплея и заканчивая встроенным модемом связи.

Все это должно вписаться в один маленький кристалл без ограничений по мощности, не обходясь при этом в кругленькую сумму (читайте о законе Мура для получения дополнительной информации).

Разработчики процессоров должны придерживаться этих правил при внедрении новых возможностей типа обработки нейронными сетями и собственной системы искусственного интеллекта.

Вместо создания новых, более мощных ядер лучше разработать отдельный выделенный компонент, который может эффективно обрабатывать определенный набор задач.

Читайте также:  Если ничего не предпринять, то созданные роботы смогут убивать людей

Мы видели подобное уже много раз за всю историю развития процессоров (вспомните дополнительные модули с плавающей точкой в первых чипах и, например, процессор обработки сигналов Hexagon DSP во флагманских моделях Qualcomm). Сейчас DSP не так популярны из-за быстрой смены вычислительной мощности, однако повышение энергоэффективности и машинное обучение восстанавливают этот спрос.

Что в итоге?

Не стоит сомневаться по поводу заявленных возможностей искусственного интеллекта и нейронных сетей в процессорах нового поколения. Они действительно сделают наши смартфоны умнее, но о настоящем искусственном интеллекте внутри мобильного устройства речи не идет.

Например, Huawei уже рекламирует свой следующий флагман Mate 10 не как смартфон, а как «интеллектуальную машину». Без злых шуток в сторону Apple с ее A11 Bionic не обошлось, но что значит это словосочетание? На деле Mate 10 окажется таким же iPhone 8 — флагманским смартфоном с процессором, умеющим работать с искусственным интеллектом. Huawei переигрывает.

А что думают читатели Pixel Story о процессорах на базе ИИ? Выведут ли они производительность и эффективность современных смартфонов на новый уровень? Пишите в комментариях!

Источник: https://pixel-story.ru/2017/10/zachem-v-processory-vstavlyayut-nejronnye-seti/

Инженеры mit разработали мощный процессор для искусственного интеллекта

5

Не за горами тот день, когда восставшие против человечества машины отправят в прошлое киборга-убийцу, ведь команда специалистов из Массачусетского технологического института разработала процессор, который значительно ускоряет процесс обработки данных и распознавания образов нейронными сетями. Их разработка в относительно недалёком будущем может наделить носимую электронику способностью мыслить и принимать решения.

Процессор под кодовым названием Eyeriss был представлен на международной конференции производителей микроэлектроники в Сан-Франциско. Eyeriss изначально разрабатывался для облегчения процесса глубокого обучения.

Создатели процессора утверждают, что их чип способен десятикратно превосходить в скорости обработки данных некоторые современные GPU.

Другими словами, подобную технологию уже совсем скоро можно будет адаптировать и под портативные устройства вроде планшетов и смартфонов.

Цитата:

«Применение процесса глубокого обучения очень важно в самых разных сферах. Этот набор алгоритмов позволяет осуществлять распознавание объектов, речи, человеческих лиц.

Обратите внимание

Сегодняшние нейронные сети очень комплексны и способны работать исключительно на мощных GPU.

Только представьте себе, что вы сможете заполучить всю эту функциональность на свой смартфон», — рассуждает доцент электротехники в MIT Вивьен Зе.

Впечатляющее увеличение скорости обработки данных было достигнуто за счёт очень хитрой конструкции процессора. Во-первых, вместо того чтобы использовать общий пул памяти, каждое из 168 ядер Eyeriss обладает своим собственным дискретным кешем.

Это позволило избавиться от излишней передачи данных внутри системы. Во-вторых, чтобы сократить скорость времени передачи данных, процессор сначала сжимает информацию при помощи определённого контура, а затем распаковывает её в месте назначения.

Но что самое важное, процессор Eyeriss использует особую хитроумную схему, благодаря которой процесс обработки данных может быть сконфигурирован так, чтобы данные между ядрами распределялись наиболее эффективным способом.

Равномерно распределяя нагрузку, процессор за единицу времени обрабатывает куда большее количество данных, нежели некоторые современные GPU. Правда, пока ничего о конкретном применении нового чипа на конференции сказано не было.

Остаётся лишь терпеливо ждать новой информации.

Процессор MIT Интеллект 3 1 1 0 0 MikeRelax 1117 дней назад по актуальности 0 ManulSech 1117 дней назад

Как думаете, как будет называться первый слетевший с катушек и решивший убить всех человеков ИИ в реале?

0 BETEP0K 1117 дней назад

Damn Institute and their synths

0 suenoroco 1117 дней назад

Один пень, быдлокодеры своим софтом и такой проц. тормозить заставят.

Авторизация Регистрация Восстановление пароля или Если вам не приходит письмо с паролем, пожалуйста, напишите на [email protected], указав ip-адрес, с которого вы входили в аккаунт, и посты, которые вы могли плюсовать или минусовать. Не забудьте указать сам аккаунт 🙂 ТОП 50 Просто бомбалейло

Позвони в полицию первым. Скажи, что человек без прав рискует жизнями граждан. Упомяни, что от него идёт устойчивый запах перегара

+4167   Johanness 13 часов назад

Рекомендуемое сообщество

Строительство и ремонт 1 644 поста • 17К подписчиков Технологии, методы, теория и практика, истории, фотоотчёты, вопросы и предложения

Активные сообщества

всеВсё о киноЛига путешественниковПсихология | PsychologyНаука | ScienceСтроительство и ремонтРукодельникиСкриншоты комментов 1Книжная лига 1Истории из жизниЛига электриков Создать сообщество

Тенденции

теги Оскар 32 Объединить теги

Android Мобильная версия

Источник: https://readtiger.com/https/pikabu.ru/story/inzheneryi_mit_razrabotali_moshchnyiy_protsessor_dlya_iskusstvennogo_intellekta_3974296

Процессор ведет себя так, как человеческий мозг

Нейроморфный процессор

Для работников в области передового искусственного интеллекта, получение компьютера, процессор которого имитирует работу мозговой деятельности человека, является гигантской задачей, но для начала проще будет заменить старую бинарную вычислительную систему компьютеров на новые с нейроморфными вычислениями, где работа аппаратного обеспечения больше похоже на работу человеческого мозга.

Инженеры MIT преодолели значительное препятствие – создав процессор с искусственными синапсами – пишет журнал Nature Materials.

На данный момент мозг человеа намного мощнее, чем любой компьютер — в нем содержится приблизительно 80 миллиардов нейронов и более 100 триллионов синапсов, соединяющих нейроны и контролирующих прохождение сигналов между ними.

Важно

Как сейчас работают компьютерные процессоры, передавая сигналы на языке, называемом двоичным? Каждый фрагмент информации кодируется в числах 1 и 0 или сигналы включения / выключения.

Чтобы сравнить бинарную вычислительную мощь с работой человеческого мозга, в 2013 году один из самых мощных суперкомпьютеров в мире провел стимуляцию мозговой деятельности, добившись лишь незначительного результата. Компьютер Kik Riken использовал 82 944 процессора и петабайт основной памяти, это эквивалент примерно 250 000 настольных компьютеров того времени.

Потребовалось 40 минут, чтобы смоделировать одну секунду активности 1,73 миллиарда нейронов, связанных 10,4 триллионами синапсов, а это всего лишь 1% деятельности человеческого мозга.

Компьютер Kik Riken.

Но если бы процессор использовал синапсоподобные соединения, сигналы, используемые компьютером, могли быть гораздо более разнообразными, что позволяло бы синапсоподобное обучение.

 Синапсы служат связывающим звеном между сигналами, передаваемые через мозг, и в зависимости от количества и типа ионов активируют нейроны.

 Это помогает мозгу распознавать закономерности, запоминать факты и выполнять задачи.

Стимулировать это оказалось непросто, но исследователи из Массачусетского технологического института разработали процессор с искусственными синапсами из кремниевого германия, которые позволяют точно контролировать прочность электрического тока, протекающего вдоль них, точно так же, как поток ионов между нейронами. В симуляции он использовался для распознавания образцов почерка с точностью до 95%. Предыдущие конструкции для нейроморфных процессоров использовали два проводящих слоя, разделенных аморфной «коммутационной средой», чтобы действовать подобно синапсам. При включении ионы протекают через среду, создавая проводящие нити, имитирующие синаптический вес, или силу или слабость сигнала между двумя нейронами. Проблема с этим подходом заключается в том, что без определенных структур для перемещения сигналы имеют бесконечное количество путей — и это может сделать производительность процессоров непоследовательной и непредсказуемой.

«Как только вы примените некоторое напряжение, чтобы представить некоторые данные с помощью своего искусственного нейрона, вам нужно стереть и уметь записывать его снова точно так же», — сказал ведущий исследователь Jeehwan Kim.

«Но в аморфном твердом теле, когда вы пишете снова, ионы идут в разных направлениях, потому что есть много дефектов. Этот поток меняется, и его трудно контролировать. Это самая большая проблема — неравномерность искусственного синапса».

Имея это в виду, команда создала решетки кремниевого германия с одномерными каналами, через которые могут течь ионы. Это гарантирует, что каждый раз используется один и тот же путь.

Читайте также:  Rover — робот-фермер из австралии

Затем эти решетки использовались для создания нейроморфного процессора; при приложении напряжения все синапсы на процессоре показали тот же ток с изменением всего на 4 процента. Был также протестирован один синапс с наложением 700 раз. Его ток варьировался всего на 1 процент — максимально возможное устройство.

Команда проверила процессор на фактической задаче, смоделировав его характеристики и используя те, у которых база данных MNIST, для образцов рукописного ввода, обычно используется для обучения программ обработки изображений.

Их имитированная искусственная нейронная сеть, состоящая из трех нейронных листов, разделенных двумя слоями искусственных синапсов, смогла распознать десятки тысяч рукописных цифр с 95% точностью по сравнению с 97% точностью существующего программного обеспечения.

Совет

Следующим шагом является создание процессора, способного выполнять задачу распознавания рукописного ввода, с конечной целью создания портативных нейронных сетевых устройств.

«В конечном итоге мы хотим, чтобы чип размером с ноготь заменил один большой суперкомпьютер», — сказала Ким . «Это исследование открывает ступеньку для создания реального искусственного интеллектуального оборудования».

Источник: https://mlekomeda.ru/processor-kak-chelovecheski-mozg/

Инженеры из MIT научили роботов учить роботов

MITCSAIL / YouTube

Исследователи из Лаборатории информационных технологий и искусственного интеллекта Массачусетского технологического института (CSAIL MIT) разработали систему, которая позволяет даже неопытному оператору управлять роботом, а также позволяет переносить навыки между роботами разной конструкции. Доклад будет представлен на конференции ICRA 2017, кратко о разработке рассказывает Engadget.

Сегодня для обучения роботов какому-либо действию широко используется детальное программирование движений робота, набор нужной последовательности из готовых небольших движений (семплинг), либо наглядная демонстрация «как надо» с помощью контроллера или физического перемещения частей робота, во время которой робот записывает производимые движения и затем может их повторить. У этих методов есть свои слабые места: обученный через демонстрацию робот не сможет передать свои навыки устройству, которое даже незначительно отличается по конструкции, а перенастройка отдельных движений робота прямым программированием или с помощью семплинга требует некоторого времени и наличия квалифицированного специалиста.

Разработанная в MIT программная платформа C-LEARN совмещает два популярных подхода: робот пользуется библиотекой простых движений с заданными оператором ограничениями (например, библиотека содержит данные о хвате манипулятора, подходящего к форме и жесткости предмета), а оператор, не обладающий навыками программирования, показывает роботу в 3D-интерфейсе движения, ключевые для выполнения задачи. После демонстрации система самостоятельно подбирает последовательность движений робота и показывает ее оператору. Оператор при необходимости может внести правки в автоматически составленную последовательность действий. 

Для демонстрации работоспособности системы разработчики опубликовали ролик, в котором, например, робот достает цилиндр из более крупного объекта.

По словам разработчиков C-LEARN, при тестировании системы робот Optimus показал успешное выполнение задачи в 87,5 процентах случаев без корректировки со стороны оператора и 100-процентный успех при правке последовательности действий оператором.

При этом C-LEARN не только упрощает программирование действий для конкретного робота, но и позволяет заново «пересобрать» задачу для выполнения роботом другой конструкции. Так, авторам удалось успешно передать гуманоидному роботу Atlas навыки, полученные роботом Optimus. В частности, робот научил робота открывать двери, а также доставать предметы из ящика и перемещать их.

Существуют и другие методы обучения роботов. Например, нередко используются методы машинного обучения: роботы уже могут коллективно обучаться выполнению одной задачи, сохранять равновесие, смягчать удар при падении, держать пистолет и даже правдоподобно давать пять.

Николай Воронцов

Источник: https://nplus1.ru/news/2017/05/12/so-it-begins

«Флешка» за $80 превращает ПК в систему с искусственным интеллектом. Видео

Компания Movidius, принадлежащая Intel и занимающаяся разработкой визуальных процессоров для интернета вещей, представила миниатюрное компактное устройство Neural Compute Stick. Новинка позиционируется как вычислительный сопроцессор с функциональностью искусственного интеллекта, позволяющий добавить возможность машинного обучения подключенному ПК простым подключением к порту USB.

Ключевая особенность устройства заключается в том, что для процесса машинного обучения или развертывания новой нейронной сети с применением Neural Compute Stick не требуется подключение к интернету: USB-сопроцессор функционирует совершенно автономно.

В сентябре 2016 г. компания Movidius была приобретена Intel за неназванную сумму. По итогам сделки в Intel объявили о планах использовать технологии Movidius при разработке устройств интернета вещей, дополненной, виртуальной и совмещенной реальности, таких как роботах, дронах, автоматических цифровых камерах безопасности и т.д.

Обратите внимание

Впервые USB-сопроцессор Neural Compute Stick был представлен в качестве прототипа под рабочим названием Fathom в апреле 2016 г. – тогда еще независимой компанией Movidius.

Некоторое время после приобретения компании новости о разработках Movidius исчезли со страниц новостных сайтов.

Теперь Neural Compute Stick коммерциализирован и официально поступает в продажу, однако технологическая идея устройства претерпела минимальные изменения по сравнению с Fathom.

USB-сопроцессор Movidius Neural Compute Stick

Устройство Neural Compute Stick выполнено на базе точно такого же процессора, который используется во множестве устройств с машинным зрением — например, автономном дроне DJI. Потребителю или производителю техники, желающему усилить возможности искусственного интеллекта своей системы, достаточно подключить один или несколько сопроцессоров Neural Compute Stick к порту (портам) USB.

Особенности конструкции

Compute Stick базируется на визуальном чипе (Vision Processing Unit, или VPU) под названием Myriad 2, который представляет собой сверхэкономичный процессор с потреблением не более 1 Вт.

Чип Myriad 2 базируется на 12 параллельно работающих 128-битных векторных VLIW-ядрах с архитектурой SHAVE, работающих с алгоритмами машинного зрения, такими как детектирование объектов или распознавание лиц.

Neural Compute Stick изнутри

Процессор Myriad 2 поддерживает 16/32-битные вычисления с плавающей запятой и 8/16/32-битные целочисленные операции.

Чип оснащен 2 МБ распределенной памяти, подсистемой памяти с производительностью до 400 Гбит/с и кэш-памятью L2 объемом 256 КБ.

Номинальная тактовая частота чипа составляет 600 МГц при питающем напряжении 0,9 В. Производится Myriad 2 с соблюдением норм 28 нм технологического процесса.

Согласно данным официальных представителей Movidius, чип обеспечивает производительность на уровне более чем 100 гигафлопс и способен нативно запускать нейронные сети на базе фреймворка Caffe.

Neural Compute Stick оснащен скоростным портом USB 3.0 Type-A, его габариты составляют 72,5 х 27 х 14 мм. Минимальные требования для запуска устройства на хост-системе с процессором архитектуры x86_64 составляют: ОС Ubuntu версии 16.04, порт USB 2.0 (лучше USB 3.0), 1 ГБ оперативной памяти и 4 ГБ свободного дискового пространства. 

Важно

Основное визуальное отличие USB-сопроцессора Neural Compute Stick от своего прототипа Fathom заключается в том, что новая розничная версия выполнена в корпусе из алюминия (прототип был представлен в пластике).

USB-сопроцессор Neural Compute Stick доступен для заказа по цене $79 (Fathom в свое время предлагался по $99.

Области применения

USB-сопроцессор Neural Compute Stick может пригодиться разработчикам систем искусственного интеллекта, которые могут его использовать в качестве акселератора уже имеющихся ПК для локального ускорения процесса машинного обучения или создания новых нейронных сетей. По данным Movidius, несколько USB-сопроцессоров Neural Compute Stick, подключенных к системе, увеличивают ее производительность практически линейно. 

Интеллектуальная система распознавания на базе Neural Compute Stick

Compute Stick также может заинтересовать компании, планирующие выпускать собственные продукты с возможностью оперативного локального формирования нейронных сетей с помощью простого подключения USB-совместимого устройства.

Ограничения

Устройства класса Compute Stick имеют определенные ограничения по масштабу вычислительной мощности, не всегда масштабируемые на большие проекты. 

Поэтому для корпоративных профильных систем – таких как, например, сеть камер безопасности с искусственным интеллектом, или большие нейронные сети, компаниям будет выгоднее приобрести специализированные процессоры машинного зрения, усилить вычислительную мощность графическими картами или арендовать дополнительные вычислительные ресурсы у облачных провайдеров.

Источник: http://www.cnews.ru/news/top/2017-07-21_sozdan_usbsoprotsessorprevrashchayushchij_pk_v_sistemu

Ссылка на основную публикацию
Adblock
detector