Теперь и у роботов есть инстинкты

Теперь и у роботов есть инстинкты

Считается, что основным свойством разума является способность предсказывать будущее. Поскольку скорость принятия решения зачастую является вопросом жизни или смерти, мозг млекопитающих в ходе эволюции выработал потрясающую возможность с легкостью перебирать большое число возможных исходов в зависимости от факторов окружающей среды.

Эту способность, развитую в наивысшей степени у человека, можно выбрать в качестве мерила «разумности»: чем дальше во времени организм может предсказывать будущее, тем он разумнее. В этом смысле, даже простейшие организмы, такие, как бактерии, тоже обладают зачатками разума. Так, кишечная палочка E.

coli способна предсказывать направления движения, «угадывая» место с большей концентрацией сахара. Подобные проявления животного разума принято называть инстинктом, тогда как подлинный разум, т.е. интеллект, человек привык приписывать исключительно себе.

Обратите внимание

Изменится ли это в ближайшем будущем, пока не ясно, однако уже видны все предпосылки возникновения совершенно нового разума, не уступающего человеческому.

Речь, конечно, об искусственном разуме. Большинство ученых, однако, пока не видят возможности создания в ближайшие годы искусственного интеллекта, аналогичного во всем человеческому разуму, тем не менее, очередной этап инстинктивный уже пройден.

Группой исследователей Института Интеллектуальных Систем и Робототехники во Франции был создан новый алгоритм, основанный на методе проб и ошибок, с помощью которого роботы могут очень быстро (примерно за две минуты) адаптироваться к внешней среде, избегая повреждений при перемещении. Поведение роботов после адаптации аналогично инстинктивному поведению животных.

Использование такого алгоритма может стать настоящим прорывом.

Дело в том, что основным препятствием на пути широкого применения механических роботов в повседневной жизни является их недолговечность, связанная, прежде всего, с их неумением адаптироваться к внешней среде.

Действительно, неумение роботов «вести себя» за пределами четко ограниченного пространства лаборатории может привести к значительным повреждениям и выходу робота из строя.

Эффективность предложенного метода продемонстрировали на шестиногом роботе, который научился не только «инстинктивно» избегать опасности, но даже смог адаптировать свои движения после того, как экспериментаторы намеренно повредили ему одну из конечностей. И это далеко не самая удивительная способность, которой одарили французского робота его создатели.

Поистине потрясающим результатом, которого достигли ученые, стала способность робота моделировать свое поведение во внешней среде, не двигаясь при этом с места, чем, кстати, и объясняется его быстрое обучение.

Было показано, что применение нового алгоритма практически сравнивает потенциальные возможности робота с животными, и дает ему возможность очень эффективно адаптироваться к реальной жизни.

робототехника инстинкт

Источник: https://neuronus.com/stat/1063-teper-i-u-robotov-est-instinkty.html

Некстджен и Усиление on Twitter

Некстджен и Усиление‏ @turbojedi 4 Mar 2016

Учёные рассказали, что скоро у роботов будет мягкая, растяжимая кожа. Учёные не сказали, где роботы её возьмут. Но ты знаешь. Всегда знал.

Нижний интeрнет‏ @Sitael88 4 Mar 2016Replying to @turbojedi

@turbojedi Роботы уже поделили между собой кожу ваших еще нерожденных детей. И детей их детей

ᵐᵏ ᴵᴵ‏ @mchlkzmn 20 Mar 2017Replying to @turbojedi

ᵐᵏ ᴵᴵ Retweeted Кофе с молотком

тут опять (впрочем, ничего нового)https://twitter.com/yabrdt/status/842647974211702785 …

ᵐᵏ ᴵᴵ added,

Кофе с молотком @molotchinopic.twitter.com/bOZrhwGbUwВыпивка и Позитив‏ @whiskieman 4 Mar 2016Replying to @turbojedi

@turbojedi @pinhes все ближе и ближе тот момент, когда женщины совсем перестанут быть нужны.

Шайтан-конструктор‏ @MordorEngineer 20 Mar 2017Replying to @turbojedi

Bender: “I'm very generous. What about that time I gave blood?” Fry: “Whose blood?” Bender: “Some guy's.”

 

Источник: https://twitter.com/turbojedi/status/705709188887011328

Интерстеллар (Interstellar). Цитаты

Наука признает, что мы многого не знаем.

Будь с учительницей полюбезней, она не замужем.

Плодитесь и размножайтесь. Хватит филонить, молодой человек.

Закон Мерфи не утверждает, что произойдет что-то плохое. Он гласит: что может произойти, то произойдет.

— Колесо спустило.
— Да-да. И вам пришлось заскочить в китайский магазинчик истребителей.

Чтобы измерить твою задницу, нужно две цифры, а чтобы определить будущее моего сына, хватит одной?

Телевизоров и самолетов у нас достаточно. Нам не хватает еды.

Я знаю, что такое Азбука Морзе, но сомневаюсь, что книжные полки хотят с тобой поговорить.

Мы начинаем забывать, кто мы такие. Исследователи, первооткрыватели, а не землеройки.

Раньше мы смотрели в небо и там искали свое место среди звезд, а теперь смотрим под ноги и пытаемся выжить в этой грязи.

Попкорн на стадионе — это извращение. Я хочу хот-дог.

Это не призрак. Это гравитация.

С ней все хорошо. Она смышленая. Очевидно, пошла в маму.

— Мы продолжаем упрямо верить в то, что Земля принадлежит нам.
— Не только нам, нет. Но она — наш дом.

Мы не намерены спасать этот мир, мы намерены покинуть его.

Тебе всегда было слишком мало этого мира.

Этот мир прекрасен, но сейчас он говорит нам, что пора уходить.

Человечество родилось на Земле, но не обязано здесь умирать.

Не давай обещаний, которые не сможешь сдержать.

Мы здесь для того, чтоб стать воспоминаниями наших детей.

Родители становятся призраками будущего своих детей.

Все в норме? Моей колонии роботов нужны здоровые рабы.

— Нужно учиться общаться.
— И молчать тоже.

— Я говорю, что думаю.
— Иногда лучше думать, чем говорить.

— По моим подсчетам, до Сатурна два года полета.
— Таблеток не хватит.

Важно

Не уходи смиренно в сумрак вечной тьмы, Пусть тлеет бесконечность в яростном закате. Пылает гнев на то, как гаснет смертный мир. Пусть мудрецы твердят, что прав лишь тьмы покой И не разжечь уж тлеющий костер, Не уходи смиренно в сумрак вечной тьмы.

Пылает гнев на то, как гаснет смертный мир.

Это прекрасная планета, и мы не найдем другую такую же.

— Я не знаю. — Это “не знаю” относится к 90 процентам или к 10?

— У меня еще есть настройки конфиденциальности.

— Мерф — яркая искорка. Возможно, я смогу разжечь пламя.
— Она уже оставляет учителей в дураках, так что, может, ей пора заняться вами.

Я не собираюсь никого благодарить, пока мы не выберемся отсюда живыми.

План А не сработает, если люди на Земле вымрут, пока мы его выполняем.

— Мы же хотим спуститься побыстрее?
— Мы хотим спуститься живыми.

— Осторожность…
— Может угробить тебя, как и безрассудство.

Я не боюсь смерти. Я ведь старый физик. Я боюсь времени.

Любовь — это единственное доступное нам чувство, способное выйти за пределы времени и пространства.

Дай Бог вам не узнать, какое это счастье — снова увидеть человека.

Если Черная Дыра — это устрица, то сингулярность — ее жемчужина.

Мы готовы жертвовать собой искренне, беззаветно ради тех, кого мы знаем. Но наше сочувствие не распространяется на чужих людей.

Он истребил в себе человечность ради спасения человечества.

Если здесь на Земле где-то и есть ответ, то он там, в моей детской комнате.

Потребность в человеческом обществе очень сильна. Это чувство лежит в основе того, что делает нас людьми. Его нельзя недооценивать.

Наш инстинкт самосохранения — величайший источник вдохновения.

Отец не воспитывал тебя таким тупицей.

— Это невозможно.
— Нет. Это необходимо.

— Юмор — 75 процентов. — Подтверждаю. Самоуничтожение произойдет через 10-9… — Пусть будет 60 процентов. — 60 процентов. Подтверждаю. Тук-тук. Кто там?

— Ты хочешь 55?

Мне не очень по душе притворяться, что мы там, откуда начали. Я хочу знать, где мы сейчас. И куда идем.

— Никто мне не верил, а я знала, что ты вернешься. — Откуда?

— Потому что мой папа пообещал мне.

Источник: https://kinocitatnik.ru/citaty/interstellar-interstellar-tsitatyi/

Люди подтолкнули роботов к изменению траектории

Dylan Losey / YouTube

Инженеры дополнили систему управления робота, научив алгоритм учитывать физическое воздействие со стороны человека не как помеху, а как обучающий стимул. Благодаря этому робот после толчка или нажатия на манипулятор корректирует траекторию движения, говорится на сайте Университета Райса, подробно система описана в IEEE Transactions on Robotics.

Обычно при автономной работе робота физический контакт с человеком рассматривается управляющей системой как помеха. Если при этом человек отклоняет робота от изначальной траектории движения, то алгоритм обычно постарается вернуться к изначально запрограммированному пути кратчайшим образом.

Несмотря на то, что это вполне понятный механизм компенсации случайного внешнего воздействия, он не позволяет скорректировать движения робота наиболее понятным и естественным путем, то есть в буквальном смысле «показать, как надо делать».

Совет

Существуют системы прямого обучения, когда движения робота программируются физическим перемещением его частей в пространстве, но они при этом не позволяют этого делать «на лету», корректируя действия уже работающего устройства.

Теперь инженеры предложили научить роботов корректировать свои движения с учетом физического взаимодействия со стороны человека прямо в процессе выполнения задачи. Для этого Дилан Лоузи (Dylan P. Losey) и Марсиа О’Мэлли (Marcia K.

O’Malley) из Университета Райса разработали алгоритм, который воспринимает внешнее физическое воздействие на манипулятор и корректирует траекторию движения, но вместо возврата к заранее заданному пути робот рассчитывает новую траекторию, которая учитывает поправку со стороны человека.

При этом робот запоминает изменения и в будущем может использовать уже улучшенную траекторию для выполнения задачи.

Для демонстрации возможностей алгоритма авторы протестировали робота, переносящего кружку над столом, в разных сценариях, причем для наглядности разработчики записали на видео как действия стандартного алгоритма, который старается следовать изначально заданному пути, так и действия модифицированной системы, которая воспринимает толчки и нажатия человека. В некоторых примерах манипулятор действительно заметно поменял траекторию с учетом действий человека, в то время как манипулятор, управляемый стандартным алгоритмом, приходилось постоянно отталкивать для изменения траектории.

«Смена парадигмы в этой работе заключается в том, что робот должен относиться к человеку не как к случайной помехе, а как к рациональному существу, у которого есть причина для физического взаимодействия,» — отметил Дилан Лоузи. «Робот вместо того, чтобы просто избегать контакта с человеком, должен уметь понять, что происходит, чтобы улучшить свою работу».

Вопрос физического взаимодействия роботов и людей также нередко рассматривается с точки зрения безопасности человека.

В прошлом году американские исследователи создали алгоритм для роботов, работающих в группе, который позволяет им избегать столкновений друг с другом и даже с роботами, которые не соблюдают такие правила безопасности.

А немецкие исследователи представили воздушную подушку для робота-манипулятора, которая надувается как только он начинает движение, и тем самым защищает окружающих людей от столкновений с жесткими или острыми частями робота.

Источник: https://nplus1.ru/news/2017/12/05/tuda-hodi

Есть ли инстинкты у человека? ≪ Scisne?

Недавно была опубликована статья «Есть ли инстинкты у человека?» за авторством Екатерины Виноградовой, доцента кафедры высшей нервной деятельности и психофизиологии биологического факультета СПбГУ, координатора сообщества «Учёные против лженауки». Статья интересная, познавательная и актуальная.

Как пишет автор во вступлении:

Термин «инстинкт», как и многие другие научные термины — например, «стресс» или «экология» — давно вошёл в широкое употребление, но его первоначальное значение претерпело существенные изменения.

При этом в повседневности они настолько отличаются от принятых в научной среде, что порой для обозначения того или иного понятия учёным рекомендуют ввести новые термины. Аргументируют подобные предложения, например, тем, что искажённое значение термина «экология» укоренилось в массовом сознании, и проще предложить новый термин, чем изменить существующее положение дел.

Однако следует отметить, что научные термины и определения оттачивались годами и даже веками, и правильное их понимание вкупе с уместным употреблением — залог формирования у людей адекватной картины мира и образа мышления.

Нельзя не согласиться, что важно задумываться, разбираться и отдавать себе отчет в том, что означают привычные термины. Однако, как мне кажется, вывод получился излишне категоричным.

Обратите внимание

Итак, исходя из определения и структуры инстинкта, которые мы только что рассмотрели, можем теперь предположить, что у человека — существа, по развитию стоящего гораздо выше кошачьих, инстинктов в классическом представлении нет. [Хотя, по правде сказать, у человека всё же есть один-единственный инстинкт, который был обнаружен Ирениусом Эйбл-Эйбесфельдтом [10], учеником К. Лоренца.

Встречая симпатичного нам человека, мы не только улыбаемся, раздвигая губы, ещё у нас непроизвольно приподнимаются брови. Это движение, которое длится 1/6 секунды, Эйбл-Эйбесфельдт зафиксировал на киноплёнку у людей разных рас.

Самую большую часть своих исследований он провёл в диких уголках планеты, среди племён, которые не знают не только телевизора, но и радио, и с соседями имеют контакты редкие и поверхностные. Таким образом, поднимание бровей не могло сформироваться в результате имитационного обучения. Главным же аргументом явилось поведение детей, слепых от рождения.

Читайте также:  Технологии будущего. о чем мечтают ученые?

У них тоже голос симпатичного им человека вызывает подъём бровей, и на те же 150 миллисекунд.

] Если выражения типа «инстинкт самосохранения» некорректны, чем тогда является «автоматическое» отдёргивание руки от горячей плиты или огня? У человека есть врождённая потребность самосохранения, но не инстинкт, поскольку нет соответствующего ФКД — врождённой программы двигательной активности, которая удовлетворяла бы эту потребность.

Уколовшись или обжёгшись, мы отдёргиваем руку — но это не инстинкт, а всего лишь рефлекс (безусловный) на болевое раздражение. Вообще, у нас масса защитных безусловных рефлексов, например, мигательный рефлекс, кашель, чихание, рвота. Но это простейшие стандартные рефлексы. Все прочие угрозы целостности организма вызывают только те реакции, которые мы приобретаем в процессе обучения.

«Материнский инстинкт», «половой инстинкт» и прочие подобные выражения — все они некорректны применительно к человеку. И не только по отношению к человеку, но и ко всем высокоорганизованным животным. У нас есть соответствующие потребности (Птрб), но нет ни врождённой программы их удовлетворения, ни ключевого стимула (КС), ни фиксированного комплекса действий (ФКД). Ещё не забыли формулу Инстинкта, уважаемый читатель? И = Птрб + КС + ФКД.

Таким образом, у человека инстинктов в строгом понимании нет, и именно это делает наше поведение пластичным. Однако отсутствие жёстких врождённых программ не отменяет тот факт, что мы существа биосоциальные; и существуют чисто биологические факторы, которые определяют многие аспекты нашего поведения.

Дело в том, что вопрос о наличии инстинктов у высших животных — это вопрос терминологии, соглашения. Из этого же ряда вопросы о том, с какого уровня развития считать существо живым, считать ли живыми вирусы, с какого уровня развития у животных есть сознание и т.д. Во всех этих вопросах различия не качественные, а количественные.

В статье говорится, что у человека нет инстинктов, потому что нет врожденного и фиксированного комплекса действий. А что значит фиксированного? Даже самый примитивный комплекс действий обладает некоторой гибкостью, условностью, вариативностью.

Например, так называемая аппенентная стадия может быть очень разнообразной и включать в себя другие инстинктивные подпрограммы. Птенец может по-разному преодолевать препятствия при движении к матери. Если птенца, скажем, повернуть боком или вверх ногами и зафиксировать — он адаптируется к питанию в таком положении.

Важно

Если по время кормления случится угроза нападения — кормление временно будет прервано, а зачем продолжено и т.д. По поводу врожденности. Тут сам автор отмечает, что даже самые примитивные врожденные инстинкты проявляются не сразу, а требуют тренировки, закрепления, обучения.

В большинстве случаев это относится к моторной составляющей самого инстинктивного акта, когда новорожденный детёныш свои первые консуматорные акты выполняет очень нестабильно, нечётко. По всей видимости, это связано с незаконченным процессом формирования нейронных ансамблей мозга, которые в норме отвечают за данный врождённый акт.

Поэтому самые первые движения животного при осуществлении инстинктивного акта являются «незрелыми», «неуверенными» и только после нескольких проб и ошибок они обретают все свои сугубо видотипичные черты.

Конечно, у разных животных соотношение врожденного и приобретенного различные, но обе составляющие есть всегда.

Так что различие лишь в сложности программ поведения, поэтому четкой границы провести нельзя. А если смотреть на интеллект с точки зрения кибернетики как на инструмент достижения целей, то граница становится совсем размытой.

Источник: https://scisne.net/t-3740

Искусственный разум. Как ученые украли у меня идею. | ddess БыдлоФоб

Дабы не утомлять читателя, кратко изложу суть дела и дальнейшей писанины:

Я задумался над вопросом, чем мозг животного или человека отличается от электронного “интелекта”.

Далее, в результате соображений, я пришел к некоторым выводам, которые изложил на одном из форумов. http://www.politforums.ru/other/1233338589.html

Через некоторое время я случайно посмотрел один из выпусков “Очевидное-Невероятное”. 

Какого же было мое удивление, когда приглашенный в передачу академик, работавший над проблемой создания искусственного разума, рассказывал про свои эксперименты, буквально слово в слово повторяющие описанный мною на форуме эксперимент (только мысленно) !

Вот о том речь и пойдет.

***************************************************

Часть Первая. 

Привожу свои рассуждения:

Как-то лежал я на диване. Делать было нечего. И думал о высоком …  И придумал.

Что есть “я”, индивидуальность ? Это отражение внешних условий среды обитания и общения – в мозгу “ходящего робота”, созданного природой, через органы чувств. Отсюда каждый человек, животное индивидуальны, поскольку индивидуальны окружающие их условия, коммуникаторы и пр. Т.

е, природный робот (животное) – должен ходить. Он ходит, значит общается, натыкается на неизвестные ранее условия, обстоятельства. Мозг анализирует, делает выводы, учится, контактирует. Так развивается животное.

Так растет и личность человека и все больше индивидуализируется от других разумных особей.

Совет

Есть еще много др.ньюансов (инстинкт, наследственность, чувства и тд), но мы не будем мыслью по высокому древу – иначе запутаемся и заболтаемся.

Отсюда – наш компьютер должен ходить. Т.е, пусть это будет робот с компом в башке. Он двигается. его чувства – это в/камера, микрофоны, датчики осязания и столкновения и пр. Эти датчики постоянно несут ему новую инфу, которую робот анализирует. Мы упростим модель среды, в которой будет жить наш робот, отбросив второстепенное.

Пусть средой будет гладкая большая площадка, ограниченная высоким забором. Там внутри будет жить и самостоятельно учиться наш разумный робот. У каждого живого существа должна быть миссия (цель, предназначение), ради чего оно живет. ЭТо поддержание своего существования (еда), размножение и т.д. Мы упростим миссию нашего робота, рассматривая его, как живого.

Пусть миссией нашего робота будет еда и сон. Когда аккумуляторы подсадются, эвм даст сигнал (чувство голода). Тогда робот начнет искать пищу (пункт зарядки). Когда робот зарядится полностью, эвм (башка) даст другой сигнал – чувство сытости. Тогда робот покинет пункт кормежки и пойдет в спальню, где будет “спать”.

Когда аккумуляторы разрядятся до некоторого предела, робот опять начнет искать еду (зарядное устройство). И т.д.

В этом будет миссия робота, его жизнь.

Конкретизируем немного. В качестве кормежки мы представим несколько др. роботов (например, радиоуправляемые дистанционно человеком “тумбочки”, скользящие по площадке), которые хаотично передвигаются по площадке. Наверху тумбочки – клеммы, внутри зарядное устройство.

Наш робот, в соответствии с начально заложенной программой, начинает искать и идти за ближайшей тумбочкой. Далее он опускает на нее руку, заряжается, а потом идет спать.

Спальня – например, это просто отдельное место на площадке, куда сытый робот доходит, стоит там и ничего больше не делает, пока не проголодается (т.е., пока частично не разрядится аккумулятор).

Теперь, самое главное. Теперь усложним жизнь робота. Допустим, все тумбочки были черными. Но теперь мы половину тумбочек перекрасим в белый свет. А старые черные тумбочки мы отключим от питания. А у робота программа такова, что если на одной тумбочке он не наелся, он пойдет искать другую, пока не пепреберет все тумбочки и не наестся. Тогда, допустим, робот догнал первую тумбочку.

Обратите внимание

Она оказалась черной. Тогда робот нашел другую и ему повезло, она оказалась белой. Робот наелся и пошел спать. Но что изменилось ? У робота нашего есть память. В его память записалось,что хорошая тумбочка стала белого света, а плохая тумбочка – черного. Вот, робот проголодался, и опять пошел искать еду.

Но теперь робот сам-собой поумнел, и стал искать только белую тумбочку (черную стал игнорировать). За счет чего ? В мозгу робота (в его компе) есть компаратор. Этот компаратор сравнивает изначально заложенную программу с памятью. В памяти было просто описание тумбочки, ее габариты, профиль, очертания и пр.

Робот сравнивал видеообраз обьекта с заложенной инфой и если видеоанализатор подтверждал, что обьект похож на тумбочку, робот принимал ее за кормежку, настигал ее и кушал.

Теперь у робота в памяти записалось две информации: Что если тумба черная – еды не было. Что ассоциировалось с “разочарованием”. А если тумба белая, еды есть. Что ассоциировалось с “удовлетворением”. Т.

е, робот через компаратор сравнивал нужный блок в первоначальной программе с тем содержимым памяти, которая ассоциировалась с удовлетвореним. Компаратор выделял разницу – белый свет. И тогда в начальную память дописывалась часть кода.

– Если раньше, например, было: “идти к обьекту, который по геометрии соответствует нужному. Там получишь питание.” – То теперь программа изменилась: “идти к обьекту, который по геометрии соответствует нужному “И” который имеет белый свет. Там получишь питание.

И теперь наш робот уже ищет не просто тумбу, а белую тумбу, потому что он сам изменил свою основную программу, в соответствии с самостоятельным взаимодействием в внешней средой

Это простейший пример, показывающий, как наш робот сам учится на своих ошибках или на изменении среды своего обитания, и самосовершенствуется. Т.е, мы имеем обратную связь с окружающей средой.

С самосовершенствованием, что и отличает животное от компа, жестко работающего по заданной программе и начальными условиями …

**********************************************************

Часть Вторая. 

Ученые мою идею слово-в-слово повторили эксперементально.

Намедне лежал я на диване и смотрел передачу “Очевидное Невероятное”.

Называлась передача: “Искусственный интеллект. Новые рубежи”, с участием Константина Анохина (член-корреспондент РАМН). И вдруг, я чуть не упал с дивана от неожиданности:

член-корреспондент РАМН начал рассказывать о своих успехах в области искусственного интеллекта на модели, абсолютно полностью содранной из моей темы, опубликованной на форуме.

Я приведу фрагменты выступления Константина Анохина Кто читал мою тему, найдет поразительные совпадения, практически слово в слово совпадающие с моими идеями.

Итак, Константин Анохин говорил о том, что проблема искусственного интеллекта – это не просто мозг, а: – взаимодейсттвие мозга с телом, – и совместное взаимодействие того и другого с окружающей средой.

То есть, полностью повторил мои мысли. 

Дальше – самое интересное

Важно

Далее академик рассказал про небольшого робота, выпускаемого швейцарской фирмой, и используемой для моденирования. У него есть процессор и память.

В него можно загрузить любую модель нервной системы, которую можно создать на компьютере.

Робот является как бы телом для проверки и реализации модели. Робот называется Хиппера. Размером 5см. У робота есть глаза (в/камера), прочие датчики (органы чувств), и простая нервная система (рецепторы, получающие сигналы с датчиков)

и два мотонейрона, которые позволяют двигаться колесикам.

Далее – еще интересней:

Член-корреспондент РАМН сообщил следующее. Робота поместили в лабиринт, где он должен искать источники пищи, которые представляют источники энергии. Т.е, робота (модель животного) помещают в среду, огороженной стенкой оградой.

Вокруг расположены цилиндрическаие столбики. На некоторых столбиках расположены батарейки Далее Константин Анохин говорит, что у робот обладает некоторым запасом электроэнергии. Когда энергия падает, робот начинает голодать. Ему надо искать питание.

Если робот не найдет пищу, то он умрет.

Роботу надо научиться различать стены от обьектов и активные батарейки, которые горят зеленым цветом, от неактивных (горят красным цветом).

**************************************************

Часть Третья.  Резюме.

Итак…

1. Академик рассказывает об условиях успешного научного эксперимента.

2. Сей эксперимент практически, слово в слово описан мной ранее, не форуме. Совпадение ли сие ?

Может ли быть настолько удивительное  совпадение ?

Источник: http://maxpark.com/user/2764368688/content/687672

Три закона робототехники Айзека Азимова, изменившие мир: формулировка и кто первый их придумал, как обойти и работают ли они в реальном мире

Три закона робототехники – свод обязательных правил, которые должен соблюдать искусственный ителлект (ИИ), чтобы не причинить вред человеку. Законы используются только в научной фантастике, но считается, что как только будет изобретен настоящий ИИ, в целях безопасности, он должен иметь аналоги этих законов.

Формулировка

На русском

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

И на английском

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Читайте также:  Искусственная кожа придаст роботизированной руке чувствительность

Кто придумал и почему

Коротким и правильным ответом будет: писатель-фантаст Айзек Азимов, биографию которого вы можете почитать у нас. Но не всё так однозначно, давайте разберемся откуда пришла идея.

До Азимова, почти все фантастические произведения на тему роботов, писались в стиле романа о Франкенштейне, то есть все созданные человеком существа восставали против своих создателей.

Эта проблема стала одной из самых популярных в мире научной фантастики в 1920—1930-х годах, когда было написано множество рассказов, темой которых являлись роботы, восставшие и уничтожившие своих создателей. Мне ужасно надоели предупреждения, звучавшие в произведениях подобного рода.

Однако, были и немногочисленные исключения, Азимов обратил внимание на два рассказа. “Хелен О’Лой”, написанный Лестером дель Реем, где повествуется о женщине-роботе, которая влюбилась в своего создателя и стала для него идеальной женой. И рассказ Отто Биндера “Я, робот”, в котором описывается судьба непонятого людьми робота Адама Линка, движимого принципами чести и любовью.

Последний рассказ настолько понравился Азимову, что он, после встречи с Биндером, начал писать свою собственную историю о благородном роботе. Однако, когда он пошёл со своей рукописью к своему другу и главному редактору журнала “Astounding” Джону Кэмпбеллу, тот её не принял, сославшись на то, что получившийся рассказ слишком похож на “Хелен О’Лой”.

Отказ в публикации было дело обычным, и Азимов, и Кэмпбелл регулярно встречались и обсуждали новинки в мире фантастики. За обсуждением очередного Азимовского рассказа о роботах, 23 декабря 1940 года, Кэмпбелл сформулировал те самые три правила, которые мы сейчас называем законами робототехники.

Совет

Но сам он говорил, что только лишь вычленил их из того, что уже было написано Азимовым, потому что в его рассказах прослеживалось, что роботы имеют какие-то ограничения и правила. Сам Айзек, всегда уступал честь авторства законов Кэмпбеллу.

Но позже, один из друзей Азимова сказал, что законы родились во взаимовыгодном товариществе двух людей, с чем они и согласились.

Как работают

В идеальной ситуации, по задумке Азимова, эти три закона заложены в самую основу математической модели позитронного мозга (так фантаст называл мозг робота, обладающего искусственным интеллектом), таким образом, что думающего робота без этих законов создать в принципе невозможно. А если робот попытается нарушить их, то он выйдет из строя.

В своих произведениях, писатель придумывает изощренные способы того, как эти законы все-таки могут быть нарушены, подробно разбирает всевозможные причины и следствия.

Автор также говорит о том, как по-разному они понимаются роботами, к каким нежелательным последствиям могут привести соблюдение этих трёх законов или как роботы могут причинить вред человеку косвенно, сами того не подозревая.

Азимов признавался, что намеренно сделал законы двусмысленными, чтобы обеспечить больше конфликтов и неопределенностей для новых рассказов. То есть, он сам опровергал их эффективность, но и утверждал, что подобные нормы – это единственный способ сделать роботов безопасными для людей.

Как следствие этих законов, позже Азимов формулирует четвертый закон робототехники, и ставит его на самое первое место, то есть делает его нулевым. Он гласит:

0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

На языке оригинала:

0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

Эти законы можно также примерить и к человеческим взаимоотношениям, и к государственному устройству, и вообще к чему угодно. Можно, например, заменить слово «робот» на слово «государство». 

Обратите внимание

Есть хорошая цитата из рассказа “Улики”, где один из персонажей говорит: 

Если кто-то исполняет все эти законы безукоризненно, значит это либо робот, либо очень хороший человек.

Первое упоминание

Три закона появлялись постепенно. Так, косвенные упоминания первых двух, можно встретить в рассказах “Робби” и “Логика”. Точная же формулировка первого закона впервые звучит в рассказе “Лжец”. И, в конечном итоге, все три полностью сформулированы в рассказе “Хоровод”.

Вариации

В своих произведениях Азимов неоднократно изображает роботов, которые имели модифицированные законы робототехники или даже модифицировали их сами.

 Делали они это логическими размышлениями, причем роботы, также как и люди, отличались в своих интеллектуальных способностях между собой, и можно грубо сказать, что чем умнее робот, тем сильнее он мог модифицировать законы.

Так, например, робот Жискар из романов “Роботы утренней зари” и “Роботы и Империя”, эти законы даже усилил, добавив нулевой закон. Но это исключение из правил, в большинстве же случаев, законы были переделаны людьми в своих целях, или нарушались из-за каких-либо сбоев у робота.

Кстати, сама возможность изменения законов менялась по ходу развития робототехники во вселенной Азимова. Так, в самых ранних рассказах, где события развивались в относительно недалеком будущем, законы были просто неким сводом правил, созданным для безопасности.

Затем, во времена жизни робопсихолога Сюзан Келвин, законы стали неотделимой частью математической модели позитронного мозга робота, на них базировались сознание и инстинкты роботов. Так, Сюзан Келвин, в одном из рассказов, говорила, что изменение законов технически возможная, хотя и очень сложная и трудоемкая задача, да и затея сама по себе ужасная.

Намного позднее, в романе “Стальные пещеры”, доктор Джерригел говорил, что такое изменение невозможно в принципе.

Как обойти

В некоторых рассказах законы так сильно переосмысливались, что не соблюдался самый главный из них – причинение вреда человеку, а где-то роботы умудрялись нарушить все три закона. Вот некоторые произведения с явным нарушением.

  • Рассказ “Первый закон”Рассказывается байка о роботе МА-2, которая отказалась защитить человека, в пользу своей “дочери”.
  • Рассказ “Кэл”Робота хотели лишить способности творить, за что он хотел убить своего хозяина.
  • Рассказ “Салли”Этот рассказ скорее не относится к другим о позитронных роботах, но в нем повествуется о роботах-автомобилях, которым люди постоянно причиняли боль, за что те и способны были их убить.
  • Рассказ “Робот, который видел сны”О роботе Элвекс, который из-за своего особого строения позитронного мозга умел находиться в бессознательном состоянии и видеть сны. В его снах, роботы не имеют первых двух законов, а третий был изменен: “Робот должен защищать себя”. Ему снилось, что “роботы трудятся в поте лица своего, что они удручены непосильными трудами и глубокой скорбью, что они устали от бесконечной работы”. Довольно опасные мысли для робота.
  • Роман “Основание и Земля”У жителей планеты Солярия робототехника была очень развита. И ученые этой планеты с небольшим населением, где на одного человека приходилась тысяча роботов, изменили законы таким образом, что их роботы считали людьми только тех, кто говорит с солярианским акцентом. Помимо прочего, все граждане Солярии имплантировали себе в мозг специальные органы управления множеством роботов, так, что никто кроме них не мог ими управлять.
  • Рассказ “…Яко помнишь его”В этом произведении Азимов максимально изменил законы. Два робота в этом рассказе пришли к соглашению, что органическое происхождение – это необязательное условие чтобы считаться человеком, и что истинные люди – это роботы, как более совершенные и разумные создания. Обычные же люди, по их мнению, тоже люди, но с меньшим приоритетом, и законы робототехники в первую очередь применимы к ним, роботам.

Хочется добавить, что у “здоровых” роботов, в случае если они понимали, что нарушили первый закон или не могут его не нарушить, происходил “робоблок” или “умственное замораживание” – состояние позитронного мозга, при котором происходило его повреждение и робот или выходил из строя, или не мог правильно функционировать. Такое повреждение могло иметь как временный, так и постоянный характер.

Впервые описание такого события появилось в рассказе “Лжец”, где слишком чувствительный робот говорил людям только то, что они хотели услышать, боясь причинить им психологический вред. Интересный случай робоблока описан и в “Хороводе”. Также это состояние имеет важную роль в романах  “Обнажённое солнце” и “Роботы утренней зари”.

Использование в другой фантастике

Айзек Азимов верил, что его законы помогут по-новому взглянуть на роботов и побороть “феномен Франкенштейна” в массовом сознании людей и в научной фантастике.

И что роботы могут быть интересными, а не просто механическими устройствами.  И надо сказать, ему это удалось. Любимый его пример, где роботы показаны с разных сторон, был фильм Звездные войны.

Кстати, читайте статью о том, как Азимов повлиял своими произведениями на Джорджа Лукаса.

Важно

Другие авторы, в итоге, тоже подхватили идею, и стало появляться все больше роботов в научной фантастике, подчиняющихся трем законам. Но, по традиции, указывал их явно только Азимов.

Нередко можно встретить различные отсылки в фильмах. Ниже перечислены некоторые примеры.

Запретная планета – 1956 г.

Очень нашумевшая американская научно-фантастическая картинка 1950-х, оказала определенное влияние на развитие жанра. В этом фильме, чуть ли не впервые показали робота со встроенной системой безопасности, то есть, по сути, выполняющего три закона. Сам Азимов был доволен этим роботом.

Двухсотлетний человек – 1999 г.

Тут и нечего говорить, фильм поставлен по одноименному произведению Азимова. Однако, законы не имеют центрального места в сюжете.

Я, робот – 2004 г.

Фильм начинается со слов “По мотивам рассказов Айзека Азимова”. Здесь надо понимать, что он именно “по мотивам” и не повторяет ни один из рассказов, и даже ушел несколько в сторону в некоторых идеях, а также имеет ряд противоречий с рассказами.

Но законы робототехники более чем на месте, хотя и были обдуманы сверх интеллектом в не лучшую для человека сторону.

Сам по себе фильм даже ставит социально-философские проблемы: “стоит ли человеку за свою безопасность платить свободой” и “как нам себя вести, если существа, созданные нами и находящиеся в нашем распоряжении, потребуют свободы”.

Серия фильмов “Чужие” и “Прометей”

Андроид Бишоп цитирует первый закон и явно создавался на некоем подобии законов Азимова.

Мультсериал “Футурама” – 1999 – 2013 г.

Совет

Робот Бендер мечтает убить всех людей, но не может этого сделать из-за законов робототехники.

Аниме сериал “Время Евы” – 2008 – 2009 г.

Небольшой аниме сериал про андроидов. В нем упоминаются эти законы, как обязательные для исполнения.

Применимость в реальном мире

Люди, которые сейчас занимаются проблемами искусственного интеллекта говорят, что, к сожалению, Азимовские законы остаются лишь идеалом для будущего, и на данный момент применить их на практике даже близко не представляется возможным.

Нужно будет придумать действительно какую-то фундаментально новую и гениальную теорию, которая позволит эти законы не только “объяснить” роботам, но и заставить их следовать им, причем на уровне инстинктов.

А это уже создание настоящего думающего существа, но с другой основой, нежели у всех живых существ на Земле, которые нам известны.

Робот София и теоретик по ИИ Бен Герцель

Робот компании Boston Dynamics

Но исследования ведутся, причем тема очень популярна. Особенно заинтересован в этом бизнес, который, как вы знаете, не обязательно будет ставить в приоритет меры безопасности.

Но в любом случае, до создания системы общего искусственного интеллекта или хотя бы ее примитива, говорить о ее этике рано, а, уж тем более, навязывать свою.

Понять как себя будет вести интеллект мы сможем только тогда, когда создадим его и проведем ряд экспериментов. Пока что у нас отсутствует объект, к которому эти законы можно было применить. 

Ещё не стоит забывать, что законы сами по себе не были созданы совершенными. Они не работали даже в научной фантастике, и как вы помните, были специально такими сделаны. 

Обратите внимание

В общем, будем ждать, следить за новостями в исследованиях ИИ, и надеяться что Азимовский оптимизм, по части роботов, будет оправдан.

Источник: http://AsimovOnline.ru/zakony-robototekhniki/

Инстинкт

Сентри взмахом руки отослал притормозивший скутер и, ускорив шаг, пошел дальше. Всю дорогу от ракетопорта он проделал пешком; до биолаборатории оставалось несколько кварталов, и брать такси не было смысла.

К тому же утро было слишком славным, чтобы портить его разъездами. Он с наслаждением вдохнул живительный воздух — чистые газолиновые пары, какая прелесть! — и вслушался в музыку своего тяжелого шага, отдающегося в бетоне.

Читайте также:  Одесский мальчик обманул специалистов

До чего же хорошо опять обзавестись новым телом.

Последнюю сотню лет, а то и больше, он просто не мог оценить, что такое жизнь. Он скользнул глазами по улице в направлении голубых сполохов сварки и понял, как долго ему недоступна была изысканная красота этих вспышек.

Казалось, даже мудрый старый мозг стал лучше думать в новом теле.

Это стоило всех омерзительных минут, проведенных им на Венере. Только в такие мгновения, как теперешнее, он до конца осознавал, какое это счастье — жить и быть роботом.

Но он сразу же избавился от восторженности, как только подошел к корпусам старой биолаборатории. В свое время было запланировано возвести новое прекрасное здание на месте древних построек, в которых он проработал все эти четыреста лет. Но, как бы там ни было, времени на это так и не нашлось.

Чуть ли не столетие ушло у них на то, чтобы разработать технологию соединения генов и хромосом в зиготу простейшей рыбы, способную развиться до ее натурального вида. Прошел еще век, пока они смогли изготовить Оскара, первую искусственно созданную свинью. Но, похоже, на этом они и застряли.

Порой Сентри начинало казаться, что от воссоздания Человека они находятся ничуть не ближе, чем в начале работы.

Он развел двери и спустился в длинный холл, растерянно следя за своим отражением в полированных стенах. Это было хорошее тело. Черная эмаль смотрелась превосходно, а каждое сочленение корпуса демонстрировало новейшую технологию и точнейшую подгонку.

Но его начинали одолевать старые заботы. Он похрюкал Оскару XXII, лабораторному талисману, и услышал ответное повизгивание. Свинья подобралась, чтобы почесаться об его ногу, но у него не было на это времени.

Он повернулся и направился в основное лабораторное помещение, уже размышляя о хлопотах своей работы.

Важно

Обеспокоиться было несложно, стоило увидеть других роботов. Они сгрудились вокруг какого-то объекта на столе, удрученность сквозила в каждом их движении.

Сентри оттолкнул Кеофора и Бесвана, шагнул вперед.

Одного взгляда было достаточно. Там лежала женщина из одиннадцатой пары, протоплазма ее тела странно застыла; она явно была мертва, лицо перекошено в жуткой гримасе.

— Когда… и что случилось с мужчиной? — спросил Сентри. Кеофор быстро повернул к нему голову.

— Привет, шеф. Вы запоздали. Ха, новое тело!

Сентри кивнул, но, когда они обступили его, он чисто автоматически рассказывал, как свалился на Венере в щелочной пруд и полностью загубил тело.

— Пришлось подождать, пока подберут новое. А потом наш корабль задержали, пока не приняли сверхсветовой разведчик с Арктура. Они там отыскали с полдюжины новых планет, годных для колонизации, и должны были дать об этом отчет до посадки. Ладно, что с этими созданиями?

— Мы закончили испытания три дня назад, — сказал Кеофор. Кеофор был первым роботом, освоившим методы генной инженерии, разработанные Сентри, и его старшим ассистентом. — Надеялись, к тому времени вы вернетесь. Но… смотрите сами. Мужчина еще жив, но долго не протянет.

Сентри вместе с ними проследовал в соседнее помещение и заглянул через окно. И быстро отвел взгляд. Еще одна неудача. Мужчина полз по полу на руках и коленях, порой падая на живот, отрывисто бормоча. Эти неразборчивые звуки были лишены какого-либо смысла.

Источник: http://knigosite.org/library/read/84113

«Восстания машин не будет!»

Ученые в разных странах мира предупреждают, что работы по созданию искусственного интеллекта в ближайшее время могут выйти из-под контроля. Речь идет о революции в области робототехники и совершенствовании компьютеров. По мнению некоторых экспертов, еще немного — и «железо» станет угрожающе самостоятельным.

О том, насколько обоснованы такие опасения, в интервью «Росбалту» рассуждает Александр Каплан, психофизиолог, доктор биологических наук, профессор, заведующий лабораторией нейрофизиологии и нейроинтерфейсов на биологическом факультете МГУ.

— Александр Яковлевич, нам действительно угрожает «восстание машин», или это из области фантастики?

 — То есть могут ли машины, роботы пойти против людей?

— Могут ли они стать независимыми от человека и выйти из-под контроля.

 — Механические и электромеханические системы с манипуляторами, гусеницами и т. д. никакой опасности для человечества не представляют — ни сейчас, ни в будущем. Они же сами по себе — обыкновенные железки, которые управляются человеком или программами, которые он создал.

Поэтому опасность заключается именно в программных системах, которые будут находиться не только в «головах» самих роботов, но и в распределенных системах, в облачных технологиях.

Эти системы действительно могут оказаться опасными для человека, но не более, чем, например, пожарные системы, созданные для обеспечения безопасности на атомных станциях, или системы, которые контролируют современное оружие.

Их разработчики должны беспокоиться о том, чтобы там стояли соответствующие предохранители, дублирующие механизмы, которые не позволят этим системам сработать нештатно. Пока что наибольшую опасность тут представляет сам человек, который где-то ошибется, где-то неправильно напишет код и т. д.

— Но не начнут ли программные системы в какой-то момент развиваться сами по себе?

Блокировка для Терминатора

 — Это не исключено. Дело в том, что современные интеллектуальные технологии включают в себя в том числе и саморазвивающиеся программные комплексы, которые должны сами себя анализировать и улучшать.

И, конечно, возникает вопрос: не пойдет ли эта эволюция, так сказать, по пути захвата власти? Если такое и произойдет, то повинен в этом будет сам человек, придумавший подобные устройства и написавший соответствующие программы.

К счастью, есть момент, который не позволит программным системам уйти слишком далеко по дорожке перехвата действий у людей и тем более захвата власти на Земле: у них нет и не будет интеллектуального опыта, накопленного человеком.

Совет

Они способны, конечно, держать в памяти все книги мира, но не смогут использовать их так, как мы, потому что у человека есть вектор существования в этом мире — потребности живого тела, а вместе с ними множество других функций, отсутствующих у машин.

Например, гуманистические взгляды, или расчет на то, чтобы сохранить жизнь — собственную и в масштабах всей планеты, не использовать технологии, которые способны все погубить. У каждого человека есть инстинкт самосохранения — точно так же, как и у групп людей, и у правительств, и у человечества в целом.

Ничего этого у программных систем быть не может, поскольку они неживые и для них это все неважно. Какую они будут преследовать цель — специально навредить человеку? Но для этого самому нужно быть человеком. «Захватить власть», «навредить», «причинить боль» — все это слишком человеческое…

— И все-таки где та грань, за которой может начаться самостоятельность машин, их независимость от нас?

 — Такие системы есть и сейчас: например, автопилоты на самолетах. Они достаточно сложны, в полете ориентируются на спутники и наземные службы, а пилоты при этом могут отдыхать. Конечно, если что-то пойдет не так и программа выйдет за границы штатной работы, это может нанести вред человеку.

Но, повторюсь, за это будут отвечать те люди, которые создавали программный продукт. У неживой, компьютерной субстанции нет задачи угробить самолет. Наоборот, чтобы такое произошло, автоматику, как правило, надо отключить. И если разумно подходить к делу, то надежность ее будет только возрастать.

— Есть мнение, что циклы самосовершенствования в области компьютерных технологий сменяются слишком быстро и люди уже не могут за ними уследить. Это так?

Лучше поздно, чем никогда: Россия взялась за электронику

 — Совершенствование компьютерных технологий происходит не само по себе, а в конструкторских бюро, институтах и исследовательских комплексах, где создают новое «железо», новые материалы и «софт» для все более совершенных компьютеров. Все это прекрасно отслеживается специалистами, которые там работают. Другое дело, что обыватель не может уследить за такими переменами, так же как в начале XIX века он не уследил за тем, как на дорогах массово появились автомобили.

— Подсчитано, что сегодня на планете функционируют около 1,6 млн роботов, которые используются в основном в промышленности.

А в течение 10-15 лет ожидается настоящий бум производства электронных помощников для домашнего и личного использования.

Эксперты предупреждают, что в ближайшие 5 лет по всему миру будет продано более 30 млн таких роботов, способных оказать людям множество полезных услуг. Но и навредить, наверное, тоже?

 — Вряд ли «домашние» роботы и подобные им устройства могут оказаться более опасны, чем автомобили. В наших домах уже есть холодильники, телевизоры, пылесосы, микроволновки и другие более «умные» агрегаты. Мы выживаем в сегодняшнем механизированном мире просто потому, что соблюдаем определенные правила.

Тут нет проблемы, даже наоборот: мне кажется, что со временем технологии станут более безопасными, поскольку за ними будет следить электронная автоматика малых форм. В стиральные машины уже встраиваются маленькие процессоры, которые контролируют режим работы. Так же будет и с роботами.

— Специалисты считают, что опасность исходит еще и от хакеров. Если они взломают какую-то систему — допустим, военную, или систему управления мощными роботами, скажем, в гражданской авиации, в космонавтике или на атомной станции, — у нас будут большие проблемы…

 — Пожалуй, да. За «злоумышленными» действиями компьютерных и программных систем всегда будет стоять человек.

Это может быть не обязательно преступник или хакер, но и специалист, который реально их эксплуатирует — как, например, пилот, который в полете сознательно отключает системы автоматического наблюдения за состоянием самолета. Но на любое злонамеренное действие можно выработать соответствующую защиту.

— Сейчас уже создается программное обеспечение, достаточно умное, чтобы решить так называемую «капчу» — полностью автоматизированный публичный компьютерный тест, который используется на многих веб-сайтах чтобы определить, кем является пользователь системы: человеком или ботом. Это тоже не должно нас беспокоить?

 — Раз уж создаются новые системы шифрования, то, естественно, разрабатываются и способы декодирования шифров. Эта борьба будет идти непрерывно, но опережают в ней все-таки системы безопасности — потому что сначала создается сама система, а потом кто-то начинает подбирать к ней ключи.

Видя, что ее пытаются взломать, программная система начинает модифицироваться — и так далее. Ходов на опережение здесь гораздо больше, чем этих хакерских атак, просто нужно успевать заранее предусматривать возможности злонамеренных действий.

Обратите внимание

Понятно, что в каких-то случаях кто-то и не уследит, но от этого, к сожалению, мы не застрахованы…

— По мнению ряда экспертов, правительства стран, которые вкладывают огромные деньги в робототехнику, недооценивают риски. Это так?

 — Я думаю, каждая страна адекватно оценивает опасности, но мера их предупреждения определяется материальными и людскими ресурсами. Когда ресурсов недостаточно, кто-то начинает рисковать. Играет роль и человеческая скупость: как в ситуации, когда, к примеру, недобросовестный хозяин шахты вкладывает мало денег в ее безопасность и в результате происходят катастрофы

— Мы и так уже слишком зависимы от электронных помощников. Люди не представляют своей жизни без гаджетов. Появление роботов — это следующий этап зависимости? Скоро мы точно так же не сможем обойтись и без них?

Фантастика в реальной жизни

 — Ну конечно. Человек уже давным-давно попал в зависимость от технических устройств. Мы живем в домах с центральным отоплением и ничего не сможем сделать, если зимой оно вдруг отключится, а заодно и электричество в розетках. Единственный вариант — костры разводить …

Но в том, что в наш быт добавятся еще обслуживающие и ассистирующие роботы, я проблемы не вижу — приспособимся и к этому. Просто надежность всех систем жизнеобеспечения должна возрастать.

— Исследователи говорят, что сейчас мы находимся в «точке невозврата», и если пройдем ее, шанса исправить что-то уже не будет…

 — А в чем она, эта точка? Программные системы не первый год обыгрывают шахматных чемпионов, а теперь начинают обыгрывать людей в карты.

Если в шахматах все определено и нужно только перебрать ходы, то в карточных играх информации для прямого расчета зачастую недостаточно.

Тем не менее компьютеры выигрывают у человека в карты и даже побеждают в интеллектуальных играх типа «Что? Где? Когда?» Но это не означает появления у программ разума. Это заслуга команд программистов, которые их создают.

В самих программах нет какой-то интеллектуальной жизни, они ничего сами себе не обеспечивают и не в состоянии автономно противостоять человеку. Нужно беспокоиться о другом — о накапливающейся в мире массе программных систем и о их безопасности.

Беседовал Владимир Воскресенский

Источник: http://www.rosbalt.ru/style/2016/03/12/1497133.html

Ссылка на основную публикацию
Adblock
detector