Нужно ли опасаться совершенного искусственного интеллекта?

Почему мы должны бояться искусственного интеллекта?

Философ, сооснователь международного интернет-холдинга Social Discovery Ventures рассказывает об опасностях развития технологий и начинает дискуссию

Развитие искусственного интеллекта чревато появлением нового риска для человечества — страшнее атомной войны и экологической катастрофы.

Об этом всерьез говорили философ Ник Бостром, физик-теоретик Стивен Хокинг и магнаты из Силиконовой долины Илон Маск и Билл Гейтс. Впрочем, они пока не убедили большинство.

Обратите внимание

Ведь и среди оптимистов — не менее влиятельные люди: Марк Цукерберг, Ларри Пейдж или футуролог Рэймонд Курцвейл. Они, напротив, в искусственном интеллекте видят решение всех проблем человечества.

Мы призываем демона-аннигилятора или ангела-хранителя? Как это понять?

Искусственный интеллект может привести к появлению сверхразума — интеллекта, превосходящего когнитивные возможности человека во всех ключевых областях. Именно он кажется одним главной угрозой, а другим — главной надеждой. И он может появиться быстрее, чем мы ожидаем, так как темпы технологического прогресса ускоряются в геометрической прогрессии.

Иллюстрация: Gerd Leonhard/Flickr via CC

Несколько миллионов лет наши полуголодные предки охотились в африканских лесах, они с трудом выживали. Двести тысяч лет назад появился Homo Sapiens.

Еще через сто тысяч лет, в эпоху верхнего палеолита, у Homo Sapiens появился язык, который, в свою очередь, открыл возможности для развития мышления и передачи опыта. Примерно десять тысяч лет назад произошла неолитическая революция, переход от экономики охотников и собирателей к земледелию.

Население и его плотность увеличились на порядки. Двести лет назад произошла индустриальная революция, в ее результате развились крупные города, производство выросло на порядки.

Чуть больше 50 лет назад появился компьютер — машина, способная совершать математические и логические операции и заменять человека в отдельных областях, которые считались исключительно интеллектуальными.

Вы замечаете, как сокращается временной интервал между радикальными изменениями? Так вот, если смотреть назад на историю технического прогресса из нашего времени, то это бесконечная долина, а впереди перед нами — отвесная вертикаль. Мы стоим на «экспоненциальной кривой». Следующий рывок может произойти скоро, и, скорее всего, он будет связан с искусственным интеллектом.

Искусственный интеллект уже показывает существенные успехи. Некоторые преимущества машин над их создателями были очевидны сразу: у машин потенциально больше память и на порядки быстрее скорость вычислений. Машина может обнаружить закономерности в последовательностях символов. Это показал Алан Тьюринг, когда с помощью машины разгадал шифр «Энигмы», с которым не справился ни один человек.

Но компьютер может обрабатывать не только цифры. Он может демонстрировать интеллектуальное поведение. Например, он может обыграть человека в интеллектуальные игры. Компьютер обыграл человека сначала в шашки в 1956 г., потом в шахматы в 1997 г., и, наконец, в игру Го в 2014 г.

Важно

Еще несколько десятилетий назад победа в этих играх казалась признаком абсолютного интеллектуального превосходства. Компьютер обыгрывает людей в телевикторинах на любознательность и смекалку, пишет стихи, которые невозможно отличить от стихов, написанных людьми, водит машины лучше людей, распознает речь и изображения, распознает и классифицирует болезни.

В связи с этими достижениями можно говорить о том, что через несколько десятилетий может появиться сверхразум. Чем это чревато?

Дело в том, что вне зависимости от того, какие изначальные цели будут поставлены перед сверхразумом, у него в любом случае появится промежуточная цель — обеспечение ресурсами для реализации этой цели.

И на пути к реализации промежуточной цели сверхразум может воспринять человечество как препятствие. В худшем сценарии сверхразум станет нашим последним изобретением.

Человечество на эволюционной лестнице станет загрузочной программой для нового типа разума.

В связи с этим обычно возникают два любопытных вопроса: а действительно ли развитие искусственного интеллекта в узких областях, то развитие, которое мы наблюдаем сейчас, может привести к появлению сверхразума? И действительно ли машины могут мыслить, ведь они только оперируют нулями и единицами.

Источник: https://snob.ru/entry/159179

Исследование: стоит ли опасаться искусственного интеллекта

Среди киношного апокалипсиса отдельную нишу занимает истребление человечества «руками» искусственного интеллекта. Если же говорить не про конец света, а про роботов в целом, внимания достойны фильмы «Я робот», «Терминатор», а также сериалы «Мир Дикого Запада», «Люди». Но объединяет их все не только круто закрученный сюжет и великолепная игра актёров, а ещё тревожность.

Так стоит ли верить кинокартинам и опасаться искусственного интеллекта? Или же он в будущем «сыграет на нашей стороне» и нам стоит ценить и уважать его? Попробуем понять вместе.

Тест Тьюринга

В 1950 году в журнале Mind была опубликована уникальная статья, не теряющая своей актуальности по сей день, — «Вычислительные машины и разум». В ней некий Алан Тьюринг философствует про искусственный интеллект и его возможности в будущем.

А ещё учёный упомянул в исследовании тест, названный в дальнейшем в честь него. Тест Тьюринга основывается на необходимости понять, умеет ли машина мыслить на человеческом уровне.

Так стоит ли верить кинокартинам и опасаться искусственного интеллекта?

Процесс выглядит весьма интересно. Человека садят так, чтобы он не видел своих собеседников. Он должен задавать вопросы в письменной или устной форме, а после полученных ответов попытаться понять, кто из них – робот.

Среди собеседников действительно имеется «ненастоящий», и его задача доказать обратное. Алан Тьюринг утверждал, что как только ИИ это удастся, можно считать, что он достиг той самой черты. Учёный прогнозировал, что это произойдёт в 2000 году. Увы, или к счастью, он опередил события.

Последние новости

Хотя сегодня ИИ ещё не может доказать, что он реальный человек, он уже делает попытки. В какой-то степени человечество уверенно продвигается вперёд, словно по сюжетной линии фантастического фильма.

Например, в 2018 году Гугл Ассистент обрёл что-то вроде мышления. Теперь он говорит на многих языках мира, умеет поддержать беседу, отвечает на вопросы. Он заказывает такси и другие услуги, причём, собеседник не осознаёт, что разговаривает с роботом. Вот она – революция в современной матрице!

Совет

Но и это не всё. На днях компания IBM представила наимощнейший компьютер в мире. Его создали под заказ Национальной лаборатории Министерства энергетики США и назвали The Summit, что переводится как «Вершина». Цена ПК — $200 млн, а производительность — 200 петафлопс.

Просто для понимания: «Вершина» за 60 минут выполнил задачу, на которую обычный компьютер потратил бы минимум 28 лет, пыхтя, краснея и ломаясь каждый год!

Хотя сегодня ИИ ещё не может доказать, что он реальный человек, он уже делает попытки.

Чего ожидать в будущем

Пока что ИИ несёт людям только пользу. Но он набирает силу. И уже, возможно, способен понять, что нельзя творить зло на данном этапе – слишком зависит от человека. Однако позднее он вполне может решить взять управление собственной судьбой и судьбой человечества в свои «руки».

Мы не смеем сегодня точно что-либо утверждать. Я лично верю, что однажды ИИ осознаёт нечто важное, что может не понравиться людям. Ведь человеческий разум тоже представляет собой нескончаемые математические процессы. И мы успешно победили рабство, потому что внезапно осознали его абсурдность, поняли, что достойны большего. Не поступит ли с нами так однажды ИИ?

Все «предсказатели» утверждают, что можно будет что-то точно сказать через 20 лет. Так думал Алан Тьюринг в 50-х годах, так верили его последователи в 80-х годах, так говорят современные учёные. Я же считаю, что более-менее ситуация прояснится к 2030 году. Ведь Гугл Ассистент и «Вершина» уже являются запущенными механизмами.

А как считаете вы? когда ии обретёт «реальный» разум? и будет ли это опасно для человечества?

Источник: https://android-magazine.ru/issledovanie-stoit-li-opasatsja-iskusstvennogo-intellekta/

Стоит ли опасаться искусственного интеллекта? | Живой космос

Когда люди видят машины, которые ведут себя как как люди, или компьютеры, демонстрирующие умение стратегически мыслить и познавать, они иногда шутят о будущем, где человечество будет порабощено цивилизацией роботов.

Но в каждой шутке — лишь доля шутки.

 Научная фантастика и популярные фильмы от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) предполагают, что искусственный интеллект (ИИ) превзойдет ожидания его создателей и уйдет из — под контроля, в конечном итоге поработив людей или устроив их вымирание. Такая ситуация описана, например, в легендарной серии кинофильмов «Терминатор».

Но и в реальном мире не все готовы приветствовать ИИ с распростертыми объятиями. В последние годы ученые расширили границы того, чего может достичь ИИ, и ведущие фигуры в области технологий и науки предупреждают о надвигающихся опасностях, которые искусственный интеллект может представлять для человечества, предполагая даже, что возможности ИИ могут обречь человечество.

Читайте также:  Cityhome - квартира-трансформер с искусственным интеллектом

Но почему люди так опасаются ИИ?

«Экзистенциальная угроза»

Илон Маск — один их известнейших изобретателей современности, считает опасным развитие ИИ. В июле 2017 года Маск заявил присутствующим на встрече Национальной ассоциации губернаторов: «У меня есть опыт работы с самыми передовыми ИИ, и я думаю, что люди должны быть действительно обеспокоены их развитием».

Ранее, в 2014 году, Маск назвал ИИ «нашей самой большой экзистенциальной угрозой», а в августе 2017 года он заявил, что человечество сталкивается с большим риском от ИИ, чем от Северной Кореи.

Физик Стивен Хокинг также выражал озабоченность по поводу возникновения злонамеренного ИИ, сообщив Би-би-си в 2014 году, что «развитие полноценного искусственного интеллекта может означать конец человеческой расы».

Также не обнадеживают результаты работ, выполняемых некоторыми программистами, особенно те, которые работают в MIT Media Lab в Кембридже, штат Массачусетс. По-видимому, они намерены доказать, что ИИ может быть чем то ужасным.

https://www.youtube.com/watch?v=EFd1uWNT0AU

Нейронная сеть под названием «Кошмарная машина», созданная учеными MIT в 2016 году, превратила обычные фотографии в омерзительные, адски апокалиптические. Другой ИИ, созданный учеными MIT, получившая название «Шелли», выдумывала страшные истории и создала в итоге 140 000 рассказов на тему ужасов.

«Нам было интересно посмотреть, как ИИ провоцирует у людей эмоции, в этом конкретном случае — страх», — сказал Мануэль Себриан, менеджер по исследованиям в MIT Media Lab.

Страх и ненависть

Отрицательные чувства об ИИ обычно можно разделить на две категории: идею о том, что ИИ станет сознательным и попытаться уничтожить нас, а также мнение, что безнравственные люди будут использовать ИИ для совершения злых дел. Килиан Вайнбергер, доцент кафедры информатики в Корнельском университете, говорит:

Однако опасения, что ИИ будут продумывать планы по уничтожению человечества, основаны на неправильных представлениях о принципах их работы, отметил Вайнбергер.

ИИ работает под очень специфическими ограничениями, определяемыми алгоритмами, определяющими его поведение.

Обратите внимание

 Некоторые типы решаемых ИИ проблем хорошо сопоставляются с наборами навыков машин, что делает некоторые задачи относительно легкими для ИИ. «Но большинство вещей не соответствуют этому, и они неприменимы», — сказал он.

Это означает, что, ИИ может быть способным к впечатляющим подвигам в тщательно определенных границах — например, может играть на шахматной игре на уровне гроссмейстера, или быстро идентифицировать объекты в образах, — но на этом его способности заканчиваются.

Гении и злодеи

Другая тревожащая людей мысль — что недобросовестный человек будет использовать ИИ для причинение вреда — к сожалению, это гораздо более вероятно, добавил Вайнбергер.

 В принципе любой тип машины или инструмента может использоваться как в хороших, так и в плохих целях, в зависимости от намерений пользователя, и перспектива использования оружия, имеющего искусственный интеллект безусловно пугает, и нуждается в строгом государственном регулировании, сказал Вайнбергер.

Возможно, если бы люди могли отбросить свои опасения по поводу враждебного ИИ, они были бы более открыты для признания его преимуществ, предположил Вайнбергер. Например, расширенные алгоритмы распознавания образов могут помочь дерматологам идентифицировать родинки, которые потенциально могут быть раковыми.

А автомобили, оборудованные автопилотом, могут значительно уменьшить количество смертей в автокатастрофах, многие из которых вызваны человеческой ошибкой, заключил ученый.

Источник: https://alivespace.ru/stoit-li-opasatsya-iskusstvennogo-intellekta/

«Переводы»: Эссе Люсиано Флориди. «Стоит ли нам бояться искусственного интеллекта?»

Люсиано Флориди – профессор философии и информационной этики в Оксфордском университете,  

Главный научный сотрудник Центра практической этики Уэхиро. 

Его последняя книга «Четвертая революция: Как инфосфера видоизменяет человеческую реальность» (2014).

Представьте себе, что вы вошли в темную комнату в незнакомом вам здании. Вы можете запаниковать, испугавшись монстров скрывающихся в темноте. Или вы можете просто включить свет, чтобы не наткнуться на мебель. Эта темная комната и есть будущее искусственного интеллекта (ИИ).

К сожалению, многие люди считают, что как только мы переступим порог, то столкнемся с какими-то злыми, сверхинтеллектуальными машинами. Это представление уходит корнями в 60-е годы 20 века.

В тот период Ирвинг Джон Гуд, Британский математик, работавший криптографом в Блетчли-парк вместе с Аланом Тьюрингом, сделал следующее наблюдение:

Допустим, сверхинтеллектуальная машина – это такая машина, которая может значительно превзойти любого человека по всем параметрам, каким бы умным тот не был.

Так как создание машин является одним из видов интеллектуальной деятельности, сверхинтеллект может создавать еще более совершенные машины, что непременно приведет к «интеллектуальному взрыву», и человек с его разумом останется далеко позади.

Важно

Таким образом, искусственный сверхинтеллект является последним из изобретений, которое человечеству когда-либо следует создать, и только при том условии, что машина будет достаточно управляемой для того, чтобы рассказать нам, как себя контролировать. Любопытно, что эти выводы редко делаются вне научно-фантастических книг. Все таки иногда стоит воспринимать научную фантастику всерьез.

Как только искусственный сверхинтеллект станет реальностью, он сможет не просто не быть послушным, а вести себя как «Терминатор»: поработить человечество как подвид, игнорировать его права, и преследовать свои собственные цели вне зависимости от того, какие последствия – это будет иметь для существования человеческого рода.

Если это кажется вам невероятным. То сейчас, возможно, вы захотите переосмыслить свою позицию.

Отмотаем-ка время на полвека вперед, в настоящее, где удивительные достижения в области цифровых технологий заставили многих людей поверить в то, что «интеллектуальный взрыв» Джона Гуда действительно может произойти и видовой геноцид со стороны сверхинтеллекта более чем реален, если мы не будем осторожны. Вот слова Стивена Хокинга, сказанные им в 2014 году:

Развитие полноценного ИИ может означать конец человеческой расы.

В прошлом году, Билл Гейтс был того же мнения:

Я вместе с теми, кто обеспокоен проблемой сверхинтеллекта. Сначала, машины станут делать за нас механическую работу. И это, безусловно, будет приносить пользу, если все правильно организовать. Но через несколько десятилетий, их интеллект разовьется достаточно, чтобы стать проблемой. Я согласен с Илоном Маском и остальными, и не понимаю, почему большинство люди так спокойны.

И что же сказал Генеральный директор Тесла, Маск:

Мы должны быть очень осторожны с искусственным интеллектом.

Если бы мне предложили назвать самую большую угрозу нашему существованию, пожалуй, это ИИ… Все чаще ученые считают, что возможно должен быть какой-то орган надзора на национальном и международном уровне, чтобы мы не натворили дел.

Исследования в области ИИ подобны мистическим ритуалам по вызову демона. Во всех этих историях, где парень с пентаграммой и святой водой искренне уверен, что он сможет контролировать демона обычно ситуация выходит из под контроля.

Реальность же куда более тривиальна. В марте этого года, Микрософт представила TAY– ИИ чат робота для Твиттера. Всего лишь через 16 часов им пришлось удалить его. По мере взаимодействия с живыми людьми, он должен был стать гораздо умнее.

Вместо этог, TAY очень быстро стал злобным, обожающим Гитлера, отрицающим Холокост, поощряющим инцест, вопящим «Буш стоит за 9/11» болтуном. Как же так вышло? Произошло это потому, что алгоритм обучения TAY устроен почти как бумажное полотенце.

Программа развивалась и оттачивала навыки коммуникации зачастую основываясь на тех отвратительных сообщениях, которые ей присылались, впитывая всю грязь без разбора. В итоге Компания Микрософт извинилась.

И это состояние ИИ на сегодня. После всех этих разговоров об угрозе сверхинтеллектуальных машин, настало время включить свет, перестать беспокоиться о научно-фантастических сценариях и начать фокусироваться на реальных проблемах, чтобы избежать болезненных и дорогостоящих ошибок при разработке.

Совет

Давайте будем более конкретными. Философия не слишком хороша в нюансах. Она склонна к созданию точных моделей с остро отточенными различиями, но ее истинная любовь – это противопоставления и дихотомии.

Интернализм или экстернализм, фундаментализм или когерентизм, тележка влево или тележка вправо, зомби или не зомби, в зависимости от наблюдателя или независимо от него, возможные или невозможные миры, обоснованное или безосновательное …

Философия может превозносить vel (и девочки и мальчики могут играть), но слишком часто позволяет себе aut aut (либо вам это нравится, либо нет).

В настоящее время разговоры об ИИ являются показательным примером такого положения вещей. Основные противоречия возникают между теми, кто верит в настоящий ИИ и теми, кто не верит.

Да, в реальную вещь, а не Siri в вашем iPhone, Roomba в вашей гостиной, или Nest на вашей кухне (я счастливый обладатель всех трех).

Подумайте лучше о ложной Марии в Метрополисе (1927); Hal 9000 в 2001: Космическая Одиссея (1968) (при создании которого Гуд был одним из консультантов); C3PO в Звездных Войнах (1977); Рэйчел в Бегущем по лезвию (1982); Дэйта в Звёздный путь: Следующее поколение (1987); Агенте Смите в Матрице (1999) или бесплотной Саманте в Она (2013). Ну вы поняли. Верующие в истинный ИИ и в Гудовский «интеллектуальный взрыв» принадлежат к «Церкви Сингулярианцев». За отсутствием лучшего термина, я буду обращаться к неверующим как к членам «Церкви ИИтеистов».

Читайте также:  Американские ученые предложили альтернативу тесту тьюринга

Давайте рассмотрим обе принципиальные позиции и увидим, что обе они ошибочны. Важно помнить: хорошая философия почти всегда кроется в скучной середине.

Сингулярианцы верят в три «догмата» (постулата). Во-первых, создание искусственного сверхинтеллекта в той или иной форме, скорее всего случится в обозримом будущем.

Обратите внимание

Этот поворотный момент известен как технологическая сингулярность, отсюда и название «церкви».

Природа такого сверхинтеллекта, и сроки его «пришествия» остаются неопределенными, хотя Сингулярианцы, как правило, предпочитают называть будущее «достаточно-близкое-для-беспокойства, но достаточно-далекое-чтобы-доказать-его-невозможность».

Во-вторых, человечество может оказаться порабощенным таким интеллектом.

В-третьих, основной обязанностью нынешнего поколения является предотвращение Сингулярности, либо же, если она все же случится, преобразование ее в нечто благоприятное и приносящее пользу человечеству.

Все это элементы манихейства: Робин (читать Джон Ирвирнг) Гуд сражающийся со Злом, апокалиптические обертоны, необходимость «делать что-либо сейчас, иначе будет слишком поздно», эсхатологическая перспектива спасения человечества, и обращение к страху и невежеству.

 Поместим все это в контекст, в котором люди «справедливо» обеспокоены воздействием «отупляющих» цифровых технологий на их жизнь, особенно на рынок труда, а средства массовой информации ежедневно сообщают о новых прибамбасах и беспрецедентных бедствиях, случившихся по вине компьютеров, и вы получите рецепт для массового одурманивания: эдакий цифровой опиум для народа.

Как и все религии, основанные на вере, Сингулярианизм неопровержим, потому что, в конце концов, ему не нужны причино следственные связи. Он невозможен еще и потому, что нет никаких оснований полагать, что нечто похожее на интеллектуальную (не говоря уже об сверхинтеллектуальной) машину получится при текущем уровне понимания информатики и цифровых технологий.

Позвольте мне объяснить. Иногда Сингулярианство весьма последовательно.

Это умно, потому что тогда действительно следует из если, а не только из ложного – что угодно ex falso quodlibet: если какой-то сверхинтеллект должен был появиться, тогда у нас были бы серьезные проблемы (а не просто «может», как было сказано выше Хокингом).Что ж очень даже логично. Но это также справедливо и для следующего утверждения: если Четыре Всадника Апокалипсиса должны были появиться, тогда у нас были бы еще большие проблемы.

В других случаях, Сингулярианство полагается на маловероятные вещи: какая-то форма искусственного сверхинтеллекта ведь может развиться, не так ли? Да, это может случиться.

Важно

Но это «может» просто логическая возможность, а насколько нам известно, нет ничего обязательного, в возможности.

Тем не менее, этот прием, размывает границу между «я могу быть болен завтра, когда я уже чувствую себя плохо» и «я мог бы быть бабочкой, которой сниться, что она человек».

Как какой-то суперумный ИИ когда-либо начнет автономно эволюционировать из вычислительных навыков, необходимых для парковки в узком месте, остается неясным

Нет никакого противоречия в предположении, что умерший родственник, о котором вы никогда не слышали оставил вам $10 миллионов. Это может случиться.

Ну и что? Такая констелляция, как «счастливо женатые холостяки» не может быть основанием для истинной пропозиции, а такая констелляция, как инопланетные агенты, живущие среди нас, так хорошо спрятавшиеся, что мы никогда не обнаружим их, может быть отклонена как совершенно сумасшедшая.

Другими словами, утверждение «может» не является утверждением «может случиться» как в случае с землетрясением, но является утверждением «это не правда, что это не может случиться». Как в случае с раздумьями о том, что вы первый бессмертный человек, конечно это вероятно, но не повод, действовать так, будто вы будете жить вечно.

Пока не найдется кто-то, кто свидетельствует об обратном, и показывает, что есть что-то в нашем текущем и в обозримом будущем понимания информатики, что должно привести нас к подозрению, что появление искусственного сверхинтеллекта действительно вероятно.

И тут Сингулярианцы смешивают веру и факты, часто движимые, искренним чувством скорого апокалипсиса.

Совет

Они начинают говорить о потере рабочих мест, о цифровых системах, подверженных риску, о беспилотных самолетах, пошедших наперекосяк и других реальных и тревожных вопросах о вычислительных технологиях, которые приходят, чтобы господствовать в человеческой жизни, от образования до работы, от развлечений до конфликтов.

После, они переключаются, на серьезную обеспокоенность в том, что будут неспособны контролировать свою следующую Honda Civic, потому что она будет иметь свой собственный разум. Как вообще супер умный ИИ может получиться из машины с вычислительными навыками, которых едва хватает для парковки в узком месте, остается неясным.

Правда состоит в том, что восхождение на вершину дерева не маленький шаг в сторону Луны; это конец пути. То, что мы увидим – все более и более умные машины способные выполнять больше задач, которые мы в настоящее время выполняем сами.

Если все остальные аргументы терпят неудачу, Сингулярианцы любят подключать математику. Закон Мура их излюбленная отсылка.

Это статистический закон, в соответствии с которым, в разработке цифровых вычислительных машин, количество транзисторов на интегральных схемах удваивается примерно каждые два года. Результатом являются большие вычислительной мощности за меньшие деньги.

Но все течет, все меняется. Технические трудности в области нанотехнологий представляют серьезные проблемы для производства. Существует, в конце концов, предел тому, насколько можно уменьшить что-либо, прежде чем оно просто исчезнет.

Закон Мура уже не имеет смысла, если нечто растет в геометрической прогрессии в течение некоторого времени, не означает, что оно будет продолжать делать это вечно, как и утверждил журнал The Economist в 2014 году:

На протяжении всей истории человечества, люди правили безраздельно, как доминирующий вид. Может ли это в ближайшее время измениться? Индюки, до этого безобидные существа, разнеслись в размерах, раздувшись от среднего веса в 13.2lb (6кг) в 1929 году до более чем 30lb (13кг) сегодня.

Обратите внимание

На твердом как скала научном предположении, что нынешние тенденции сохранятся, The Economist подсчитали, что индюки будут размером с людей всего за 150 лет. В течение 6000 лет, индюки займут всю планету.

Ученые утверждают, что быстрый рост индеек является результатом инноваций в птицеводстве, таких как селекционное разведения и искусственное оплодотворение. Искусственный характер их роста, а также тот факт, что большинство из них потеряли способность летать, позволяют предположить, что не все потеряно.

Тем не менее, с почти 250 миллионами индеек только в Америке, есть повод для беспокойства. В этот День благодарения, есть только один благоразумный курс действий: съесть их, прежде чем они съедят тебя.

От Индюкозавра к ИИзилле, один шаг, если бы не тот факт, что кривая роста легко может быть сигмовидной, с начальной стадией роста, которая практически экспоненциальна, последующей сатурацией, более медленным ростом, зрелостью и, наконец, отсутствием дальнейшего роста. Но я подозреваю, что представление о сигмовидных кривых может оказаться для Сингулярианцев богохульством.

Сингулярианство сбивает с толку. Это болезнь богатого мира, чаще всего беспокоящая людей в праздных обществах, которые, кажется, забывают о реальных бедствиях, угнетающих человечество и нашу планету. Достаточно будет одного примера: почти 700 миллионов человек не имеют доступа к безопасной питьевой воде. Это представляет собой серьезную угрозу для человечества.

Да, и на всякий случай, если вы думали, что прогнозы экспертов были надежным проводником, подумайте дважды. Есть много ошеломляюще неправильных технологических прогнозов, сделанных экспертами (см некоторые уморительно веселые от Дэвида Пога и на Cracked.com). В 2004 году Гейтс заявил: «Через два года, проблема спама будет решена».

А в 2011 году Хокинг заявил, что « философия мертва »(так что это вы тут читаете?).

Мое самое любимое предсказание сделано Робертом Меткалфом, соизобретателем Ethernet и основателем корпорации производителя цифровой электроники 3Com.

В 1995 году он обещал «подавиться собственными словами», если докажут обратное тому, что «Интернет скоро разгорится сверхновой и в 1996 году катастрофически взорвется».

Человек своего слова, в 1997 году он публично измельчил свою статью в комбайне и выпил ее. Остается только мечтать, чтобы Сингулярианцы были столь же смелыми и последовательными, как он.

Важно

ИИтеисты, глубоко раздраженные неисполнимыми пророчествами тех, кто поклоняется ложным цифровым богам – сделали своей миссией, доказать раз и навсегда, что любой вид веры в истинный ИИ совершенно неправилен.

ИИ только компьютеры, компьютеры просто машины Тьюринга, машины Тьюринга являются лишь синтаксическими двигателями, а синтаксические двигатели не могут думать, не могут знать, не могут быть сознательным.

Конец истории.

Источник: http://concepture.club/post/nauka/roboty

Стоит ли так бояться искусственного интеллекта?

За последний месяц-два мы обратились к теме искусственного интеллекта не раз и не два. Причиной этому, конечно, стало не только растущее любопытство, но и шумиха, поднятая Маском и Хокингом.

Читайте также:  Летательные аппараты - беспилотники смогут перемещаться не сталкиваясь друг с другом

Почему шумиха? Потому что пройдет еще очень много времени, когда искусственный интеллект выйдет за пределы семантического поля «больших массивов данных» и «облаков». Проблема в том, что люди преувеличивают возможности искусственного интеллекта на данный момент и продолжают дезинформировать общественность.

В общем и целом люди смотрят на искусственный интеллект как на мифического розового единорога от технологий: неуловимый, мощный, опасный, загадочный и вполне состоявшийся. И хотя в научном сообществе сейчас ведется много споров, давайте все же выясним, чем искусственный интеллект не является.

Прежде всего, не стоит бояться искусственного интеллекта. Это не живое существо, как SkyNet, и не злая красная лампочка, как HAL. По сути, ИИ — не больше чем компьютерная программа, достаточно умная, чтобы выполнять задачи, которые обычно требуют качественного анализа человеческим оператором. Это не вездесущая военная машина.

Во-вторых, ИИ — не живой. Хотя ИИ способен выполнять задачи людей, искусственный интеллект не является живым, как мы.

Он не способен к истинному творчеству, эмоциям, желаниям, помимо того, что мы запрограммируем, ну или что он изучит на основе окружающей среды.

В отличие от научной фантастики (преимущественно литературе), в реальности у ИИ нет никакого желания создавать семью, самокопироваться или любить.

Совет

В-третьих, ИИ в общем и целом не так уж и амбициозен. Действительно, в ограниченном контексте ИИ может думать так же, как мы, и ставить себе задачи. Но его общая цель и смысл существования определяется исключительно нами с самого первого слова.

Как и в случае с любой программой или технологией, мы определяем роль ИИ в нашем обществе. Будьте уверены, в планах создателей ИИ нет возможностей и намерения создать ИИ, который поработит человечество и будет управлять нами как некий бог из машины.

Кроме того, ИИ не представлен единым целым. Компьютерные программы, даже те, что работают на базе искусственного интеллекта, являются хорошими специалистами узкого, но не широкого профиля.

Вероятный сценарий достижения искусственного интеллекта в нашей жизни — через сеть подпрограмм, которые будут управлять компьютерным зрением, речью, адаптацией (машинное обучение), движением (роботы) и т. д.

ИИ — это не он или она, это «они».

Наконец, ИИ, как и все компьютерные программы, управляется людьми. Конечно, ИИ может быть спроектирован со злым умыслом и вооружен ядерным или биологическим оружием, но это не вина науки, а вина людей.

Хотя Элон Маск является своего рода героем для многих из нас, да и вообще гением нашего времени, его последние высказывания по поводу искусственного интеллекта не блещут дальновидностью. Он сказал, что ИИ «опаснее ядерного оружия» и что мы «пытаемся вызвать демонов искусственного интеллекта». Возможно, Маск уснул, пересматривая «Терминатора».

Источник: http://tainoe.info/stoit-li-tak-boyatsya-iskusstvennogo-intellekta.html

Когда человек станет не нужен. Популяризатор науки Сергей Марков об угрозах и этике искусственного интеллекта – Технологии Onliner

На фоне новостей о достижениях в разработке искусственного интеллекта все чаще возникает ощущение, что мы на пороге какого-то великого открытия. Кто-то грезит о роботе из «Двухсотлетнего человека» с Робином Уильямсом, кто-то пугает нас Скайнетом из «Терминатора». Onliner.by пообщался с популяризатором науки Сергеем Марковым, который как никто другой разбирается в вопросах ИИ.

Сергей больше практик с объемной базой знаний по машинному обучению и искусственному интеллекту.

Он разрабатывает системы, которые решают задачи, связанные с интеллектуальной обработкой данных, занимается шахматным программированием, создал программу SmarThink, которая становилась чемпионом России и СНГ среди шахматных программ, основал научно-популярный сайт «22 век» и часто становится экспертом в вопросах машинного обучения и ИИ.

— Создается впечатление, что человечество приближается к очередному слому эпох (если сейчас в нем не находится), когда старое активно заменяется новым и отмирает. И процесс этот проходит намного быстрее индустриальной революции. Какие последствия это несет для человечества и по каким направлениям стоит ожидать наиболее болезненных перемен?

— В 1997 году в своей книге «Дилемма инноватора» профессор Клейтон Кристенсен (Clayton Christensen) впервые ввел в научный оборот понятие «подрывной инновации» (disruptive innovation).

Обратите внимание

Подрывные инновации — это новшества (обычно технологические), способные радикальным образом изменить существующее положение дел на рынке.

Сейчас на эту роль претендуют в первую очередь современные технологии искусственного интеллекта и машинного обучения.

Подрастающая замена человеку

— Суть подрывного эффекта таких технологий двоякая. С одной стороны, мы наконец-то смогли решить ряд задач, долгое время остававшихся нерешенными, — машины научились распознавать изображения не хуже, а в некоторых экспериментах даже лучше человека.

Большой прогресс был достигнут также в области распознавания речи, где в некоторых случаях машины также справляются с задачей распознавания лучше людей.

При помощи рекуррентных нейронных сетей удалось создать системы, способные в определенных пределах понимать смысл сказанных слов, синтезировать почти не отличающуюся от настоящей устную речь.

 Развитие генеративных моделей позволило сделать большой шаг вперед в деле музыкальной композиции, обработки и даже генерации новых изображений. Словом, был достигнут прогресс в целом ряде важных когнитивных и даже творческих задач, что открыло двери для автоматизации многих видов труда.

Источник: https://tech.onliner.by/2017/10/13/iskusstvennyj-intellekt-2

Что мы будем делать с искусственным интеллектом, у которого есть свои планы

Как технологии влияют на мозг и образование, чему учить современных школьников и на что стоит ориентироваться сегодня, чтобы остаться человеком. Выступление Татьяны Черниговской на VI Санкт-Петербургском международном культурном форуме.

Если бы мы знали, как функционирует мозг, то получили бы информацию о том, как функционируют сложные системы, включая социальные. Социум – сложная система, которая подчиняется определенным законам. А мозг – сложнейшая из систем, это такая модель, в том числе социума.

Так, существуют когнитивные алгоритмы принятия решений. Для тех, кто об этом никогда не размышлял, хочу разочаровывающе сказать: не думайте, что мы принимаем решения, вспоминая Аристотеля или Декарта.

Ничего подобного. Большинство решений – истерические, они совершенно неадекватны и опасны. Взял и сделал так, совершенно не размышляя. Стоит это иметь в виду, это не шутки.

Мозг учится всегда и везде

Организация профессионального общего и высшего образования – это то, где нам умения мозга могут быть полезны.

Если и есть что-нибудь, чего мозг не умеет делать- это то, что он не умеет не учиться. Он учится каждую секунду, всегда, везде. Это происходит не только в классе или в студии какой-то. Вот сейчас, во время дискуссии, происходит очень мощное воздействие на наш мозг.

Средства коммуникации изменятся, если мы будем знать, как эта коммуникация происходит в мозгу.

Важно

Подготовка интеллектуальных и социальных элит, которые соответствуют уровню и типу развития цивилизации в данный момент, – это очень важный пункт. Это то, что в мире не разработано почти никак.

Мы знаем, что есть элитарные школы, кстати, с очень жесткой дисциплиной, готовящие детей, которые будут управлять миром. Они подготовлены очень серьезно с детства. Дальше они идут в Гарвард. Но как их готовить?

Нужно учить школьников правильно работать с информацией

Образование должно быть построено по другому принципу. Возможно, нам надо учить школьников совершенно другим вещам. Учить извлекать информацию из внешнего мира, говорить, какую и где. Мы все понимаем, что такое интернет и сколько там непроверенной информации, я уже не говорю об опасной. Значит, детям нужно рассказывать, где искать и чему верить.

Как научить их учиться? Как научить контролировать внимание и память? Как научить правильно классифицировать информацию, куда ее девать?

Мозг – это сложнейшая нейронная сеть. Если все нейроны вытянуть в одну линию, то получится страшная величина – 68 раз можно облететь Землю или семь раз слетать на Луну. И это есть в голове каждого из нас. Более того – эта сеть все время меняется. За то время, что мы разговариваем, она у каждого изменилась. И для обеспечения всего этого требуется огромные вычислительные мощности.

Обучение меняет наш мозг физически

Я всегда говорю студентам: учиться надо не потому, что лучше быть умным, а не дураком – это нам всем известно, а потому что обучение физически меняет нашу нейронную сеть. И это не метафора, есть научные исследования, которые доказывают, что плотность и качество нейронной сети и окружающей ее среды меняются.

Обучение приводит к росту дендритов и аксонов, даже к увеличению числа нервных волокон. То есть это физические изменения в лучшую сторону.

Источник: https://www.pravmir.ru/chto-myi-budem-delat-s-iskusstvennyim-intellektom-u-kotorogo-est-svoi-planyi/

Ссылка на основную публикацию
Adblock
detector