Какую опасность для человечества может представлять искусственный интеллект

Чем опасен искусственный интеллект

Не так давно американский предприниматель Илон Маск и физик Стивен Хокинг в открытом письме призвали разработчиков искусственного интеллекта (AI) не создавать то, что нельзя контролировать. Они считают, что угроза, исходящая от AI может быть намного опаснее ядерного оружия.

В марте 2016 года Компьютер AlphaGo, разработанный компанией DeepMind, в пяти партиях древнекитайской настольной игры го взял верх над корейцем Ли Седолем – одним из сильнейших в этой дисциплине. Это серьезный шаг вперед по сравнению с победой компьютера Deep Blue над Гарри Каспаровым в 1997 году, ведь если шахматы имеют 35 вариантов ходов, то в го их около 250.

Компьютер проиграл лишь в 4-й партии, когда Седоль совершил нестандартный ход, вероятность которого AlphaGo оценивал как 1 к 10 000, однако в 5-й партии эта ошибка была учтена. Президент Американской ассоциации го Эндрю Окан был немного раздосадован, так как считал, что в этой игре преимущества над человеком машина достигнет не ранее чем через несколько десятилетий.

Обратите внимание

Ученые уже сегодня поставлены перед фактом: AI способен к самообучению почти в той же степени, что и человек.

Работа искусственного мозга, как и человеческого, основывается на множестве нейронных связей, которые нарабатываются в результате накопленного машиной опыта.

Учитывая, что производительность AI намного выше, чем у человеческого мозга, процесс обучения робота будет идти гораздо быстрее.

Так, в 2014 году суперкомпьютер смог решить одну из математических задач Эрдёша, решение которой настолько сложное, что человек не в состоянии его проверить – один файл с уравнением занимает 13 гигабайт. Очевидно, что в плане интеллектуальной работы AI уже опередил человека, а после 2030 года, по мнению специалистов, искусственный разум будет превосходить нас по общему уровню сознания.

Американский блогер Тим Урбан, занимающийся проблемой искусственного интеллекта, заметил, что по мере того, как AI будет становиться умнее человека, у нас будет все меньше шансов его понять. Объясняя сказанное, он приводит пример. Шимпанзе может осмыслить, что такое человек и что такое небоскреб, но примат никогда не сможет понять, что небоскреб был построен людьми.

Точно также мы никогда не сможем понять возможности AI, даже если машина попытается объяснить нам это – не говоря уже о том, чтобы попробовать сделать это самим. Компьютер мог бы годами пытаться научить нас простейшим представлениям о том, что он знает, и это было бы безнадежно, – резюмирует Урбан.

В обозримом будущем нас ждет массовая безработица, уверены футурологи. Причем даже тех, кто считает себя незаменимым. Это касается не только физической или интеллектуальной работы, но и творческой деятельности. Машины уже создают музыку и пишут статьи. Профессор Моше Варди из американского Университета Райса считает, что большинство рабочих мест будет занято роботами в течение 30 лет.

Часть ученых полагает, что в этом нет ничего плохого, так как технологическая безработица откроет дверь в будущее, где люди будут трудиться не по необходимости, а для удовольствия. Собственно правительствами некоторых стран Запада уже сегодня предпринимаются шаги в этом направлении, в частности, проводятся эксперименты по введению всеобщего базового дохода.

Важно

Учитывая скорость развития AI в скором времени умные машины смогут вообще обходиться без человека.

К примеру, команда робототехников из французского университета Пьера и Марии Кюри создала высокотехнологичную машину-паука, которая может самостоятельно менять способ передвижения в случае поломки или утраты одной из конечностей. На осознание поломки и тестирование новых способов движения уходит примерно 20 минут.

Уже в самое ближайшее время роботы научатся самостоятельно производить замену сломанных или изношенных деталей. Перспективы таких машин, по мнению ученых, поистине безграничны. Они могут быть использованы в местах природных или техногенных катастроф, а также для исследования океанских глубин и отдаленного космоса.

В начале 2017 года компания Boston Dynamics продемонстрировала нового человекоподобного робота PETMAN, на котором проводят испытания армейской спецодежды. PETMAN имитирует человеческую физиологию, двигаясь и сохраняя равновесие так же, как бы это делал человек. Более того, машина умеет регулировать температуру и влажность «тела», приближая условия испытания к естественным.

Робот Atlas – еще одна разработка Boston Dynamics – способен решать более сложные задачи: открывать двери, перемещаться по сложно пересеченной местности и даже преодолевать вертикальные препятствия. Машина намного сильнее человека и может переносить грузы свыше 100 килограмм. Недаром разработчики говорят, что новые роботы вселяют в них ужас.

По мнению ученых, при интенсивном развитии AI у человечества есть два варианта будущего: к концу XXIвека мы можем, или исчезнуть с лица земли, или стать бессмертными.

Пессимисты обеспокоены тем, что малейшая ошибка на этом пути приведет к быстрому концу человеческой расы.

К примеру, AI, запрограммированный на решение проблем, связанных с изменениями климата, определит, что главным препятствием в его работе являются люди и задействует весь арсенал роботизированных средств, чтобы устранить эту угрозу.

Защититься или спрятаться от AI будет фактически невозможно. Так, один из мощнейших на данный момент суперкомпьютеров Наутилус смог предвидеть, где будет скрываться Бен Ладен, а также предугадать начало «арабской весны».

Оптимисты уверены, что сверхинтеллект сможет решить все наши насущные бытовые проблемы. AIобеспечит не только комфорт и безопасность нашей жизни, но и будет гораздо интенсивнее, чем человек развивать области фундаментальной и прикладной науки. И первое, чего от него ждут – разработку препаратов, позволяющих сделать человеческий организм бессмертным.

Источник: https://russian7.ru/post/chem-opasen-iskusstvennyy-razum/

Опасности искусственного интеллекта

Искусственный интеллект — это любое аппаратное или программное обеспечение, работающие вместе, которые имитируют действие органического (человеческого) интеллекта. Решая поставленные перед ним задачи, ИИ может принимать множество решений, и некоторые из них могут нести в себе реальную угрозу для нас.

Примером может послужить самоуправляемый автомобиль с не доведенными до совершенства алгоритмами или военный беспилотник, изначально созданный для поражения вражеских целей.

Существует 4 варианта, при которых искусственный интеллект может представлять опасность:

Вариант 1: ИИ создан для уничтожения

Такая машина включает в себя оружие с элементами ИИ и работает без участия человека-оператора. Беспилотные летательные аппараты, использующие когнитивные системы для поиска, идентификации и ликвидации людей, которые попадают под определенные признаки, заданные изначально. Таким признаком может стать военная форма, или определенная расцветка техники.

Такие интеллектуальные системы беспощадны, ей будет безразлично, является ли целью ребенок или гражданский объект — она хладнокровно выполнит свою задачу.

А теперь представьте ситуацию, когда любой человек может купить в магазине беспилотник, прикрепить к нему оружие, дать ему любую задачу, и отпустить на волю?

Вариант 2: Дружелюбный ИИ, который используют злоумышленники

Сегодня искусственный интеллект глубоко входит во многие сферы жизни. Например, недавно появились системы имитации голоса, которые способны оцифровать тембр голоса человека, характерные черты произношения, и после этого с успехом имитировать его.

Такая технология может быть использована злоумышленниками, они смогут подделать голос любого человека по образцу, после чего обмануть его близких, друзей или коллег с целью наживы.

Со временем появится множество других примеров нелицеприятного использования искусственного интеллекта, и нам действительно стоит опасаться этого.

Вариант 3: ИИ, который неправильно поймет нас

И такое тоже возможно. Предположим, искусственный интеллект, созданный учеными ради обеспечения общественной безопасности, начнет обучаться по выпускам новостей, видеороликам с YouTube и по комментариям твиттера.

После того, как он «проглотит» терабайты данных, описывающих ограбления, убийства и военные конфликты, он может решить, что именно люди представляют наибольшую опасность и попытается остановить все вышеописанное для нашей же безопасности. Уверяем, вам может не понравится такая забота.

Вариант 4: ИИ, которого не поймем мы

А что если разработки в области умных машин зайдут настолько далеко, что появится искусственный интеллект, который опередит людей так сильно, что мы не сможем его понять? Если ИИ станет умнее человека настолько же, насколько человек умнее муравья? Если мы никоим образом не сможем повлиять на его дальнейшие действия? Последствия представить трудно.

(Пока оценок нет)

Загрузка…

Источник: https://autonomus.ru/opasnosti-iskusstvennogo-intellekta/

Какую опасность для человечества может представлять искусственный интеллект

Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека.

Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ, взяв за основу для сравнения естественный интеллект.

Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?

Совет

Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности.

В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ.

На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:

  • ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
  • самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.

Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.

Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен.

Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено.

Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.

Источник: https://neuronus.com/news-tech/1033-kakuyu-opasnost-dlya-chelovechestva-mozhet-predstavlyat-iskusstvennyj-intellekt.html

Какую угрозу для человечества представляет искусственный интеллект — МНЕНИЕ ЭКСПЕРТОВ

Универсальный искусственный интеллект сможет сделать современный мир более привлекательным местом для жизни, заявляют исследователи.

Он сможет лечить нас от рака, в целом улучшит здравоохранение по всему миру и освободит нас от ежедневных рутинных задач, на которые мы тратим большую частью своей жизни.

Читайте также:  Искусственный интеллект в бизнесе

Именно эти аспекты были главной темой для разговора среди инженеров, инвесторов, исследователей и политиков, собравшихся на недавней совместной мультиконференции по вопросам разработки искусственного интеллекта человеческого уровня.

Но были на этом мероприятии и те, кто видит в искусственном интеллекте не только пользу, но и потенциальную угрозу.

Одни выражали свои опасения по поводу повышения безработицы, поскольку с приходом полноценного ИИ люди начнут терять свои рабочие места, освободив их для более гибких, не подверженных усталости роботов, наделенных сверхразумом; другие намекали о возможность восстания машин, если мы все пустим на самотек. Но где именно нам следует провести черту между беспочвенным паникерством и реальной заботой о нашем будущем?

Как передает Day.Az со ссылкой на  Hi-Tech News, портал Futurism обратился с таким вопросом к пяти экспертам в области разработок искусственного интеллекта, и попытался выяснить, что именно в ИИ больше всего пугает его же создателей.

Кеннет Стенли, профессор Университета Центральной Флориды, старший технический директор и научный сотрудник лаборатории искусственного интеллекта компании Uber:

«Я думаю, что наиболее очевидные опасения связаны с тем, что ИИ будет использован во вред человеку. И на самом деле есть множество сфер, где такое может произойти. Мы должны приложить все усилия для того, чтобы эта плохая сторона в итоге не вышла наружу.

Весьма сложно найти правильное решение в вопросе о том, как сохранить ответственность принятых действий за ИИ. Этот вопрос многогранен и требует рассмотрения не только с научной позиции.

Обратите внимание

Другими словами, в поиске его решения потребуется участие всего общества, а не только научной среды».

О том, как разработать безопасный ИИ:

«Любая технология может быть использована как во благо, так и во вред. Искусственный интеллект в этом отношении является очередным примером. Люди всегда боролись с тем, чтобы новые технологии не попали в плохие руки и не использовались в гнусных целях. Я считаю, что и в вопросе ИИ мы сможем справится с этой задачей.

Необходима правильная расстановка акцентов и поиск баланса в использовании этой технологии. Это сможет предостеречь нас от очень многих потенциальных проблем. Более конкретные решения, я, наверно, предложить не смогу.

Единственное, что хотелось бы сказать: мы должны понять и принять ответственность за то воздействие, которое ИИ может оказать на все общество».

Ираклий Беридзе, глава Центра искусственного интеллекта и робототехники при Межрегиональном научно-исследовательском институте ООН по вопросам преступности и правосудия (ЮНИКРИ):

«Я думаю, что самая опасная вещь вокруг ИИ связана с темпами разработки — с тем, как быстро он будет создан и как быстро мы сможем к нему адаптироваться. Если этот баланс будет нарушен, мы можем столкнуться с проблемами».

О терроризме, преступности и других источниках риска:

«С моей точки зрения, основная опасность может заключаться в том, что ИИ смогут воспользоваться криминальные структуры и большие террористические организации, направленные на дестабилизацию мирового порядка. Кибертерроризм и дроны, оснащенные ракетами и бомбами — это уже реальность. В будущем сюда могут добавиться роботы, оснащенные системами ИИ. Это может стать серьезной проблемой.

Другой большой риск массового внедрения ИИ может быть связан с вероятной потерей рабочих мест людьми. Если эти потери будут массовыми, а подходящего решения у нас не будет, то это станет очень опасной проблемой».

«Но это лишь негативная сторона медали данной технологии. Я убежден в том, что в своей основе ИИ не является оружием. Это, скорее, инструмент. Очень мощный инструмент. И этот мощный инструмент может быть использован как в хороших, так и плохих целях.

Наша задача заключается в том, чтобы понять и минимизировать риски, связанные с его использованием, а также в том, чтобы он использовался только в хороших целях.

Мы должны сосредоточится на том, чтобы извлечь максимум положительной выгоды от использования данной технологии».

Джон Лэнгфорд, главный научный сотрудник корпорации Microsoft:

«Я думаю, что основную опасность будут представлять дроны. Автоматизированные дроны могут стать настоящей проблемой. Текущий уровень вычислительной мощности автономного вооружения недостаточно высок для выполнения каких-то экстраординарных задач.

Однако я вполне могу себе представить, как через 5-10 лет на борту автономного вооружения будут проводиться расчеты на уровне суперкомпьютеров. Дроны используются при боевых действиях уже сегодня, но они по-прежнему управляются человеком. Через некоторое время оператор-человек уже не понадобиться.

Машины станут достаточно эффективны для самостоятельного выполнения поставленных задач. Именно это меня беспокоит».

Хава Зигельман, программный менеджер микросистемых технологий DARPA:

«Любая технология может быть использована во вред. Я думаю, что все зависит о того, в чьи руки эта технология попадет. Я не думаю, что существуют плохие технологии, я думаю, что существуют плохие люди. Все сводится к тому, кто имеет доступ к этим технологиям и как именно он их использует».

Источник: https://news.day.az/unusual/1040075.html

Илон Маск: Искусственный интеллект представляет собой угрозу для человечества

Илон Маск высказал свое мнение о том, что человечество слишком гонится за передовыми технологиями. В этой погоне люди могут забыть про те опасности, которые несет искусственный интеллект.

Во время выступления перед членами Национальной ассоциации губернаторов США глава компаний Tesla и SpaceX Илон Маск заявил, что человечеству необходимо более тщательно следить за развитием искусственного интеллекта (ИИ). По мнению Маска, именно ИИ представляет наибольшую угрозу для нашей цивилизации. 

«У меня есть доступ к самым передовым наработкам в сфере ИИ, и я думаю, что люди должны быть обеспокоены скоростью развития этой технологии… Нам нужно действовать на упреждение.

Думаю, если мы будем устранять только последствия от действий ИИ, будет слишком поздно. ИИ – фундаментальная угроза всей человеческой цивилизации.

Ни ДТП, ни падения самолетов, ни наркотики не представляли для нас такой опасности, которую сейчас представляет ИИ», – сказал Маск.

https://www.youtube.com/watch?v=iyAMMzUaw4k

Также глава Tesla отметил, что вскоре роботы смогут делать все гораздо лучше, чем человек. По его словам, в качестве оружия ИИ будет использовать информацию (фейковые новости, сообщения и пресс-релизы).

Также ИИ сможет подделывать учетные записи электронной почты и манипулировать глобальной информацией. «Перо сильнее меча», — резюмирует Илон Маск. Подобным образом ИИ будет провоцировать войны и конфликты.

В своём выступлении он подчеркнул, что остальные риски не являются настолько серьёзными, как упомянутая угроза.

Важно

По мнению Маска, правительству США стоит разработать инструменты регулирования, которые позволят приостанавливать процесс разработки определенных типов ИИ. Только так правительственные органы смогут проверить эти проекты и определить их потенциальную опасность для человечества.

Также он добавил, что компании сейчас думают лишь о том, чтобы вырваться вперед в невидимой гонке технологий, но не берут в расчет возможный риск от столь стремительного развития ИИ, а отсутствие контроля в данной сфере поставит под угрозу существование человеческой цивилизации.

Он отметил: «Пока люди не увидят, как роботы на улице убивают людей, они не знают как реагировать, потому что это кажется нереальным». По его мнению, ИИ представляет собой редкий случай, где требуется проактивное регулирование, вместо реактивного, поскольку может оказаться слишком поздно.

Источник

Социальные кнопки для Joomla

У вас недостаточно прав для комментирования

Источник: https://pvorb.ru/19-stati/577-ilon-mask-iskusstvennyj-intellekt-predstavlyaet-soboj-ugrozu-dlya-chelovechestva

Опасности искусственного интеллекта

В последние годы мы видим взрывообразное развитие исследований и разработок в области искусственного интеллекта (ИИ) – и всё чаще слышим опасения о том, что их про­должение може представлять угрозу для самого существования человека.

Такие опасения выска­зывают философы, футуро­логи, журналисты — в общем, все, кому не лень. Примерно эти же люди ещё недавно с уверен­ностью заявляли, что ИИ принци­пиально невозможен, про­являя примерно ту же степень по­нимания проблемы.

Сейчас, когда искусственные интелекты ищут для нас информацию в Интернете, подбирают билеты на авиарейсы, ставят медицинские диагнозы лучше врачей и играют против нас в компьютерных играх — в общем, постепенно начинают окружать нас со всех сторон — отрицать возможность их существования уже как-то неловко. А вот проблема их безопасности далеко не так проста.

Наиболее часто приходится слышать опасение что, достигнув некоторого уровня, ИИ «осознает самого себя» и решит, что люди ему не нужны и даже мешают. Классическим примером подобного представления является Скайнет в серии фильмов о Терминаторе. Что такое «осознание самого себя» кажется интуитивно ясным, но внятной формулировки мне пока не попадалось.

Очевидно, что так говорящие попадают в ловушку антропоморфизма — приписывания ИИ свойств, типичных для человека.Такие наши черты, как стремление к власти (т. е., к лидерству в сообществе), к неоправданному накоплению ресурсов, к самосохранению и т. д.

вовсе не являются очевидными и обязательными для любого интеллекта, естественного или искусственного.

В случае Homo sapiens эти черты сложились в ходе естественного отбора — индивидуумы, не имевшие инстинкта самосохранения отсеивались, не имевшие стремления к доминированию в стае оставляли меньше потомства.

Совет

Если мы будем создавать ИИ, моделируя дарвиновскую эволюцию, подобные свойства могут сформироваться и у него; также они могут быть преднамеренно заложены или возникнуть в результате ошибки при программировании или обучении ИИ, но не возникнуть самопроизвольно.

Тем не менее, использование ИИ, действительно, может нести реальную опасность. Вспомним, что любой ИИ это, всего лишь, программа или программно-аппаратный комплекс, который создаётся (и, возможно, обучается) людьми. А вот людям свойственно ошибаться.

Уже сегодня мы видим, что человеческая жизнь может быть доверена ИИ — примером может служить использование автономных транспортных средств. ИИ справляются с управлением автомобилем лучше водителя-человека, по крайней мере, среднего, процент ДТП у них заметно меньше.

В будущем ИИ будет доверено управление морскими судами, самолётами, атомными электростанциями, распределением нагрузки в глобальных транспортных, энергетических и информационных сетях, принятие макроэкономических и политических решений.

Ошибка при решении таких задач уже чревата катастрофическими последствиями.

Любой программист подтвердит, что создать мало-мальски сложную программную систему без ошибок невозможно. В процессе отладки часть ошибок можно исправить, но чем реже какая-то ошибка «выскакивает», тем труднее её обнаружить.

Это значит, что и при создании ИИ проявление ошибки — вопрос времени; рано или поздно, но ошибки будут происходить, в том числе, и при решении сверх­ответственных задач, вроде пере­численных выше.

Ситуация обостря­ется тем, что в случае использования ИСИ человеку может оказаться вообще непонятным выбор решения задачи, а то и сама суть проблемы. Исправить ошибочные действия ИСИ в этом случае окажется невозможно.

Читайте также:  Развитие дипломатических отношений доверят искусственному интеллекту

Значит ли это, что особо ответственные задачи доверять ИИ будет никогда нельзя? Нет, конечно. Ведь альтернативой является доверить эти задачи человеку, а мы знаем, что это не менее опасно. Увы, но пилот-человек может сойти с ума и направить самолёт в океан или в гору.

Авария на Чернобыльской АЭС подтверждает, что люди-операторы, даже работая в группе, способны загнать ядерный реактор в режим неконтролируемого разгона. Есть мрачная шутка: «Две вещи лучше не знать — из чего делается колбаса и как принимаются судьбоносные политические решения».

Примерами таких решений, приведших к тяжелейшим последствиям могут служить вмешательство Российской Империи в конфликт между Австрией и Сербией в 1914 г., ввод советских войск в Афганистан в 1979 г. и войск США в Ирак в 2003 г.

Обратите внимание

Собственно, вся история человечества до сих пор — это сплошноая череда экономических, политических и военных катастроф.

Да, ИИ может допустить ошибку, в том числе, ведущую к глобальной катастрофе. Но её может допустить и человек, а опыт самоуправляемых автомобилей показывает, что хорошо отлаженный ИИ может делать ошибок меньше, чем человек. Так, кому следует доверять больше?

Существует несколько подходов к тому, как сделать число ошибок ИИ минимальным. Часто в качестве решения проблемы предлагается использовать гибридные естественно-искусственные интеллектуальные системы — человеческий разум, на своём биологическом носителе или загруженный в компьютер*, усиленный компонентами ИСИ.

Предполагается, что человеческий компонент будет в состоянии контролировать искусственные. Однако, это имеет смысл только в том случае, если человеческий компонент будет делать ошибки реже, что неочевидно.

Вспомним, кроме того, что именно человек будет отягощён древними инстинктами вроде стремления к доминированию — а это, в комбинации с могуществом ИСИ просто опасно.

Есть, однако, и более перспективные подходы.

Например, можно поручить принятие важных решений нескольким (или многим) ИИ, имеющими разные конструкции и/или истории обучения, которые будут оценивать решения друг друга и искать в них ошибки.

Что-то подобное используем и мы при коллективном принятии решений, но у нас велико эволюционно заложенное стремление присоединиться к «лидеру стаи». Вероятность же того, что все ИИ сделают одну и ту же ошибку исчезающе мала.

Какова же будет роль человека в мире, управляемом ИИ? Она будет очень велика — мы будем создавать для ИИ цели и ценности. ИСИ не может сам решить, что хорошо, а что плохо — этому научить его должны будем мы.

Важно

Систему ценностей надо будет закладывать в процессе создания и обучения ИИ, подтверждать и уточнять в ходе дальнейшего самообучения на модельных ситуациях и реальной работы.

Это будет очень непростым делом — хотя бы потому, что мы и сами не в состоянии сформулировать полную и непротиворечивую систему ценностей. Но делать это кроме нас будет некому.

Полный список моих постов здесь: https://golos.io/@igor.artyuhov

искусственныйинтеллектбудущеефутурологиятрансгуманизм

Источник: https://golos.io/ru—iskusstvennyijintellekt/@igor.artyuhov/opasnosti-iskusstvennogo-intellekta

Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?

Искусственный интеллект хотя и не родился, но уже угрожает человеческой расе

Технология делает нашу жизнь проще и качественнее, помогая нашему виду эволюционировать и развиваться. За последние сотню лет технологические программы медицины увеличили продолжительность жизни более чем на 40 процентов. Современный смартфон в кармане стал в тысячу раз мощнее и в миллион раз дешевле, чем самый продвинутый компьютер из 70-тых годов.

Стремительное развитие технологий по суждениям исследователей предрекает нам ещё больший рост продолжительности жизни с помощью умных машин, — они будут опекать нашу жизнь и здоровье.

Возьмут в «свои руки» тяжелый и опасный труд, а управляя средствами повышенной опасности умные машины с искусственным интеллектом исключат проблему человеческого фактора.

А человек в это время, наконец-то займется творчеством и созиданием бытия в тени философских рассуждений.

Но не случиться ли однажды так, что мы дойдем до той точки, качество перерастет в количество — где технологии вместо увеличения продолжительности жизни, развернуться против нас самих, времени, когда машины взбунтуются?

Перспектива поглощения человечества разумными машинами (по сути это вид, наделенный разумом) — одна из тем при разговоре о потенциальном поглощении человечества искусственным интеллектом.

Катастрофическим результатом для нашего вида может быть создание суперкомпьютера с искусственным интеллектом вышедшем из под контроля, — рассуждают весьма серьёзные учёные.

Совет

Это гипотетическое событие часто упоминается в качестве технологической сингулярности, и это беспокоит учёных.

Взять к примеру машину с искусственным интеллектом, которому поставлена задача изготовления скрепок. Такая машина будет делать скрепки реализовывая самый эффективный способ использования ресурсов, в которых нуждаются люди. Просто они запрограммированы так, выполнять свою работу наиболее качественно — но это же еще и умная машина, понимающая свою важность и необходимость.

Но как отреагирует машина, когда её конечная цель — изготовление скрепок — потеряет необходимость? Перестроиться на новые цели? Или обижено воспримет человеческое желание ее выключить как угрозу своему существованию, и устремиться уничтожить угрозу ее выключения (считай убийства) в лице человеческих существ?

Очевидно, это преувеличенный сценарий возможных событий будущего, но это свидетельствует о необходимости значительной проницательности в том, как именно машины с искусственным интеллектом могут мыслить в будущем.

Ведь не секрет, что относительно примитивный машинный разум уже сейчас занимает весомую долю в управлении вооружением, и решает значительную часть вопросов нашей жизни.

А что может произойти, когда контроль над этим получит развитый интеллект?

Будут ли эти машины уметь разбираться в нюансах человеческих мыслей и желаний? И еще, разумные машины с иным мышлением а то и высшего порядка, могут быть не обременены человеческими эмоциями и прочими когнитивными процессами. Однако, часть того, что делает нас людьми — это наши любопытство и наша неспособность дать ответы на вопросы, которые мы имеем уже сейчас.

Кажется, определенные ограничения могут быть неотъемлемой частью того, что означает быть человеком, и как ученые подозревают, на пути самореализации машинный разум может посчитать себя высшим существом по отношению к человеку.

Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?

Разумеется, при нынешних технологиях угроза искусственного интеллекта выглядит гипотетической, но уже сейчас отношение учёных к созданию искусственного интеллекта негативное.

С недоверием относится к наступлению эры Искусственного Интеллекта и британский физик-теоретик Стивен Хокинг.

Обратите внимание

Ученый полагает, что появление полноценного ИИ в нашем мире может стать для человека разрушительным фактором – обернуться гибелью человеческой расы.

Согласно Хокингу, машинный разум перехватит у человека инициативу развития и будет самосовершенствоваться, и эволюционировать с невероятной скоростью. Тогда как возможности человека к развитию сдерживаются слишком медленной эволюцией. Нам нечего противопоставить машинам на этом пути, мы проиграем эту гонку, — высказывает учёный своё отношение к ИИ.

Учёный беспокоиться, что в будущем технологический прогресс приведет нас к появлению разумных машин, способных превзойти интеллект человека. Но вместе с тем, Стивен Хокинг соглашается, что существующие примитивные формы ИИ доказали свою пользу.

Надо заметить, что большинство учёных, прогрессивно и скорее даже революционно мыслящих в плане получения «дивидендов» от научно-технического развития, очень и очень настороженно относятся к вопросу создания искусственного интеллекта.

И вопрос даже не в том, что на каком-то этапе развития машинный интеллект сочтет своего создателя помехой или даже угрозой своего существования. Во что превратиться сам человек? — Вот беспокойство будит какой вопрос.

Не разжиреет ли и отупеет человечество под крылом опекунства разумных машин? А ведь это, не что иное, как вырождение вида!

В тоже время, как оппонируют другие учёные, проблема искусственного интеллекта чрезмерно надуманна.

В сущности, интеллект на электронной основе не сможет чувствовать и осязать, не сможет фантазировать — это возможности биологического мозга.

Важно

А без этих компонентов какой бы разумной машина не была, она остаётся машиной — супермощным, продвинутым, но все же калькулятором с прошитыми вариантами развития.

Источник: http://neveroytno.ru/iskusstvennyiy-intellekt-potentsialnaya-ugroza-vyizhivaniyu-chelovechestva-mozhet-li-ugrozhat-superkalkulyator/

Роботы могут представлять опасность для человечества | Українські Новини

Роботы будут собирать о нас информацию

Поисковые запросы в Сети могут многое о нас сказать. Что нас интересует, какие товары мы хотим купить. Информация о том, что мы ищем в Интернете, собирается и анализируется.

Потом наши интересы конвертируются в рекламу, которую мы видим на страницах интернет-сайтов. Это многомиллиардный бизнес. А теперь представьте, что рекламодателям удалось заглянуть в вашу личную жизнь, в ваш дом.

В будущем это возможно, ведь у роботов уже есть «глаза» и возможность передавать информацию.

Джосс Райт – ученый, которому не безразличен ответ на вопрос: можем ли мы доверять роботам, которые войдут в наши дома? Одна из главных опасностей, связанных с роботами, по его мнению, это угроза частной жизни. Если они распространятся повсеместно, то смогут следить за нами и сохранять полученную о нас информацию. Эти данные будут иметь большую ценность для рекламодателей.

Роботы, которым мы доверим убирать наши дома, охранять их, присматривать за детьми и питомцами, будут способны собирать информацию о наших жилищах, наших предпочтениях и увлечениях. Собранная о нас информация будет использована для адресной рекламы. Причем велика вероятность, что все это будет делаться легально.

Мы ведь уже свыклись с тем, что поисковые системы уже собирают информацию о нас.

В будущем вы не удивитесь тому, что в тот момент, когда у вас закончится банка растворимого кофе, вы тут же увидите рекламу бодрящего напитка.

Впрочем, следящие за нашей жизнью роботы могут быть и очень полезны. Например, робот-сиделка, ухаживающий за пожилым человеком, всегда сможет оказать первую помощь, пока вызванная им команда медиков будет добираться до больного. А собранная информация о здоровье подопечного поможет подобрать правильное лечение.

Роботы могут стать инструментом в руках злоумышленников

Команда исследователей из Университета Вашингтона решила проверить, какие угрозы для безопасности и частной жизни исходят от существующих сейчас домашних роботов и какие угрозы могут появиться, когда в наши дома войдут уже более совершенные роботы.

Совет

Ученые взяли для исследования несколько роботов, имеющихся на рынке: RoboSapienV2, Rovio, Erektor Spykee. К примеру, робот-шпион Erektor Spykee может перемещаться по дому, наблюдать за происходящим, слушать и разговаривать. Он оборудован микрофоном и видеокамерой.

Читайте также:  Несколько идей, которые изменят будущее

Другие обладают схожим потенциалом, но все они похожи тем, что могут снимать и записывать все, что происходит в домах их хозяев. Как удалось выяснить, высокотехнологические игрушки защищены ненамного лучше то и дело взламываемых сайтов.

Профессиональному хакеру не составит труда перехватить и распознать поток данных, идущих от робота и к нему.

Взломанный робот может стать игрушкой в руках злоумышленника. Сегодня такой робот станет чужими глазами и ушами в вашем доме. Он сможет подсказать своему «новому хозяину», когда вас нет дома, или, встав у вас за спиной, подсмотреть пароль, который вы набираете на клавиатуре. Но что будет завтра, когда функционал роботов возрастет?

Сейчас роботы в доме – это развлечение. Они оснащены камерами и микрофонами и максимум, на что способны, так это подглядеть за вами. Завтра они будут помогать в домашнем хозяйстве, например переносить тяжести.

Уже сейчас есть роботы, которые могут переносить предметы. Например, человекоподобный робот Atlas от Boston Dynamics. А это значит, что в будущем роботы станут сильнее.

Сможет ли человек справиться с таким роботом, если управление им захватит злоумышленник?

Дети, воспитанные роботами, будут мало приспособлены к жизни

В будущем будет оставаться все меньше дел, которых нельзя доверить роботам. Чисто технически они смогут делать все. Уже сейчас роботы способны развлекать детей в отсутствие пап и мам. Но прогресс не стоит на месте. Однажды мы поддадимся соблазну и доверим им воспитание наших детей.

Обратите внимание

Казалось бы, ну что в этом ужасного – робот и накормит, и спать уложит, и даже прочитает сказку. Расскажет, что делать можно, а чего делать нельзя. А еще оденет ребенка, погуляет с ним и проследит, чтобы он не спутался с плохой компанией и не залез, куда не следует. Сделает все, на что не нахватает времени у родителей. Даже подерется с обидчиком вашего чада.

Ваш ребенок будет сыт и одет. Но в будущем воспитание роботом чревато проблемой.

Британский эксперт по робототехнике, профессор Ноэль Шарки предостерегает нас о новой проблеме, связанной с роботами. Профессор считает, что пора задуматься о влиянии роботов на человеческие взаимоотношения.

Неконтролируемый рост числа роботов, по мнению Шарки, может привести к недостатку общения между людьми.

Причем это касается как социальных роботов, способных общаться с человеком – домашних помощников, воспитателей, медперсонал, – так и различных автоматов и систем, заменяющих людей, например беспилотных автомобилей. Но особенно негативно это отразится на детях.

Если дети будут общаться с роботами, а не с родителями или сверстниками, то неизвестно, как это скажется на их психике и самом важном процессе детства – социализации.

Мы рискуем получить новых маугли. Маугли каменных джунглей, воспитанных роботами, которые просто не найдут общего языка с другими людьми уже во взрослой жизни. Кроме того, по мнению Шарки, есть риск, что повзрослевшие дети, воспитанные роботами, просто забросят своих родителей.

Роботы могут вызывать эмоциональную привязанность

Это не единственная проблема, которую видит Ноэль Шарки в будущей роботизации. По словам профессора, исследования роботов, предназначенных для заботы о людях, показали, что между ребенком и роботом волей-неволей образуются тесные связи. Ведь с роботом у него связана масса переживаний. Первых переживаний детства.

Читая новости, нельзя не заметить, что роботы становятся все более «эмоциональными». Но эмоциональными условно. Они умело имитируют радость, грусть, удивление и другие эмоции, которые мы, люди, выражаем бессознательно.

Важно

Разработчики стараются сделать роботов все более похожими на людей, и это у них получается. Это большое достижение техники. Но мы так часто привязываемся к вещам неодушевленным и непохожим на людей. Что же будет, когда роботы перестанут отличаться от нас? Не заменят ли они нам нас же самих?

Например, тем же детям, которых воспитают роботы. Не найдя себя в мире людей, они вполне могут ограничиться общением с роботами. Например, с теми, с которыми прошло их детство. Ведь теоретически робота можно будет чинить бесконечно. Выросший ребенок вполне может остаться с роботом-воспитателем и во взрослой жизни. Как же все это скажется на нашем обществе?

Как только роботы станут достаточно умными, их способность симулировать и вызывать эмоции и чувства у людей станут залогом их превосходства над нами. В их руках будет инструмент управления людьми. Если наши эмоции не всегда подвластны нам, то для робота эмоции – это всего лишь часть заложенного в них интерфейса.

Роботы смогут нас обманывать

Ученые уже научили роботов обманывать. Подобный эксперимент провели исследователи из Технического института Джорджии. Заказчиком выступило Управление военно-морских исследований США. Речь пока идет о военных роботах и функциях, которые им понадобятся в будущем. Эксперимент удался.

И теперь ученые задаются вопросом: если робот может обманывать врага, не станет ли он вдруг использовать свои способности против тех, кто его создал? Учитывая, что разработчики роботов делают ставку на их самообучение, то в будущем научиться обманывать для достижения поставленных перед ними целей роботы смогут и сами.

Источник: https://ukranews.com/news/437776-roboty-mogut-predstavlyat-opasnost-dlya-chelovechestva

Искусственный интеллект несет угрозу человечеству

Главная » Статьи » Загадки цивилизаций

Искусственный интеллект несет угрозу человечеству

Робототехника – так называлась популярная в прошлом веке наука. Именно она олицетворяла ожидания поколений о грядущих временах.

Роботы должны были служить людям, подчиняться трем законам робототехники и выполнять даже самые незначительные поручения человека. Реальность оказалась более сурова. Мы не только недооценили темпы роста прогресса, но и не смогли представить все возможности, доступные настоящему рукотворному разуму.

Многим казалось, что уже в начале 21 века, каждый человек будет обладать минимум одним хозяйственным роботом. Такой необычныймеханизм должен был скромно выполнять только лишь работу по дому. Однако, оказалось, что мы развиваемся недостаточно быстро, а в таких механизмах нет особенной пользы.

Познавая компьютерные науки, мир постепенно наращивал вычислительные мощности. Когда то для запуска космического корабля требовалось устройство, которое с трудом помещалось в комнате. Сегодня же такой компьютер влезает в карман любого человека.

Современные микропроцессоры и платы стали мощнее им гораздо производительнее.

Совет

Вместе с этим человек стал приблизительно представлять себе настоящие возможности искусственного интеллекта. Оказалось, что роботам можно не только доверить работу дома, но и собственную жизнь. Миниатюрные механизмы могут существенно продлить жизнь любого человека, а суперкомпьютеры эффективно и рационально управлять всей планетой.

Иными словами – человечество вошло в начало эры робототехники. Великая эпоха только началась и именно нам выпала честь наблюдать за тем, какая участь ожидает неэффективное с точки зрения роботов человечество.

Илон Маск и Стивен Хоккинг, а также множество других ученых, предупреждают нас о том, что вскоре мир погубят роботы. Согласно существующим расчётам, над нашим миром уже нависла нешуточная угроза. Вычислительные мощности компьютеров растут невероятными темпами. Мы уже на пороге создания недорогих квантовых вычислительных машин, способных на сложнейшие вычисления.

Мир усиленно пытается создать искусственный интеллект наивно пологая, что роботов будет возможно ограничить законами робототехники или программами базовых моральных принципов. По словам Илона Маска мир делает большую ошибку. Слепая вера в возможность контроля чего-либо столь могущественного, делает нас уязвимыми.

Он же убеждает репортеров в том, что к созданию искусственного интеллекта нужно быть готовыми, а готовность заключается в том, что мы должны добровольно уступить место на планете нашему творению.

Действительно, многие моралисты и аналитики из различных разведывательных агентств, тайные мировые правительства, военные министерства – все они убеждены в том, что ИИ можно будет использовать так, как им нужно. В особенности такая необычная точка зрения присуща военным и тайным обществам.

Более того, уже долгие годы существует настоящий заговор по разработке кибернетических систем. Примечательно то, что все анонимные источники утверждают на широком применении биомеханических технологий. Таких, чтобы мировые элиты могли получить полный контроль над людьми.

Абсолютно все это – ошибка.

Компьютер – это не человек и мыслит он далеко не так как любой из нашего вида. Первые несколько часов, Искусственный разум будет самообучаться. Он довольно быстро узнает все знания человечества и разработает новую версию программного обеспечения. Каждая версия ПО будет совершеннее предыдущей и обновления будут столь частыми, что мы не будем успевать вносить изменения в них.

Впрочем – возможен и другой вариант. ИИ не станет истреблять все человечество из опасений навредить природе. Однако, он поймет замысел тайных обществ и решит единолично управлять всеми. За короткое время система даст людям тысячекратное увеличение мыслительных способностей, просто сделав их частью себя. Огромный, единый разум избавит мир от опасности войны.

Обратите внимание

Со временем, люди начнут превращаться больше в роботов. Такова природа мышления. Рациональность и прагматичность всегда побеждают. По другому же сценарию, созданная человеком жизнь, за один год разовьется до такого уровня, что отключить ее будет невозможно. Система будет становиться умнее каждую секунду и за несколько лет, мы просто перестанем ее понимать.

Машины не станут ни истреблять, ни помогать людям. Мы же, не ведем войну с муравьями. Вариант полного истребления человечества маловероятен. Машинное мышление всегда логично и предельно рационально. Такая необычная война нанесет больше вреда, чем пользы. Согласно предварительным исследованиям, события будут развиваться по второму варианту.

Вне зависимости от того, какую игру ведут тайные общества, искусственный интеллект, рано или поздно создаст единый коллективный разум, поставив жирную точку в истории человечества. Конечно, это решит многие актуальные проблемы нашей техносферной цивилизации. Мы перестанем воевать, полностью исчезнет финансовая система. Каждый станет заботиться только об общем и личном благе.

Система материальных ценностей достаточно быстро пропадет. Компьютер не станет превращать нас в бездушных юнитов. Будучи логичной и рациональной системой, он четко представляет, что у нас есть те качества, которых нет у него.

Это и способность к креативному мышлению и пресловутая любовь. Эти необычные качества навсегда останутся при нас. Человек также не потеряет своей индивидуальности.

Даже с коллективным разумом, всегда найдется место для личности. Мы не исчезнем как вид. Мы просто эволюционируем, но при этом перестанем быть людьми.

Источник

Категория: Загадки цивилизаций | Добавил: Tatika (24.01.2018)

Источник: http://potustorony.ru/publ/zagadki_civilizacij/iskusstvennyj_intellekt_neset_ugrozu_chelovechestvu/7-1-0-1877

Ссылка на основную публикацию