Меры безопасности, способные защитить нас от искусственного интеллекта

Может ли искусственный интеллект защитить нас от хакеров?

Марк Уорд Би-би-си

Image caption Какие терминаторы смогут защитить нас от зловредных хакеров?

С роботов-автомобилей и роботов-спасателей американское исследовательское агентство Darpa переключило свое внимание на роботов-хакеров.

Агентство Darpa, известное в первую очередь благодаря тому, что именно оно познакомило мир с интернетом, время от времени проводит конкурсы новых разработок, цель которых – справиться с очередным “большим вызовом” современности.

Соревнования призваны ускорить исследования в областях, требующих первоочередного внимания. Именно идеи Darpa легли в основу серьезных разработок беспилотных автомобилей и роботов, способных трудиться в зонах стихийных бедствий.

Обратите внимание

На очереди – Большой кибертурнир, цель которого – способствовать созданию программного обеспечения, выявляющего и устраняющего уязвимости других программ до того, как их обнаружили и использовали хакеры.

“В настоящее время поиском и устранением уязвимых мест в программах занимаются исключительно люди, и это очень медленный процесс”, – объясняет Майк Уокер, возглавляющий Большой турнир Darpa.

По его словам, это представляет большую проблему в силу сложности современного программного обеспечения и фундаментальных трудностей, с которыми сталкивается один компьютер, пытаясь понять, что делает другой. И проблему эту описал еще пионер компьютерного дела Алан Тьюринг.

Правообладатель иллюстрации Getty ImagesImage caption Агентство Darpa устроило состязания для роботов, способных трудиться в зонах стихийных бедствий

Именно он предсказал, что, по мере того как мир будет заполняться миллиардами небольших, соединенных между собой умных машин, будет нарастать необходимость в решении проблемы их взаимопонимания.

“Смысл заключается в том, что в какой-то момент эти устройства начнут использоваться в таких масштабах, что без автоматики мы просто не сможем обеспечить эффективную сетевую защиту”, – предрек Тьюринг задолго до создания интернета.

Кульминацией кибертурнира станет проходящий на этой неделе съезд хакеров Def Con, на котором семь команд вступят в борьбу, чтобы выяснить, чья хакерская программа – самая лучшая.

Как взорвать “трояна”

Разумеется, автоматизированные системы цифровой защиты представлены не только на турнире Darpa.

Во всем мире широко используются автоматические программы для выявления вирусов.

По словам главного технолога компании Symantec Даррена Томсона, большая часть работы антивирусных программ должна быть автоматизирована просто потому, что злоумышленники разработали огромное количество компьютерных вирусов. Считается, что в ход уже запущено более 500 миллионов червей, троянов и иных вредоносных программ, и каждый день появляются тысячи новых.

На помощь пришлось привлечь автоматические алгоритмы, объясняет Томсон, поскольку традиционные антивирусы плохо справлялись с вредоносными программами, которых не было в их базе.

Правообладатель иллюстрации AFPImage caption Алан Тьюринг одним из первых занялся исследованием пределов возможностей компьютеров

“Эти программы выявляют лишь около 30-40% всего того, от чего мы защищаем пользователей”, – поясняет эксперт.

В остальном же компании, занимающиеся обеспечением кибербезопасности, всегда полагались на все более усложнявшиеся программы, которые на примере известных им вирусов обучались распознавать новые, неизвестные.

К ним добавились алгоритмы, которые следят за работой других программ и оповещают об опасности, если в этой работе происходит что-то неожиданное.

Некоторые системы защиты заключают подозрительно ведущие себя программы в виртуальный контейнер и с помощью разных методов пытаются “разорвать” вредоносный код и выявить его намерения.

“Мы имитируем нажатие клавиш и взаимодействие программы с пользователем чтобы убедить вирус, что он активизирован”, – рассказывает Томсон.

Умный код

Появление больших объемов информации позволило сделать важный шаг на пути к созданию программ защиты, которые позволяют перехватывать 60-70% вирусов, оставшихся незамеченными традиционными традиционным антивирусным софтом.

“Обучающиеся машины позволяют выявить ДНК вирусных семейств, а не просто отдельные вирусы,” – говорит основатель и исполнительный директор фирмы SentinelOne Томер Уэйнгартен.

Этот подход был почерпнут из мира даталогии, или науки о данных, и, по словам Уэйнгартена, оказался очень результативным благодаря огромной базе, быстро собранной компаниями, которые начали отслеживать поведение зараженных вирусами компьютеров.

“Так появился большой объем информации, и информации повторяющейся, – поясняет эксперт. – А это две необходимых составляющих для строительства очень надежного обучающего алгоритма, который может отличить хорошее от плохого. Если вы хотите сделать что-то вредное, вам нужно предпринять какие-то шаги, которые всегда будут отличаться от нормальных”.

Правообладатель иллюстрации Getty ImagesImage caption Системы безопасности используют машины, способные отслеживать поток информации в сети

Автоматизация выявления таких аномальных шагов необходима потому, что человек, или даже большая группа людей, не сможет выявить их достаточно быстро.

И такие обучающиеся машины могут обеспечить защиту не только компьютерам.

Когда речь заходит о крупных компаниях и даже правительствах, киберпреступники норовят проникнуть в из закрытые сети в поисках таких лакомых кусков, как базы данных клиентов, образцов новой продукции, контрактов, подробностей переговоров и ставок.

Это еще одна ситуация, в которой, по словам директора компании киберразведки и кибербезопасности Dark Trace Джастина Файера, машины заметно опережают своих создателей.

“Вы заставляете машину запомнить обширную базу данных, а затем с помощью вычислительной техники высокого уровня находите иголку в стоге сена, которой там не должно быть, – поясняет Файер. – Порой машина может заметить небольшую аномалию, которая укроется от человеческих глаз”.

Впрочем, предостерегает эксперт, не стоит обольщаться, будто способность машин к обучению – это и есть настоящий искусственный интеллект.

Важно

Конечно, это шаг вперед, говорит Файер, но для принятия окончательного решения, после того как машина заметила что-то подозрительное, по-прежнему требуется человеческий интеллект.

А кроме того, способность машин к обучению могут использовать не только те, кто занимается защитой.

“У нас был случай, когда мы выявили вирус, следивший за пользователями и запоминавший их привычки, – поясняет эксперт. – Нам остается лишь прийти к выводу, что этот вирус пытался найти наиболее удобный способ извлечения информации без возбуждения подозрений. Так что, когда обучающиеся машины начнут использовать хакеры, начнется самое интересное”.

Источник: https://www.bbc.com/russian/features-36935149

Этика искусственного интеллекта – гарантия безопасности человека?

?znay_obo_vcem (znay_obo_vcem) wrote,
2014-04-12 13:15:00znay_obo_vcem
znay_obo_vcem
2014-04-12 13:15:00Category:Прошло 50 лет с тех пор, как Айзек Азимов придумал свои знаменитые три закона робототехники — набор правил, которым должен следовать любой уважающий себя робот.Хотя изначально это был всего-лишь литературный прием, три закона стали оригинальным рецептом по избежанию «роботокалипсиса».К счастью, есть эксперты, которые изучают наверняка, выдержали ли гарантии Азимова проверку временем.

К несчастью, все они говорят: нет.

Для начала напомним эти самые три закона:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил четвертый, или нулевой, закон, который предшествовал остальным с точки зрения приоритета:
   0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.В фантастической вселенной Азимова этим законам должны были следовать почти все роботы. Это были не просто предложения или руководящие принципы — законы были встроены в программное обеспечение. Кроме того, эти правила нельзя обойти, переписать или пересмотреть.Как показал сам Азимов, несовершенство, лазейки и неясности в этих законах зачастую приводили к странному и нелогичному поведению роботов. Законы были слишком расплывчатыми и зачастую не могли определить и отличить «людей» от «роботов». Кроме того, роботы могли неосознанно нарушать законы, если полная информация была им недоступна. Также чересчур хитроумный робот или искусственный интеллект должен был находиться под давлением, чтобы не перепрограммировать свое ядро.На дворе 2014 год, и многое обыденное из нашей жизни фантастам прошлого века могло показаться откровенной фантастикой. Многие люди посчитали, что законы Азимова должны были остаться в качестве литературного приема. Но сам Азимов в 1981 году отметил, что его законы могли бы работать. В статье журнала Compute! он указал следующее:«Когда кто-то спрашивает меня, что было бы, если бы три моих закона робототехники на самом деле использовались для определения поведения роботов, ответ уже готов. Разумеется, при условии, что роботы будут достаточно гибкими и универсальными, чтобы обладать разным поведением. Я отвечаю: да, три закона — это единственный вариант, по которому люди могут взаимодействовать с роботами — или с чем-нибудь еще.Спустя почти тридцать лет мы приблизились к реальности, в которой у нас будут роботы — или, если точнее, искусственный интеллект, который ими управляет — достаточно гибкие и универсальные для разных курсов поведения. Остается лишь вопрос времени: когда машина превзойдет человека во всех отношениях, начиная физической силой и заканчивая силой воображения.

Пугает то, что права на ошибку практически нет. Если искусственный сверхинтеллект будет плохо запрограммирован или безразличен к людям, это приведет к катастрофе. Мы должны убедиться в безопасности искусственного интеллекта, если хотим пережить его появление».

Ответить на вопрос «могут ли три закона Азимова помочь?» взялись два теоретика искусственного интеллекта: Бен Герцель (Aidyia Holdings) и Луи Хельм, замдиректора Института исследований машинного интеллекта (MIRI), а также исполнительный редактор журнала Rockstar Research. После разговора с ними стало ясно, что законы Азимова вообще никак не могут справиться с возложенной на них задачей, и если нам нужно создать безопасный ИИ, придется разрабатывать нечто совершенно иное.

Азимовское будущее?

Беседа с Герцелем и Хельмом началась с того, в чем Азимов не ошибся, предрекая будущее, а в чем ошибся.

«Думаю, что тип роботов, которых предвидел Азимов, станет возможным в недалеком будущем, — отвечает Герцель.

— Тем не менее, в большинстве своих вымышленных миров, писатель предполагал, что человекоподобные роботы будут вершиной робототехники и инженерии искусственного интеллекта. Это вряд ли.

Очень скоро, после достижения статуса азимовских роботов, станет доступным и создание искусственного сверхинтеллекта и сверхроботов».

Таким образом, типичный мир будущего в рассказах про роботов у Азимова, по мнению Герцеля, будет похож на тот, в котором мы живем сегодня, но с разумными роботами, гуляющими по улицам.

«Вряд ли это произойдет, а если и произойдет, то задержится ненадолго».

Для Хельма роботы представляются совершенно другими.

«Основным вопросом, который, на мой взгляд, будет самым важным для человечества, остается не моральное регулирование гигантского количества наполовину разумных гуманоидов, а в конечном итоге развитие передовых форм искусственного интеллекта (в любом теле).

Это развитие сверхинтеллекта — фильтр, через который должно пройти человечество в конце концов. Именно поэтому разработка стратегии безопасности для этого перехода столь важна.

Мне видится совершенно странным то, что роботы, андроиды или «эмуляции» будут существовать десять лет или чуть более до тех пор, пока человечество столкнется с настоящей проблемой разработки машинной этики для сверхинтеллекта».

Хорошее начало?

Совет

Если принять во внимание, что три азимовских закона робототехники были первой искренней попыткой решить очень серьезную проблему — проблему безопасного поведения машин с искусственным сверхинтеллектом — стоит поискать и те моменты, в которых законы могут быть все еще эффективными (или хотя бы вдохновляющими).

«Честно говоря, я не нахожу никакого вдохновения в этих трех законах робототехники, — говорит Хельм. — Суть машинной этики в том, что они не удовлетворяют базису машинной этики. Возможно, три закона робототехники широко известны, но на самом деле использовать их в качестве основы для программирования бесполезно».

«По некоторым причинам система добропорядочной этики — так называемая деонтология — стала ненадежной основой для этики. Есть ряд философов, которые пытаются исправить проблемы деонтологии, но они по большей части остаются теми же людьми, что ищут «разумный замысел» и «божественное вмешательство».

Никто не воспринимает их всерьез».

Недостатки трех законов робототехники Азимова сводятся к следующим:

  1. Состязательны по своей сути
  2. Основаны на изжившей себя этической теории (деонтологии)
  3. Не работают даже в фантастике

Герцель соглашается:

«Задачей трех законов было нарушить их интересным способом; вот почему рассказы с их участием особенно занимательны. Поэтому три закона могут остаться лишь нравоучительным примером того, как делать не надо. Если взять их за основу, в них неизбежно найдутся лазейки».

Герцель считает, что в реальности эти законы работать не будут, поскольку термины с их участием неоднозначны и остаются предметом толкования — а значит, крайне зависимы от тех, кто делает переводы.

Предубеждение против роботов?

Другой аспект (и потенциальный недостаток) трех законов в очевидном шовинизме —предположение о том, что роботы должны оставаться, несмотря на их превосходящую мощь, в подчинении у человека, человеческих потребностей и приоритетов.

«Общество будущего у Азимова состоит сплошь из шовинистов: у людей прав гораздо больше, чем у роботов. Три закона робототехники были созданы, чтобы поддерживать именно такой общественный порядок».

Хельм смотрит на эту проблему немного по-другому, утверждая, что если мы окажемся в такой ситуации — это само по себе будет свидетельством того, что мы зашли слишком далеко.

«Я думаю, было бы неразумно проектировать систему искусственного интеллекта или робота с самосознанием.

И в отличие от фильмов или книг, в которых создатели искусственного интеллекта «случайно» приходят к разумным машинам, я не верю, что в реальном жизни это может случиться. Для этого понадобится слишком много усилий и знаний. И большинство разработчиков ИИ — этически подкованные люди, поэтому они будут избегать создания того, что философы называют «морально значимыми существами».

Особенно когда они с легкостью могут создать продвинутую машину, которая не будет обладать этическими задатками».

Хельм не обеспокоен необходимостью разработки асимметричных законов, регулирующих значимость роботов по сравнению с людьми, утверждая (и надеясь), что будущие создатели искусственного интеллекта будут опираться на некоторые этические ограничения.

«Я как бы думаю, что люди сделаны из атомов, поэтому в теории инженер может создать синтетическую форму жизни или робота с моральным значением. Я хотел бы думать, что никто этого не сделает. Думаю, большинство людей тоже.

Но неизбежно появится некий дурак, жаждущий известности первопроходца, даже если это неэтично и глупо».

Обратите внимание

Три закона робототехники 2.0?Учитывая очевидные недостаки трех законов робототехники Азимова, ресурс io9 задался вопросом: можно ли их исправить или внести доработки? На самом деле, многие писатели-фантасты многократно пытались сделать это, внося поправки в течение многих лет.

«Нет, — считает Хельм. — Нет никаких «патчей» для трех законов».

Помимо своей противоречивой природы, законы еще и состязательны по своей природе.

«Я сторонник подходов машинной этики, которая более кооперативна, более последовательна и опирается на нормативы, а значит может оправиться от недоразумений или исправить неправильное программирование».

Герцель эхом вторит утверждениям Хельма.

«Определение набора этических заповедей в качестве ядра машинной этики будет безнадежным, если в основе машины будет гибкий общий искусственный интеллект.

Если он будет задуман как интуитивный, гибкий, адаптивный или этический — в этом контексте этические заповеди будут полезны для системы только как грубый ориентир для применения собственной этической интуиции. Но в этом случае заповеди не станут основой этической системы, а только лишь аспектом.

Это можно рассмотреть на примере людей — этические принципы, которые мы изучаем, работают, но не в качестве руководящих принципов, они лишь подталкивают нашу интуицию и этические инстинкты. Мы практически независимы от этических принципов».

Как создать безопасный искусственный интеллект?

Учитывая неадекватность правового подхода, можно поинтересоваться у Герцеля и Хельма по поводу современных подходов к проблеме «безопасного ИИ».

«Очень немногие исследователи общего искусственного интеллекта полагают, что есть возможность создать систему, которая будет полностью безопасной, — говорит Герцель.

— Но это не беспокоит большинство, поскольку в этой жизни вообще нельзя ничего гарантировать».

Герцель считает, что как только мы создадим систему общего искусственного интеллекта или ее зародыш, мы сможем провести исследования и эксперименты, которые расскажут нам об этике ИИ куда больше, чем мы знаем.

«Надеюсь, таким образом мы сможем сформулировать хорошие теории по этике искусственного интеллекта, которые позволят нам углубиться в эту тему. Но сейчас теоретизировать об этике ИИ довольно трудно, поскольку у нас нет не просто хороших теорий, у нас вообще никаких теорий нет».

«А людям, которые смотрели слишком много «терминаторов», процесс создания искусственного интеллекта может показаться пугающим, поскольку они упускают слово «примитивный» в этом контексте. Тем не менее, самые радикальные изменения случались именно таким образом».

«Когда группа умных пещерных людей изобрела язык, они не ждали разработки прочной формальной теории языка, которая могла бы помочь спрогнозировать будущие изменения, вызванные появлением языка в обществе».

Прежде чем считать разработку очередных «трех законов» технической проблемой, нужно провести массу исследований. И в этом Хельм и Герцель сходятся.

«Мой коллега из MIRI Люк Мюельхаузер подвел итоги наших рассуждений следующим образом. Он сказал, что
проблемы часто переходят из области философии в математику, а затем в инженерию.

Философия зачастую задается правильными вопросами, но самым непрактичным образом. Никто не может наверняка сказать, есть ли какой-либо прогресс в разрешении вопроса. Если мы сможем переформулировать важные философские проблемы, связанные с разумом, идентификацией и ценностью в точные формулы, с которыми сможет справиться математика, тогда можно будет построить кое-какую модель.

В один прекрасный день дойдет и до инженерии».

Хельм считает эту проблему сложной для науки и философии, но прогресс возможен.

«Я скептически отношусь к тому, что философия сможет решить вопрос, над которым бьется более 3000 лет. Но мы тоже не можем взять и начать составлять математические модели вопросов, которых нет технически. Нужно еще много теоретических и даже практических наработок».

Источник: https://znay-obo-vcem.livejournal.com/777253.html

Стивен Хокинг: Мировое правительство защитит нас от искусственного интеллекта

13 марта 2017, 20:00     1805

Всемирно известный физик Стивен Хокинг с энтузиазмом наблюдает за развитием искусственного интеллекта. Но вместе с тем он признает, что эта технология может принести человечеству массу неприятностей. В своем недавнем интервью он предложил довольно радикальное решение этих проблем. Речь идет о создании мирового правительства.

Хокинг смотрит в будущее одновременно с энтузиазмом и опасением

«Мы должны быстрее идентифицировать подобные угрозы, прежде чем они выйдут из под контроля. Это может означать необходимость создания некой формы мирового правительства», – утверждает ученый.

Бунт программного обеспечения

Уже сегодня роль искусственного интеллекта в обществе становится весьма значительной.

Это означает, что разработчикам этих систем и политикам предстоит сфокусироваться на том, чтобы мощь новой технологии использовалась во благо человека.

Потому идея о создании некоего общемирового контролирующего органа приходит в голову не только Стивену Хокингу. Многие крупные эксперты согласны с тем, что мировое правительство попросту необходимо для выживания человечества.

«Я думаю, что улучшенная глобальная система управления  может быть необходима не только для осуществления контроля над продвинутым искусственным интеллектом, но и для решения прочих серьезных задач, которые встают перед нашим видом», – говорит Ник Бостром, преподаватель Оксфордского университета и основатель Института будущего человечества. По мнению Бострома, разделенный мир становится опаснее по мере того, как человек изобретает все более мощные технологии.

Важно

Сегодня системы искусственного интеллекта вовлечены практически во все аспекты нашей жизни. Они управляют беспилотными автомобилями, они решают, какую рекламу показывать вам в интернете, они общаются с вами голосами виртуальных ассистентов.

В Нью-Йорке искусственный интеллект предсказывает пожары, в Великобритании – контролирует оплату долгов. Ранее мы приводили неполный список вещей, на которые способна эта потрясающая технология.

Стивен Хокинг верит, что однажды искусственный интеллект поможет победить бедность и излечит все болезни.

Хокинг верит, что однажды искусственный интеллект поможет победить бедность и излечит все болезни

Но с новыми возможностями на горизонте возникают новые проблемы. Часть экспертов опасается того, как искусственный интеллект может повлиять на мировую экономику.

«Есть два главных экономических риска: во-первых, быстрый прогресс может привести к несоответствию между навыками, которыми обладают специалисты, и навыками, которые потребуются для рабочих мест будущего; во-вторых, искусственный интеллект может увеличить экономическое неравенство, значительно обогатив владельцев капитала и наиболее квалифицированных специалистов», – говорит Эдвард Фелтен, преподаватель информатики Принстонского университета. По мнению Фелтена, эти проблемы можно будет решить только централизовано, при помощи государственных социальных программ.

Стивен Хокинг идет в своих опасениях намного дальше. Ученый уверен: без надлежащего контроля искусственный интеллект станет чересчур мощным и в определенный момент попросту перестанет подчиняться человеку.

Накапливаемая ошибка

Не все ученые разделяют опасения Стивена Хокинга. К примеру, вышеупомянутый Эдвард Фелтен, хоть и опасается побочных эффектов внедрения искусственного интеллекта, не верит в то, что машина может выйти из под контроля.

А вот Эми Уэбб, основатель и генеральный директор института Future Today, считает что угроза вполне реальна. По ее мнению, опасность заключается в алгоритмах, с помощью которых сегодня создается искусственный интеллект.

Совет

Машинное обучение позволяет компьютеру связывать между собой понятия, факты и образы, учит его понимать мир. Но процесс такого обучения во многом остается бесконтрольным.

Это означает, что мизерная ошибка в изначальной логике может в итоге привести к серьезным отклонениям.

«Что произойдет, если ученик ошибочно узнает, что 1+1 равно 3, а затем начнет учить этому следующую группу детей? Неправильный ответ размножится, и искаженными окажутся все решения, основанный на этом знании», – поясняет Эми Уэбб.

В случае же с искусственным интеллектом речь идет о куда более серьезных вещах. Ведь человек будет возлагать на компьютер функции идентификации личности, безопасности, управления вооружением и многое другое.

Перспективы консолидации

Вопрос о том, как контролировать искусственный интеллект, пока изучен не слишком глубоко. Тем не менее, ученые сходятся во мнении: мировое правительство или международное сотрудничество должно стать одним из решений.

Пока объединенная Земля существует лишь в проектах ученых и мечтах фантастов

Ник Бостром, к примеру, не верит в возможность каких-либо быстрых глобальных преобразований на политической арене. Тем не менее, по его мнению, нечто похожее на мировое правительство может стать следующей фазой уже существующего прогресса.

«Мы уже прошли большую часть пути – от группы охотников-собирателей к племени, к городу-государству, к этническому государству, затем к существующему сегодня коктейлю из государств и влиятельных международных организаций. Еще один скачок, и мы на месте», – говорит Бостром.

Эми Уэбб настроена более скептично: «Было бы замечательно, если бы все страны в мире договорились о стандартах использования искусственного интеллекта, но сейчас мы не можем договориться даже о решении таких проблем, как изменения климата», – говорит она. По мнению Уэбб, международные соглашения попросту не будут успевать за стремительным развитием технологии искусственного интеллекта. Таким образом, будущее пока остается не слишком ясным.

Источник: https://igate.com.ua/news/18475-stiven-hoking-mirovoe-pravitelstvo-zashhitit-nas-ot-iskusstvennogo-intellekta

Как искусственный интеллект защищает нас от рака и излишней жестокости

Некоторые полагают, что распространение искусственного интеллекта и робототехники ставит под угрозу нашу личную жизнь, нашу работу и даже нашу безопасность. Все больше и больше задач уходят на выполнение мозгам на основе кремния.

Но даже самые громкие критики не могут не признавать очевидные блага, которые ИИ и автоматизированные системы готовят для человечества.

В рамках проекта Grand Challenges BBC собрал экспертов, которые изложили свое видение будущего в присутствии машин и искусственного интеллекта.

«Мы должны рассматривать ИИ не как что-то, с нами конкурирующее, а как что-то, что может усилить наши собственные способности», говорит Такео Канаде, профессор робототехники в Университете Карнеги — Меллона.

Обратите внимание

Потому что ИИ обладает толерантностью к скуке, а также умеет выявлять закономерности намного лучше и быстрее, чем люди.

Автоматизация уже принялась за распутывание самых сложных узлов нашего мира, от болезней до жестокости.

И она может сделать нашу жизнь безопаснее в 21 веке.

Сражение с инфекционными заболеваниями

Для миллиардов людей по всему миру жужжание москитов рядом с ухом может означать гораздо большее, чем раздражающий укус – оно может быть предвестником болезни и даже смерти.

Один вид – Aedes aegypti – особенно распространился из Африки в почти всех тропических и субтропических регионах, перенося лихорадку Денге, желтую лихорадку, Зика и чикунгунья (вирус, вызывающий калечащие боли в суставах).

Одна только Денге заражает 390 миллионов человек в 128 странах каждый год.

«Этот москит – крошечный демон», говорит Рейнир Маллол, компьютерный инженер из Доминиканской Республики, горячей точки распространения Зика. Вместе с Деси Раджа, медиком из Малайзии (другой страны, подверженной риску заражения вирусом), пара разработала алгоритмы ИИ, которые предсказывают, где вероятнее всего будут происходить вспышки.

Project Premonition от Microsoft использует беспилотные летательные аппараты для поиска патогенов в горячих точках распространения Зика

Их искусственный интеллект в области медицинской эпидемологии (Aime) – это система, которая объединяет время и местоположение каждого нового случая Денге по отчетам местных больниц с 274 другими переменными факторами, такими как направление ветра, влажность, температура, плотность населения, тип жилья. «Это все факторы, определяющие распространение комаров», объясняет Маллол.

Испытания в Малайзии и Бразилии показали, что они могут прогнозировать вспышки с точностью около 88% за три месяца. Система также помогает определить эпицентр вспышки с точностью до 400 метров, позволяя местным медикам вовремя вмешаться с инсектицидами и защитой от укусов для местных жителей.

Aime также развивается, чтобы предсказывать вспышки Зика и чикунгунья.

Огромные технологические компании по-своему развивают эту идею: например, Project Premonition от Microsoft использует автономные беспилотники, чтобы выявлять очаги распространения комаров, и используют диоксид углерода и световые ловушки для поимки этих насекомых.

ДНК москитов и животных, которых они кусали, затем анализируется машинными алгоритмами, которые выявляют закономерности в гигантских объемах данных все лучше и лучше с каждым разом – и находят возбудителей.

Борьба с оружием

За последний год в США погибло 15 000 человек из-за стрельбы. У этой страны самый высокий уровень связанной с оружием жестокости во всем развитом мире. Чтобы решить проблемы с беспорядочной стрельбой и связанными с оружием преступлениями, в некоторых городах страны обращаются к технологиям за помощью.

Автоматизированная система, которая слышит звуки выстрелов посредством ряда сенсоров, может использоваться для определения места, где раздавались выстрелы, и оповещать органы безопасности в течение 45 секунд после того, как был спущен курок. ShotSpotter использует 15-20 акустических датчиков на квадратный километр для обнаружения характерного «хлопка» выстрела, определяя его место рождения с точностью до 25 метров.

Технологии машинного обучения используются для подтверждения того, что звук был огнестрельным, и подсчитывают количество выстрелов, показывая, будет ли полиция иметь дело с одиноким стрелком или несколькими преступниками, а также используют они автоматы или нет.

Важно

Уже 90 городов – по большей части в США, но также в Южной Африке и Южной Америке – используют ShotSpotter. Небольшие системы также были развернуты в девяти университетских городках в США в ответ на недавнюю стрельбу в кампусе.

Ральф Кларк, исполнительный директор ShotSpotter, считает, что в будущем эта система может использоваться не только для простого реагирования на инциденты.

«Мы стремимся понять, как наши данные могут использоваться для прогностических возможностей полицейских», говорит он. «Машинное обучение можно совместить с погодой, дорожным трафиком и другим, чтобы более точно информировать полицейские патрули».

Борьба с голодом

Около 800 миллионов человек во всем мире полагаются на корни кассавы (маниоки) в качестве основного источника углеводов.

Этот крахмалистый овощ, похожий на ямс, едят как картофель; его также можно измельчить в муку для приготовления хлеба и выпечки. Он может расти там, где не могут другие культуры, что сделало кассаву шестым по величине продовольственным растением в мире.

Однако этот древесный кустарник также уязвим для болезней и вредителей, что может привести к опустошению целых полей овощей.

Исследователи из Университета Макерере в Кампале, Уганда, объединились с экспертами по болезням растений, чтобы разработать автоматизированную систему, направленную на борьбу с заболеваниями маниоки.

Проект Mcrops позволяет местным фермерам фотографировать свои растения на дешевые смартфоны и использовать компьютерное зрение для выявления признаков четырех основных заболеваний, которые приводят к опустошению посевов маниоки.

«Некоторые из этих заболеваний крайне трудно распознать, и они требуют различных действий», объясняет Эрнест Мвебазе, исследователь компьютерных технологий, возглавляющий проект. «Мы даем фермерам карманного эксперта, чтобы они знали, опылять урожай или же уничтожить и посадить что-то еще».

Эта система диагностирует заболевания кассавы с 88-процентной точностью. Обычно фермерам нужно звонить правительственным экспертам для посещения ферм, чтобы те идентифицировали болезни, на что уходят дни и недели, пока болезнь распространяется.

Mcrops также позволяет загружать снимки в базу данных, на основе которой затем диагностируются эпидемии. Мвебазе надеется, что эта технология позволит также автоматически определять проблемы других видов растений, например бананов.

Борьба с раком и потерей зрения

Источник: https://24hitech.ru/kak-iskysstvennyi-intellekt-zashishaet-nas-ot-raka-i-izlishnei-jestokosti.html

Чтобы избежать гибели, человечеству необходимо посадить искусственный интеллект под замок

Источник перевод для mixednews – Света Гоголь

1.03.2012

Искусственный интеллект настолько опасен, что стоит держать его взаперти, от греха подальше, считают эксперты.

Во всяком случае ему не стоит предоставлять свободу суперкомпьютера HAL 9000 из «Космической Одиссеи 2001»

Суперумные компьютеры или роботы, угрожающие существованию человеческого рода – излюбленный сюжет научной фантастики.

В реальности, по мнению учёных,  подобный сценарий судного дня можно предотвратить только создав виртуальную «тюрьму» для содержания искусственного интеллекта (ИИ). И сделать это надо до того, как он научится осознавать и совершенствовать самого себя.

Если выпустить этого джина из бутылки, то из оракула, который решает наши проблемы, он может превратиться в апокалипсическую угрозу, — уверен Роман Ямпольский,  учёный из Луисвиллского университета (шт.

Кентукки), работающий в области компьютерных наук.

Необходимо тщательно спланировать условия, в которых будет содержаться ИИ — так, чтобы он не смог вырваться на свободу при помощи угроз, подкупа, соблазна или компьютерного взлома.

«Он может изобрести множество способов воздействия, провернуть сложную социо-инженерную комбинацию и использовать уже существующие аппаратные компоненты в целях, которые мы не можем даже вообразить, — полагает Ямпольский.

– Такой софт обладает неограниченными возможностями для заражения компьютеров и сетей. ИИ может найти способы воздействовать на человеческую психику, подкупать или шантажировать людей, которые находятся с ним в контакте».

Появление новой сферы научных исследований, занимающейся проблемой создания «тюрьмы» для искусственного интеллекта, имеет и дополнительные преимущества. Эти исследования очень полезны  для улучшения компьютерной безопасности и криптографии, уверен Ямпольский. Его предложения были детально изложены в мартовском номере академического издания Journal of Consciousness Studies.

Совет

Робот-убийца из фильма “Терминатор” как раз является таким будущим, которого мы хотели бы избежать

Как устроить западню для Скайнет

Для начала можно заключить искусственный интеллект внутри «виртуальной машины». Пусть он работает в пределах обычной операционной системы  –  ограничение доступа ИИ к софту и оборудованию главного компьютера сделает его значительно безобидней. Во всяком случае, умный ИИ не сможет рассылать своим сторонникам-людям тайные сообщения,  отбивая охлаждающими вентиляторами азбуку Морзе.

Посадить искусственный интеллект в компьютер без выхода в интернет — хороший способ помешать коварным планам ИИ по защите Земли от нас с вами. В случае любого другого сбоя исследователи всегда могут притормозить мыслительный процесс ИИ, сбавив скорость обработки данных компьютера, регулярно нажимая кнопку «сброс» или отключив ИИ от источника энергоснабжения.

Такие меры безопасности предназначены для борьбы с особо умными и опасными компьютерными вирусами, но насколько эффективными они окажутся на самом деле – приходится только гадать.

«Уловка-22» (роман амер. писателя Дж. Хеллера; прим. mixednews) заключается в том, что мы не можем провести полномасштабные испытания наших идей, пока разработка ИИ не закончена.

Но  для того, чтобы сделать ИИ безопасным, необходимо разработать комплекс соответствующих мер, — считает Ямпольский.

– Оптимальный вариант – ввести ограничения на использование систем ИИ а затем, по мере необходимости, менять эти ограничения в соответствии с повышающимися возможностями ИИ».

Учёный Роман Ямпольский предложил использовать знак “@” или другие знаки, использующиеся сегодня для обозначения радиационной или биологической угрозы для указания на наличие опасности, связанной с искусственным интеллектом.

Никогда не приставляйте к машине охранника-человека

Во время невинной, на первый взгляд, беседы с охранником ничто не помешает ИИ использовать такие психологические приёмы, как дружба или шантаж. Человека можно подкупить, посулив ему идеальное здоровье, бессмертие, или даже пообещать вернуть с того света родных и друзей. Или добиться чего угодно угрозами.

Самый безопасный способ общения с ИИ — заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, — объясняет Ямпольский. Это поможет держать супер-умного оракула на коротком поводке.

Многие исследователи считают, что, несмотря на все меры предосторожности, держать умника ИИ под замком бесконечно не удастся. Последний эксперимент Элиэзера Юдковского, научного сотрудника Института сингулярности по созданию Искусственного Интеллекта, показал, что даже интеллект человеческого уровня  может обмануть человека и «сбежать» из заточения.

Обратите внимание

Тем не менее, Ямпольский настаивает на содержании ИИ в строгой изоляции — это всё же лучше, чем махнуть рукой и предоставить ему полную свободу. Но если развитие ИИ достигнет точки, когда он сможет манипулировать человеком, используя подсознание (предсказание будущего), телепатию или телекинез — последствия будут непредсказуемы.

«Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» — предостерегает Ямпольский.

Источник: http://MixedNews.ru/archives/15431

Как обезопасить нас от искусственного интеллекта?

Идея того, что искусственный интеллект неизбежно приведет нас к сценарию, в котором машины восстают против людей, довольно популярна. Искусственный сверхинтеллект кажется величайшей из возможных угроз, а фантастические сюжеты, согласно которым мы будем не нужны в мире, принадлежащем технологиям, в популярности никогда не теряли.

Неужели это неизбежно?

Литературное и кинематографическое изображение разумных компьютерных систем из 60-х годов помогло сформировать и обобщить наши ожидания будущего, когда мы встанем на путь создания машинного интеллекта, превосходящего человеческий.

ИИ, очевидно, уже превзошел человека в определенных специфических задачах, требующих сложных вычислений, но по-прежнему отстает в ряде других возможностей.

Как одновременно увеличить мощь этого сурового инструмента и сохранить наше хозяйствующее положение над ним.

Поскольку искусственный интеллект уже играет и будет продолжать играть большую роль в нашем будущем, крайне важно исследовать наши возможности сосуществования с этими сложными технологиями.

Кевин Абош, основатель компании Kwikdesk, которая занимается обработкой данных и развитием искусственного интеллекта, поделился своими мыслями на этот счет. Он считает, что искусственный интеллект должен быть быстрым, незаметным, надежным, грамотным и этичным. Да, этичным.

Этические рамки

В концепции искусственной нейронной сети, созданной по подобию биологической нейронной сети, нет ничего нового. Единицы вычислительной мощи, которые называются нейронами, соединяются друг с другом и образуют сеть.

Каждый нейрон применяет сложный алгоритм обучения на входе, прежде чем передать данные другим нейронам, пока не активируется нейрон на выходе и не откроет возможность для чтения. Экспертные системы полагаются на людей, которые будут «учить» систему, засеивая ее семенами знаний.

Механизмы логической обработки ищут соответствия, делают выборы, устанавливают правила в стиле «если это, тогда то» по отношению к базе знаний. В этом процессе новые знания добавляются к базе знаний.

Чистая нейронная сеть учится в процессе получения нелинейного опыта, не располагает проблемами засеивания знаний экспертом. Гибридные сети доказали, что улучшают возможности обучения машинами.

Теперь давайте рассмотрим этические проблемы таких систем. Далее от первого лица.

«Злой код» против доброго кода

Автор использует слова, чтобы погрузить читателя в вымышленный мир, и делает это по-разному, но великие авторы делают это очень изящно. Инженер-программист пишет строки кода, которые облегчают обработку и движение данных.

Он тоже может выбирать из ряда вариантов разные способы, но изящные кодеры — фолкнеры компьютерных наук. Продвигающийся кодер сосредоточен на том, как заключить как можно больше и лучше в коротком и изящном коде. Лишний код сводится к минимуму. Великий код также удерживает открытое окно для последующих дополнений.

Другие инженеры могут добавлять код с присущей им элегантностью, и продукт развивается без проблем.

В основе любого рукотворного продукта лежит намерение. Вещи, сделанные людьми, пропитаны намерениями, и в той или иной степени являются носителями самой природы создателя. Некоторым бывает сложно представить себе неодушевленный объект, обладающий такой природой. Но многие с этим согласятся.

Энергия намерений существует тысячи лет, унифицирует, делит, объединяет, трансформирует социум. Нельзя недооценивать и силу языка. Не забывайте, что линии кода написаны определенным языком программирования.

Таким образом, я убежден, что код, который становится программным обеспечением, используемым на компьютерах или мобильных устройствах, весьма «живой».

Не рассматривая мудрость и духовность в контексте информатики и потенциальных последствий искусственного интеллекта, мы все еще можем рассматривать статический код как единое целое с потенциалом «творить добро» или «творить зло».

Важно

Эти выходы обретают себя только в процессе использования приложений людьми. Именно четкий выбор, который делают люди, влияет на природу приложения.

Их можно рассматривать в локальной системе, определяя положительное или отрицательное влияние на эту систему, или же на основе набора заранее определенных стандартов.

Тем не менее, как журналист не может быть на 100% беспристрастным в процессе написания статьи, так и инженер вольно или невольно добавляет природу своих намерений в код. Некоторые могут возразить, мол, написание кода — это логический процесс, и настоящая логика не оставляет пространства для природы.

Но я уверен, что в момент, когда вы создаете правило, блок кода или весь код, это все проникается элементом человеческой природы. С каждым дополнительным правилом углубляется проникновение пророды. Чем сложнее код, тем больше в нем этой природы. Отсюда рождается вопрос: «Может ли природа кода быть доброй или злой?».

Очевидно, вирус, разработанный хакером, который злонамеренно пробивается сквозь защиту компьютера и сеет хаос в вашей жизни, пропитан злой природой.

Но как насчет вируса, созданного «хорошими ребятами» с целью проникновения в компьютеры террористической организации ради предотвращения террористических актов? Какова его природа? Технически он может быть идентичен свому гнусному двойнику, просто используется для «хороших» целей.

Так значит его природа добрая? В этом весь этический парадокс вредоносного программного обеспечения. Но мы не могли обойти стороной, размышляя о «злом» коде.

По моему мнению, существует код, который по своей сути тяготеет к «злу», и существует код, который по своей сути смещен в сторону доброжелательности. Это принимает более важное значение в контексте компьютеров, работающих в автономном режиме.

Совет

В Kwikdesk мы разрабатываем фреймворк ИИ и протокол, основанный на моей конструкции экспертной системы/гибрида нейронной сети, которая больше всего созданного на сегодняшний день напоминает биологическую модель.

Нейроны проявляются в виде модулей ввода/вывода и виртуальных устройств (в определенном смысле автономных агентов), соединенных «аксонами», безопасными, разделенными каналами зашифрованных данных. Эти данные расшифровываются по мере входа в нейрон и после определенных процессов зашифровываются перед отправкой в следующий нейрон.

Перед тем как нейроны смогут связаться друг с другом через аксон, должен произойти обмен ключами участника и канала.

Я считаю, что безопасность и разделение должны быть встроены в такие сети с самого низкого уровня. Надстройки отражают качества своих мельчайших компонентов, поэтому все, что меньше безопасных строительных блоков, приведет к небезопасной работе всей линии. По этой причине данные должны защищаться локально, а расшифровываться при локальной передаче.

Внедрение и гарантии

Качество нашей совместной жизни с машинами, которые становятся умнее и умнее, по понятным причинам вызывает обеспокоенность, и я абсолютно уверен, что мы должны принять меры, чтобы обеспечить здоровое будущее грядущим поколениям. Угрозы умных машин потенциально многообразны, но могут быть разбиты на следующие категории:

Резервирование. На рабочих местах людей будут заменять машины. Этот сдвиг происходит уже в течение многих десятилетий и будет только ускоряться. Необходимо соответствующее образование, чтобы подготовить людей к будущему, в котором сотни миллионов традиционных рабочих мест просто перестанут существовать. Это сложно.

Безопасность. Мы полагаемся на машины всецело и будем полагаться дальше. По мере того, как мы все больше доверяем машинам во время перехода из безопасной зоны в зону потенциальной опасности, мы можем столкнуться с риском машинной ошибки или вредоносного кода. Подумайте, например, о транспорте.

Здоровье. Персональные диагностические устройства и сетевые медицинские данные. ИИ будет продолжать развиваться в области превентивной медицины и анализа краудсорсных генетических данных. Опять же, мы должны иметь гарантии, что эти машины не будут вести вредоносную подрывную деятельность и никак не смогут нам навредить.

Судьба. ИИ с нарастающей точностью предсказывает, куда вы пойдете и что будете делать. По мере развития этой сферы, он будет знать, какие решения мы принимаем, куда пойдем на следующей неделе, какие продукты будем покупать или даже когда мы умрем. Хотим ли мы, чтобы другие имели доступ к этим данным?

Знания. Машины де-факто накапливают знания. Но если они будут приобретать знания быстрее, чем люди смогут их проверять, как мы сможем доверять их целостности?

В заключение хочу отметить, что бдительный и ответственный подход к ИИ для смягчения потенциальных неприятностей в технологическом взрыве сверхновой — наш путь. Мы либо укротим потенциал ИИ и будем молиться, чтобы он приносил человечеству только лучшее, либо сгорим в его потенциале, который будет отражать худшее в нас.

Источник 

Источник: http://xfaktnews.ucoz.ru/publ/interesnye_fakty/kak_zashhititsja_ot_iskusstvennogo_intellekta/3-1-0-97

Ссылка на основную публикацию
Adblock
detector