Искусственный интеллект используют для борьбы с подростковым насилием

Искусственный интеллект используют для борьбы с подростковым насилием

Американские ученые разработали компьютерную программу, позволяющую выявить агрессивно настроенных подростков.

Исследователи из университета Цинциннати создали алгоритм, который по ответам человека на вопросы психологического теста оценивает предрасположенность интервьюера к эмоциональным всплескам и физическому насилию.

Главная цель программы, основанной на использовании систем искусственного интеллекта, заключается в предотвращении случаев школьного насилия, волна которого в последнее время захлестнула США.

Обратите внимание

В исследованиях приняли участие более 100 подростков в возрасте от 12 до 18 лет. Их отобрали для проведения компьютерного анкетирования из 74 учебных заведений.

Специально для эксперимента были приглашены подростки, испытывающие проблемы с подавлением приступов агрессии по отношению к окружающим.

Специалисты провели психологическое тестирование не способных управлять собственными эмоциями учащихся и загрузили полученные данные в разработанную ими компьютерную программу.

Специально для анализа введенной информации был создан алгоритм на основе нейронных сетей с использованием метода машинного обучения.

Все ответы и реакции проблемных подростков в ходе опроса стали для компьютерной программы своеобразным эталоном поведения учащихся из группы риска.

Уровень агрессии оценивался по специально разработанной шкале, которая была протестирована в ходе предыдущих исследований американских ученых.

Руководитель научной группы и директор службы судебной психиатрической помощи детям и подросткам Дрю Барзман по завершении эксперимента заявил о том, что точность прогнозирования уровня агрессии подростка с помощью созданной системы превышает 91%. Этот показатель становится еще выше в случае, если загрузить в программу дополнительную демографическую и социально-экономическую информацию.

Дрю Барзман считает, что такая точность прогнозирования вспышек агрессии со стороны отдельных учащихся позволит избежать ряда школьных трагедий, когда подростки берутся за оружие.

Важно

Для этого потребуется лишь своевременно проводить психологические тестирования в учебных заведениях и внимательно относится к результатам таких опросов.

Барзман настаивает на повсеместном использовании в американских школах и колледжах разработанной технологии автоматического выявления потенциально опасных учащихся и проведение с ними необходимой профилактической работы для предотвращения случаев школьного насилия.

Источник: https://neuronus.com/news-tech/1400-iskusstvennyj-intellekt-ispolzuyut-dlya-borby-s-podrostkovym-nasiliem.html

Сможет ли искусственный интеллект остановить религиозные войны

Ученые пытаются найти способы предотвратить религиозное насилие с помощью программного обеспечения, моделирующего человеческое общество.

Исследователи использовали алгоритмы искусственного интеллекта для моделирования действий религиозных групп, причем модель состоит из тысяч агентов, представляющих разные этнические группы, расы и религии.

В Норвегии и Словакии пытаются использовать технические решения для разрешения напряженности, возникающей, когда в преимущественно христианских странах появляются мусульманские иммигранты.

Исследователи из Оксфордского университета надеются, что их система поможет правительствам в выборе мер, принимаемых в ответ на различные инциденты — примером могут служить недавние теракты в Лондоне.

Впрочем, независимый эксперт, профессор Ноэль Шарки, считает, что инструмент пока не готов к использованию в реальной ситуации: «Когда этот проект будет доведен до ума, он может стать чрезвычайно ценным подспорьем при анализе религиозных конфликтов».

Определяющие убеждения

Работа, опубликованная в научном издании Journal for Artificial Societies and Social Stimulation («Искусственные сообщества и социальное стимулирование»), показала, что люди — по природе мирные существа, и это свойство нашего характера сохраняется даже во время кризисов и стихийных бедствий.

Но, как показало моделирование, в некоторых случаях люди готовы одобрить насилие: обычно тогда, когда другие группы людей оспаривают их определяющие убеждения.

Исследователи обратила внимание на проблемы Северной Ирландии. Они попытались смоделировать условия, при которых «социальная тревожность, вызванная ксенофобией», перерастает в физическое насилие. Конфликт, в котором, кроме религии, важную роль сыграли политические и культурные факторы, длился три десятилетия и унес жизни примерно 3,5 тыс. человек.

Базовые страхи

AP Photo/Manish Swarup

Компьютерная модель также использовала сценарии беспорядков 2002 года в индийском Гуджарате — тогда в ходе трехдневных столкновений между общинами индуистов и мусульман погибли 2 тыс. человек.

Один из автор исследования, Джастин Лейн сказал: «Чтобы изучать религию и культуру с помощью ИИ, нам нужно научиться моделировать человеческую психологию, потому что религия и культура опираются именно на нее». Он добавил:

Полученные результаты показывают, что риск религиозного конфликта возрастает, если основные убеждения или священные ценности группы оспариваются настолько часто, что люди перестают справляться с ситуацией. Впрочем, согласно модели, даже при таком развитии событий реакция становится насильственной только в 20% сценариев.

Совет

Лейн говорит: «Религиозное насилие — это не обычное поведение людей, а довольно редкие эпизоды нашей истории. Только когда люди чувствуют, что под угрозой оказывается их система ценностей, или что их приверженность к ней оспаривается, у них возникает тревога, которая может вылиться в беспорядки».

Он добавляет: «Мы могли бы обмануть психику, приняв других людей как часть нашей собственной группы — в этом случае они уже не будут вызывать у нас такой страх».

Чужаки

Исследователи считают, что один из возможных методов борьбы с религиозным насилием и терроризмом — создать условия, которые бы мешали людям видеть угрозу в аутсайдерах.

Наиболее рискованны ситуации, когда размеры религиозных групп похожи, и люди встречают «чужаков» довольно часто.

Надо сказать, встречи не должны быть личными — для ощущения угрозы вполне достаточно почитать СМИ или увидеть что-то в социальных сетях.

Лейн предупреждает: да, каждый из нас живет в собственном информационном пузыре, но мы все же получаем довольно много информации снаружи группы, и, похоже, эта информация вызывает у нас определенную реакцию, даже если реального человека за ней нет”.

Он резюмирует: «Образ угрозы может вызывать ту же реакцию, что и реальная угроза».

Источник: https://ru.ihodl.com/technologies/2018-11-08/smozhet-li-iskusstvennyj-intellekt-ostanovit-religioznye-vojny/

Китай хочет внедрить технологию «предсказания преступлений»

Властей Китая заинтересовала сфера предикативного анализа, технологии лицевого распознавания и другие аспекты, связанные с искусственным интеллектом (ИИ), которые можно будет использовать для предотвращения будущих преступлений. Анализируя модели поведения, власти будут уведомлять местную полицию о потенциальных преступниках. Да-да, вы прочитали правильно, все как в научно-фантастическом фильме Стивена Спилберга «Особое мнение».

Компания Cloud Walk, штаб-офис которой находится в городе Гуанчжоу, проводит машинное обучение систем лицевого распознавания, а также анализа и оценки больших массивов данных для отслеживания уровня риска потенциальных преступников.

Те, кто является завсегдатаями магазинов по продаже оружия или часто посещает различные транспортные узлы, вероятнее всего, будут отмечены системой.

Обратите внимание

Под «подозрение» могут попасть даже посетители хозяйственных магазинов, потому как эти места рассматриваются властями зонами «повышенного риска».

Программное обеспечение Cloud Walk уже связано по сети с базой данных полиции более 50 городов и провинций и может отмечать подозрительных личностей в режиме реального времени.

В стране также уже действует система «личностной переидентификации», использующейся в качестве меры предупреждения преступлений: система способна производить идентификацию людей в различных местах, даже если они носят разную одежду.

Китай, безусловно, является одним из тех идеальных мест, где подобные технологии могли бы использоваться на полную катушку.

Благодаря использованию более 176 миллионов камер наблюдения, правительство располагает огромными исчерпывающими базами данных о своих гражданах.

Другими словами, страна предоставляет огромную площадку для сбора всей интересующей информации и, следовательно, позволяет эффективно обучать свои ИИ-системы, при этом без каких-либо юридических препятствий.

Но это далеко не единственные пути, с помощью которых Китай может расширить способности своих ИИ-систем. Правительство этой страны на днях объявило о масштабном, продуманном и профинансированном плане по превращению Китая в мирового лидера сферы искусственного интеллекта к 2030 году.

Власти устанавливают системы лицевого распознавания в школах для предотвращения обмана со стороны учащихся на экзаменах, на улицах для предупреждения нарушений правил пешеходами и даже в общественных туалетах (!) для снижения неэффективной траты туалетной бумаги (!!!), как пишет портал Futurism.

Важно

Поэтому совсем неудивительно, если правительство этой страны захочет использовать ту же технологию для борьбы с преступлениями и, возможно, даже их предсказаниями.

Читайте также:  Искусственный интеллект в бизнесе

Как бы ни относились к планам Китая в желании использовать систему, которая создавалась явно под вдохновением от фильма «Особое мнение», искусственный интеллект действительно способен сделать мир безопаснее.

Несмотря на то, что ИИ, безусловно, обладает потенциалом использования в качестве средства для наблюдения, он также может использоваться для защиты личной жизни, информации о здоровье, финансовом положении, а также в качестве средства для предотвращения хакерских атак.

Искусственный интеллект может отвечать за камеры безопасности, роботов-охранников и помочь в создании более эффективных военных технологий. ИИ будет способен как минимум на 90 процентов снизить количество случаев автокатастроф.

Другими словами, можно возражать и быть против использования ИИ в отдельно взятых сферах, но глупо и недальновидно возражать против технологии искусственного интеллекта в целом, по крайней мере если вас действительно беспокоит будущее нашей безопасности и конфиденциальности как в Интернете, так и за его пределами.

Источник: https://Hi-News.ru/technology/kitaj-xochet-vnedrit-texnologiyu-predskazaniya-prestuplenij.html

Эффективность искусственного интеллекта в борьбе с киберпреступностью

Искусственный интеллект — основной инструмент в борьбе с современными киберугрозами, благодаря алгоритмам машинного обучения и обработке больших массивов данных

В последнее время сфера искусственного интеллекта (ИИ), существующая уже много лет, стала как никогда актуальной. Хотя это может звучать несколько противоречиво, но все разговоры вокруг ИИ и связанной с ним технологией машинного обучения будут длиться еще достаточно долго. Ведь ИИ имеет очень важное значение в борьбе с постоянно растущим количеством разнообразных киберугроз.

Искусственному интеллекту уже более 60 лет

Все началось с Дартмутской конференции по вопросам искусственного интеллекта, которая состоялась летом 1956 года в одноименном колледже. С тех пор про ИИ было снято множество фильмов, где он, как правило, предстает в виде роботов с человеческими мыслями и чувствами. Однако в реальной жизни ИИ кардинально отличается от того, каким его изображают в фильмах.

ИИ применяется в компьютерных технологиях, которые могут выполнять задачи, имитируя человеческий разум. Он применяется в здравоохранительной и финансовой сферах, а также в сфере обслуживания и некоторых других.

Совет

Особый интерес вызывает и подвид ИИ — процесс, посредством которого компьютеры создают алгоритмы машинного обучения для принятия решений на основе шаблонов данных. Таким образом в процессе анализа больших массивов данных компьютеры обучаются.

Уже много лет компания Avast использует ИИ и технологии машинного обучения для защиты клиентов от киберугроз. Одна из наших систем, MDE, использует метод машинного обучения, который был разработан нашими специалистами по безопасности в 2012 году.

Почему даже самый опытный аналитик не может сравниться с искусственным интеллектом?

На заре компьютерной эры и интернета мы использовали цифровые подписи, для классификации различных типов угроз. Для их создания необходима работа специалиста и время, но чтобы идентифицировать огромное разнообразие современных новых киберугроз, их труда уже недостаточно. Проблему нехватки человеческих ресурсов и времени решают технологии искусственного интеллекта и машинного обучения.

Они становятся все более важным элементов, в виу появления все новых разновидностей вредоносных программ, которые часто выглядят как безвредные файлы, а также вирусов, которые могут видоизменяться, что еще больше затрудняет обнаружение таких угроз антивирусными системами. Более того, вредоносное ПО также продается на просторах даркнета, позволяя людям даже с небольшими техническими знаниями приобретать и распространять новые вредоносные программы.

Конечно, специалисты по кибербезопасности могут определять безопасность файлов, но для этого необходимо проверить их код.

Проанализировать каждый файл таким образом физически невозможно, учитывая, что каждый день мы сталкиваемся с более чем миллионом новых файлов.

Вряд ли вы захотите пользоваться сканером вредоносных программ или средством для их удаления, которые полагались бы исключительно на человеческие возможности.

С другой стороны, компьютеры прекрасно с этим справляются. Чтобы заставить их делать то, что аналитики обычно делают вручную, мы создали алгоритмы, которые раскладывают файлы в нужный нам вид.

Обратите внимание

Алгоритмы машинного обучения извлекают определенные характеристики, так называемые «отпечатки пальцев», из получаемых файлов.

Данные, которые извлекаются в результате, намного меньше исходных и поэтому подходят для массовой обработки и, что особенно важно, быстрого принятия решений.

Мы постоянно обучаем наши компьютеры

Поскольку масштаб угроз постоянно увеличивается, мы постоянно совершенствуем наполняем базы знаний наших машин о различных типах чистых и вредоносных файлов, чтобы они могли их лучше различать. Для этого наши аналитики преобразовывают полученные сведения о новых методах злоумышленников в алгоритмы, на основе которых наши машины учатся принимать решения на основе полученных данных.

Разумеется, наша способность делать все это зависит от данных, которые мы можем предоставить нашим компьютерам для числовых расчетов. Чем больше данных мы предоставим, тем точнее будут решения, принимаемые нашими системами.

Благодаря более чем 400 миллионам наших пользователей во всем мире, мы располагаем огромным количеством информации, на основе которой анализируем огромные массивы данных для определения вредоносных файлов.

В конечном итоге сочетание больших массивов данных, технологий машинного обучения и искусственного интеллекта позволяет нам предоставлять самую быструю и надежную защиту от вредоносного ПО.

Источник: https://blog.avast.com/ru/effektivnost-iskusstvennogo-intellekta-v-borbe-s-kiberprestupnostyu

Миллиардер Илон Маск основал НКО для борьбы с враждебным искусственным интеллектом

Основатель компаний Tesla и SpaceX Илон Маск давно выступает с предостережениями о том, что в случае создания настоящего искусственного интеллекта думающая машина будет настроена враждебно по отношению к человечеству. Сегодня Маск объявил о создании научного НКО, которое будет заниматься проблемами, которые могут возникнуть при разработке самообучающихся компьютеров.

НКО под названием OpenAI получит финансирование в размере $1 млрд, сообщает портал Mashable. Основной целью НКО станет изучение разработки искусственного интеллекта, который не будет представлять опасности для человечества.

«Мы полагаем, что ИИ должен быть продолжением индивидуальной воли человека и, в соответствии с идеалами свободы и равенства, должен быть распространён широко и без привилегий между всеми членами общества.

Трудно представить, сколько пользы может принести человеку ИИ, сопоставимый по уровню развития с человеком, и так же сложно представить, какой урон он может нанести, если будет неправильно разработан или использован», — говорится в программном заявлении на сайте OpenAI.

Важно

OpenAI также сообщила, что все результаты исследований, которые будут проводиться под её эгидой, будут доступны широкой публике. Они будут распространяться через публикации НКО и открытые патенты.

«Мы полагаем, что лучший путь развития для ИИ будет заключаться в следовании идеалам личной свободы, саморазвития и доступности всем членам общества, поскольку он будет монолитным существом, которое станет в миллионы раз могущественнее человека», — рассказал Backchannel сооснователь НКО Сэм Олтмэн.

Проблема создания безопасного искусственного интеллекта, широко представленная в научной фантастике, недавно вновь привлекла внимание исследователей, философов-футуристов и любителей популярной науки после того, как в интернете разгорелись дебаты вокруг мысленного эксперимента под названием Василиск Роко.

Эксперимент был описан одним из пользователей интернет-сообщества Less Wrong, основателем которого является учёный Элиезер Юдковски. Участник сообщества под псевдонимом Roko предложил провести мысленный эксперимент, в котором человечество, наконец, создаёт искусственный интеллект, наделённый почти неограниченными возможностями.

Далее экспериментаторам предлагается представить, что машина, получившая имя «Василиск», будет уверена в своей абсолютной полезности для человечества и захочет наказать всех, кто мог прямо или косвенно препятствовать её созданию.

Для этого Василиск создаст виртуальную реальность, которую будут населять двойники всех представителей человечества. Василиск, наделённый божественными силами, подвергнет вечным мукам тех, кто препятствовал его созданию.

Читайте также:  Искусственный интеллект спасет космонавтов от одиночества

Эксперимент также предполагает, что в настоящем времени человечество может находиться в такой симуляции, и, узнав об эксперименте, каждый автоматически принимает в нём участие.

Подобная концепция настолько напугала учёных и пользователей сети, что в течение некоторого времени статьи и обсуждения Василиска Роко удалялись с форумов из-за опасения вовлечения новых людей в эксперимент.

Источник: https://russian.rt.com/article/136199

Искусственный интеллект – угроза или помощник для человечества?

Ксения Гогитидзе Би-би-си, Лондон

Image caption Симбиоз человека и машины – один из путей развития человечества

Умные машины научились блефовать, обыгрывать профессионалов в шахматы или Го, переводить и распознавать человеческий голос. Каждую неделю мы узнаем о все новых подвигах компьютерных программ, уже умеющих ставить медицинские диагнозы, рисовать не хуже Рембрандта, петь или генерировать текст. Стоит ли человеку опасаться искусственного интеллекта?

По-настоящему “горячей” тема искусственного интеллекта (ИИ/AI) стала в последние несколько лет. Ученые связывают это с бурным развитием нейронных сетей (одно из направлений исследований в области искусственного интеллекта), которое, в свою очередь, стало возможным с появлением мощных компьютеров.

“С начала 2010-х годов под влиянием впечатляющих успехов, полученных в результате применения многослойных нейронных сетей (в первую очередь сверточных и рекуррентных), эта область привлекла серьезное внимание как со стороны ученых и инженеров, так и со стороны инвесторов”, – комментирует автор одной из российских шахматных программ, специалист по методам машинного обучения Сергей Марков.

Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий окажет безусловное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект развивается в безопасном для людей направлении.

Этот материал подготовлен в качестве ответа на вопросы, присланные нашими читателями о научных достижениях. Задать свои вопросы по другим темам вы можете по этим ссылкам (О жизни в Британии, О культурной жизни Лондона).

Экономический эффект и влияние на рынок труда

Научная фантастика и Голливуд сформировали представление об “искусственном интеллекте” как о следующей форме жизни на планете, которая поработит человечество в Матрице или организует ему ядерный Судный день. Выживших добьет Терминатор.

Правообладатель иллюстрации Getty ImagesImage caption Умрет ли человечество от Skynet?

В действительности, несмотря на последние достижения в области искусственного интеллекта, до появления разумных машиносуществ еще далеко, признают ученые и специалисты. И те, и другие, впрочем, советуют на некоторые аспекты обратить внимание уже сейчас.

По оценкам исследовательской организации McKinsey Global Institute, в ближайшие десять лет новые технологии радикально изменят рынок труда на планете, что позволит сэкономить порядка 50 трлн долларов.

Совет

Изменения коснутся сотен миллионов рабочих мест. Люди все больше и больше будут перекладывать часть своих служебных заданий и многие рутинные задачи на машину, что позволит им сосредоточиться на творческой работе.

“С некоторой точки зрения у человечества в целом есть важная и интересная задача – развиваться каждому конкретному индивидууму гораздо быстрее, чем человечество развивает системы искусственного интеллекта”, – считает эксперт, директор по распространению технологий “Яндекса” Григорий Бакунов.

Но вместе с автоматизацией неминуемо пострадают менее квалифицированные кадры, и уже сейчас необходимо задуматься, как их защитить, переучить и подготовить к новой жизни.

Пострадать, как показывает практика, могут не только синие воротнички, но и работники умственного труда. Несколько дней назад Goldman Sachs заменил команду из 600 трейдеров на двух человек и автоматизированные программы алгоритмического трейдинга, для обслуживания которых были наняты 200 разработчиков-программистов.

Правообладатель иллюстрации ThinkstockImage caption Многие задачи вскоре станут по силам роботизированным системам, которые последовательно начнут заменять людей

Искусственный интеллект сам по себе не тождественен автоматизации процессов, но развитие ИИ приведет к тому, что все больше задач будет по силам компьютерной программе.

Среди вариантов решения проблемы вытеснения человека машиной на рынке труда, как указывает Аллисон Дютман, координатор программ Foresight Institute – некоммерческой организации, базирующейся в Силиконовой долине для продвижения новых технологий, – введение понятия “универсальный базовый доход”, который бы получал каждый житель вне зависимости от уровня дохода и занятости. Подобный доход финансировался бы за счет так называемого инновационного налога Land Value Tax, введение которого сейчас активно обсуждается в Силиконовой долине.

Личность ли искусственный интеллект?

Источник: https://www.bbc.com/russian/features-38931070

Угроза искусственного интеллекта

Человек всегда боится того, что не может понять и осознать, особенно радикальных изменений будущего, и так было всегда.

То ли это переход от лошадей к автомобилям, от свечей к электричеству, то ли отсутствие связи с всемирной паутиной под названием интернет. Наступила новая эпоха развития современных технологий и их потребления человечеством.

Мобильная связь, Viber, Skype, социальные сети и прочие элементы виртуальной связи уже давно стали для нас привычными вещами.

Обратите внимание

Что нас ждет в ближайшие десятилетия? Успешное создание искусственного интеллекта? К сожалению, это событие может оказаться последним, если человечество не научится избегать рисков. В будущем может случиться так, что никто и ничто не сможет остановить машины с искусственным интеллектом от самосовершенствования.

А это запустит процесс так называемой технологической сингулярности — чрезвычайно быстрого технологического развития.

Искусственный интеллект сможет превзойти человека и начнет управлять финансовыми рынками, научными исследованиями, людьми, разработкой оружия… Краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, а долгосрочный — от того, можно ли будет им управлять вообще.

Искусственный интеллект давно притягивает ученых и одновременно пугает. Идея о переносе сознания человека на электронный носитель не является новой или уникальной.

Много раз мы «наблюдали искусственный интеллект в действии»: Скайнет, уничтоживший человечество в «Терминаторе», Архитектор, поработивший мир в «Матрице»… Человечество планомерно приучается к угрозе искусственного интеллекта.

Так что же произойдет, если действительно появится кто-то или что-то, способное превзойти нас? И что будет преобладать у искусственного интеллекта — человек или искусственный поток информации, сознание или чип?

Меня впечатлил фильм «Превосходство» с участием Джонни Деппа.

Вопросы, поднятые в картине, могут стать более чем актуальными не в гипотетически обозримом будущем, а в любой момент настоящего, ведь работы по созданию искусственного интеллекта становятся всё более сложными, а сам искусственный интеллект — независимым и самостоятельным. К каким необратимым последствиям может привести желание обессмертить человеческую природу за счёт объединения живого организма с компьютерным разумом?

Важно

Фильм «Превосходство»- рассказ об эволюции. Выдающийся исследователь в области изучения искусственного интеллекта доктор Уилл Кастер (Джонни Депп) работает над созданием компьютера, который сможет собрать в себе все знания и опыт, накопленные человечеством.

Эксперименты, проводимые Уиллом, сделали его основной целью анти технологической группировки. Однако в своих попытках уничтожить Уилла радикалы добиваются обратного и становятся участниками становления абсолютного превосходства искусственного интеллекта.

Оцифрованное сознание Уилла Кастера копирует себя на каждое электронное устройство с выходом в интернет. Уилл Кастер, по сути, обрёл силу бога. Но он не стремился к мировому господству. Он хотел создать совершенный мир, без войн, голода и разрухи. Но человечество оказалось не готовым к таким переменам.

Герой Джонни Деппа доказывает, что даже будучи оцифрованным, руководствуясь благими намерениями по спасению мира и человечества, можно быть не понятым, убитым и проигравшим.

Мы подсознательно настроены на отказ от новых технологий, если есть риск, что их использование приведёт к гибели человечества, мы инстинктивно боимся перешагнуть точку невозврата — когда не сумеем справиться с последствиями спровоцированных цивилизацией глобальных изменений.

Читайте также:  Несколько идей, которые изменят будущее

Но что, если точка невозврата уже пройдена? Компьютеры подчиняются закону Мура: их скорость и сложность удваиваются каждые 18 месяцев. Этот рост будет продолжаться, пока компьютеры, по сложности устройства, не сравняются с человеческим мозгом.

Опасность, что они смогут разработать искусственный интеллект и захватить мир, реальна.

Как сказал Мичио Каку: «от того, как мы справимся с вызовами и возможностями начавшегося века, будет зависеть, окончательная траектория дальнейшего движения человеческой расы».

Совет

Фильм «Превосходство» не оставил равнодушным самого известного ученого планеты Стивена Хокинга. В статье для Independent ученый предупреждает, что вполне вероятны негативные последствия от создания совершенного искусственного интеллекта. Хокинг считает создание искусственного интеллекта, «возможно, худшей ошибкой в истории».

«Заглядывая в будущее, существенных ограничений нет: не существует физического закона, который бы не давал частицам переупорядочить себя таким образом, чтобы выполнять даже более сложные операции, чем те, что доступны человеческому мозгу», — предупреждает Стивен Хокинг.

Источник: https://zhitanska.com/content/ugroza-iskusstvennogo-intellekta/

Искусственный интеллект. Осторожно: разводка!

Искусственный интеллект… Как много в этом звуке слилось для сердца программиста, любителя научной фантастики и просто интересующегося судьбами мира!

Благодаря лучшему другу человека роботу R2-D2 и зловещему Скайнету, Космической одиссее-2001 и андроидах, мечтающих об электроовцах, в мире очень много искусственного интеллекта.

Его можно встретить в книжках, на киноэкранах, в комиксах и … в рекламных материалах недавно появившихся, но амбициозных секюрити-компаний.

Единственное, где его (возможно, пока) нет даже близко – в нашей банальной повседневной реальности и реальной повседневности.

«Автоматизация – друг, а не враг». Что за история у картинки? Взял здесь

Со времен Алана Тьюринга и Норберта Винера вычислительные машины прошли огромный путь. Они научились (точнее их научили) играть в шахматы и го лучше людей. Они управляют самолётами и автомобилями, пишут газетные заметки, ловят вирусы, и делают массу других полезных и иногда не очень вещей.

Они даже (вроде бы) прошли тест Тьюринга на способность мыслить. Однако чат-бот, изображающий 13-летнего подростка, и больше ничего не умеющий – это просто алгоритм и набор библиотек. Это не искусственный интеллект. Кто сомневается – см. определение «ИИ», потом см.

определение «Алгоритма», а потом см. отличия.

Сейчас в мире очередная волна интереса к ИИ-теме, уж не знаю какая по счету.

Модные оксфордские философы пишут книги об искусственном интеллекте.

Основной вопрос: что же, блин, случится с Родиной и с нами, когда (и если) такая вещь будет создана? Что там, внутри технологической сингулярности? Полный и окончательный аллес капут или райские кущи? В данном случае философ настроен пессимистично и считает, что а) ИИ будет изобретен и б) человечеству от этого, скорее всего, придет хана.

Обратите внимание

Там в книге автор ещё опросил экспертов в сфере ИИ, и у них получилось, что существует 50% вероятность создания искусственного интеллекта к 2040-му году и 90% вероятность к 2075-му.

Это довольно забавная игра в вероятности. Как встреча на улице с динозавром. Либо встретишь, либо нет, фифти-фифти. Либо создадут ИИ, либо не получится.

Ну и к 2075-му либо шах, либо ишак точно сдохнет, и обсуждать проблематику ИИ будут уже другие люди.

Однако один логический вывод из всего этого вполне можно сделать: пока настоящего ИИ точно не существует.

Я недавно был в Южной Корее, и меня местный журналист несколько раз спрашивал об искусственном интеллекте в кибербезопасности. Я дал гневный отпор. Потому что я не вижу смысла говорить о том, чего нет.

Искусственный интеллект должен уметь сам учиться, адаптироваться, принимать решения в совершенно новых ситуациях с непонятным набором разноформатных вводных данных. При этом он должен иметь внутреннюю мотивацию и передавать изменения в конструкции своим наследникам.

Собственно, именно в момент, когда машины, достигшие интеллектуального уровня человека, научатся делать ещё более умные машины, а те – ещё более умные, и так по экспоненте, и случится взрыв интеллекта и конец истории человечества, как мы её знаем. По крайней мере, так говорят футурологи.

Но когда это случится? Раньше ли, например, чем групповой полёт на Альфа-Центавру?

Источник

Посмотрим, до 2075-го и даже до 2040-го время пока есть!

Однако если вернуться в земной 2016-й, то, как я писал выше, основное место обитания ИИ – это популярная культура и маркетинг. В предыдущем обзоре эволюционных процессов мира кибербезопасности я уже писал об этом: сегодня всё больше мелких и не очень контор пытаются продавать всякое фуфло под видом лекарства от всех киберболезней, налепив на свои свистелки и перделки гордое знамя ИИ.

Под видом искусственного интеллекта пользователям продают откровенное фуфло

К сожалению, глобальная волна интереса к этой тематике означает не только новые научные проекты, например, в области нейронных сетей. Ещё она выбрасывает на берег грязную пену и мутную жижу.

Важно

Говорят, что уже есть не только истребители, но и водка пятого поколения. И часто слышишь, что и в мире кибербезопасности на костях динозавров и останках спрутов на наших глазах пробивается крепкая молодая зелень. Это nextgen продукты, обеспечивающие невиданную точность обнаружения малвари с помощью продвинутого искусственного интеллекта.

Так вот, если вам рассказывают что-то в этом духе – то я бы рекомендовал немедленно открывать огонь на поражение насторожиться. Можно поинтересоваться у румяных энергичных продавцов, как они оценивают свои перспективы в плане многочисленных Нобелевский премий? Спасибо им сказать.

Все-таки, величайшее изобретение в истории человечества, а скромняги решили в кибербезопасности применить его для начала. Прежде чем мир перевернуть.

Кстати, любопытно насколько хорошо этот ИИ проходит тест Тьюринга? Хотя бы в роли 13-летнего подростка из Одессы получается кого-то убедить в своей интеллектуальности?

Удовлетворительных ответов на эти вопросы вы не получите. Потому что пока никакого ИИ не существует. Снова и увы.

Искусственного интеллекта пока нет. Но есть машинное обучение и оно широко используется в кибербезопасности

Что действительно существует – это машинное обучение. Такие технологии используются очень много где и уже почтенно давно. В кибербезопасности, например, роботы делают очень много вещей.

Они находят и идентифицируют малварь, анализируют ее, создают «репеллент», тестируют его, распространяют, делая частью защиты. Всё это происходит сотни тысяч раз в день в автоматическом режиме. Роботы при этом учатся, детект непрерывно корректируется и улучшается.

Какие-то крохи, доли процента, люди разгребают руками.

Искусственный ли это интеллект у нас на работе? Нет, это просто компьютерные алгоритмы, в нашем случае, очень хорошие, написанные с высочайшим профессионализмом, талантом и любовью к борьбе с кибернегодяйством. Называть это ИИ было бы умышленной подменой понятий.

Совет

Если же вам на полном серьёзе продают самосовершенствующийся ИИ, который должен защищать ваши компьютеры от всех угроз, то перед вами люди, вообще не понимающие, о чём они говорят. Либо заведомые мошенники. Третьего, как говорится, не дано..

В общем, если кто-то изобретет ИИ, то как только об этом станет известно широкой публике, это окажет колоссальное влияние отнюдь не только на небольшую (но очень важную) отрасль кибербезопасности.

Можно пытаться продавать семейные седаны эконом-класса, называя их космическими кораблями Ностромо, но летать от этого они выше не научатся.

И, как бы ни хотелось обрести абсолютную защиту прямо здесь и сейчас, самообман никогда ни к чему хорошему не приводил. А кормить дилеров фуфла как-то и вовсе незачем.

Источник: https://eugene.kaspersky.ru/2016/06/07/iskusstvennyj-intellekt-ostorozhno-razvodka/

Ссылка на основную публикацию
Adblock
detector