Великобритания задействует искусственный интеллект для обеспечения безопасности

Как искусственный интеллект может противостоять киберугрозам

08.11.2017 Мария Королов

Уже давно стало ясно, что компаниям нужно в обязательном порядке реагировать на все возрастающее количество предупреждений систем безопасности.

А с учетом скорости, с которой в 2017 году распространялись по миру атаки вирусов-вымогателей, и все более жестких законодательных требований реакция должна быть гораздо более быстрой.

В условиях дефицита соответствующих специалистов компании обращаются к средствам машинного обучения и искусственного интеллекта для автоматизации процессов безопасности.

Что такое искусственный интеллект и машинное обучение?

В контексте информационной безопасности искусственный интеллект – это ПО, способное интерпретировать состояние среды, распознавать происходящие в ней события и самостоятельно принимать необходимые меры. ИИ особенно хорошо справляется с распознаванием закономерностей и аномалий, поэтому может быть прекрасным инструментом обнаружения угроз.

Системы машинного обучения – это ПО, способное самостоятельно обучаться на введенных человеком данных и результатах выполненных действий. Средства машинного обучения способны строить прогнозы, опираясь на сведения о развитии событий в прошлом.

Применение искусственного интеллекта и машинного обучения для обнаружения угроз

В компаниях уже начали пользоваться искусственным интеллектом и машинным обучением для распознавания угроз безопасности и реагирования на них. Появились достаточно мощные инструменты, но нужно определиться, как включить их в общую стратегию кибербезопасности предприятия.

Например, в банке Barclays Africa применяют искусственный интеллект для обнаружения признаков компрометации систем в локальной корпоративной сети и в облаке. При этом требуется обработка гигантских объемов данных, а в связи с быстрым изменением мирового ландшафта угроз и растущим взаимодействием атакующих, для противостояния им необходимы самые передовые технологии и методы.

Внедрив машинное обучение, людям можно поручить задания, с которыми они справляются лучше машин. Сетуя на острый дефицит специалистов, в банке отмечают, что решать задачи безопасности вручную сегодня уже просто невозможно.

Обратите внимание

В компании Cadence Design Systems, предоставляющей инженерные услуги, внедрили системы непрерывного мониторинга угроз, помогающие защищать ее интеллектуальную собственность. Ежедневный трафик данных безопасности, поступающих от 30 тыс. оконечных устройств и 8,2 тыс.

пользователей, составляет порядка 30-60 Гбайт, а аналитиков, которые их изучают, в компании всего 15.

И это еще не все данные о сети, которые можно было бы обрабатывать, отмечают в Cadence, и, поскольку необходим анализ еще большего объема, приходится внедрять средства искусственного интеллекта, позволяющие более эффективно обнаруживать и устранять проблемы.

Для мониторинга поведения пользователей и систем, а также для управления доступом в Cadence пользуются соответствующими продуктами Aruba Networks, дочерней компании HPE. Как отмечают в Cadence, важным свойством платформы Aruba является то, что она работает по принципу обучения без учителя.

Атаки меняются и становятся все сложнее, добавляют в компании: например, в течение какого-то времени может иметь место малозаметная вредоносная активность, которая лишь позднее даст злоумышленнику возможность украсть большой объем данных, инструменты же машинного обучения помогают обнаружить подобное.

Из-за перегруженности большими объемами данных по безопасности страдают даже некрупные компании.

Например, у Daqri, производителя очков и шлемов дополненной реальности для архитекторов и специалистов производственных предприятий, в штате только 300 сотрудников, причем в центре обеспечения безопасности работает всего один человек. При этом процессы анализа и реагирования на события безопасности чрезвычайно трудоемкие.

С помощью средств искусственного интеллекта от компании Vectra Networks в Daqri ведут мониторинг трафика приблизительно 1,2 тыс. устройств, работающих в корпоративной среде.

Важно

Автоматизированные средства способны заметить, когда кто-то выполняет сканирование портов, переходя от хоста к хосту, или, допустим, необычным способом пересылает большие объемы данных. В компании собирают всю соответствующую информацию, анализируют ее и вводят в модель глубокого обучения.

Благодаря этому достигается возможность надежно прогнозировать вероятность того, что тот или иной вид трафика окажется вредоносным.

Такой анализ необходимо выполнять быстро, сократив до минимума время между распознаванием и реакцией. Искусственный интеллект позволяет ускорить разбор инцидентов и тем самым улучшить понимание происходящего в корпоративной сети, точнее прогнозировать серьезные утечки, быстрее обнаруживать инциденты и оперативно реагировать на них, чтобы минимизировать возможный ущерб.

Применение искусственного интеллекта для обеспечения безопасности растет

Искусственный интеллект и машинное обучение существенно ускоряют реагирование на угрозы, признают аналитики Nemertes Research. По их словам, сегодня это уже серьезный рынок, сформированный под влиянием реальной потребности.

В Nemertes провели глобальное исследование, посвященное безопасности, и его результаты свидетельствуют: в среднем на обнаружение атаки и реагирование на нее в организациях уходит 39 дней, однако в некоторых компаниях сумели сократить это время до считанных часов. Скорость реагирования напрямую зависит от уровня автоматизации, которая обеспечивается средствами ИИ и машинного обучения.

Среднее время обнаружения атаки – час. В самых эффективных компаниях, применяющих машинное обучение, на обнаружение уходит менее 10 минут, а в отстающих – дни или недели. Что касается среднего времени анализа угроз, оно составляет три часа.

В лучших компаниях на такой анализ уходят минуты, в худших – дни или недели. Поведенческий анализ угроз уже применяется в 21% компаний, участвовавших в опросе, и еще в 12% сообщают, что внедрят соответствующие средства к концу текущего года.

На передовой находятся компании сферы финансовых услуг. Поскольку их данные имеют повышенную ценность, они обычно по кибербезопасности идут на шаг впереди всех и вкладывают значительные средства в новые далеко не дешевые технологии.

По масштабам применения ИИ и машинного обучения в целом показатели еще выше. Согласно исследованию Vanson Bourne, сегодня в 80% организаций применяют для тех или иных целей искусственный интеллект, и это уже окупается.

Больше всего дивидендов он приносит в области исследований и разработки новых продуктов: 50% респондентов сообщили, что новшество обеспечивает положительные результаты. Второе и третье места – у цепочки поставок (46%) и основной деятельности (42%).

Совет

Ненамного отстают безопасность и управление рисками: 40% респондентов сообщили о положительном опыте применения ИИ в этих областях.

Перечисленные показатели продолжат расти: как выявило недавнее исследование Spiceworks, в 30% организаций, имеющих более 1 тыс. сотрудников, применяют искусственный интеллект в ИТ-службах, в 25% собираются начать это делать в следующем году.

В маркетинговом агентстве Garrigan Lyman Group внедряют искусственный интеллект и машинное обучение для решения целого ряда задач кибербезопасности, в том числе для обнаружения необычной активности сети и пользователей, а также для распознавания новых кампаний фишинга. Без новых технологий было бы невозможно нормально работать, поскольку злоумышленники уже давно прибегают к автоматизации своей деятельности, признаются в Garrigan Lyman.

Искусственный интеллект и машинное обучение обеспечивают этой компании преимущество. Сама она небольшая, всего 125 сотрудников, но благодаря облачным сервисам имеет возможность быстро внедрять самые новые технологии.

В Garrigan Lyman удается вводить в эксплуатацию полезные новшества всего за пару недель.

В частности, здесь пользуются средствами безопасности с искусственным интеллектом компаний Alert Logic и Barracuda Networks, и, как признаются в Garrigan Lyman, системы «умнеют буквально на глазах».

Искусственный интеллект помогает системам адаптироваться к требованиям компании без объемного предварительного обучения.

Например, как отмечают в Barracuda, модель ИИ может самостоятельно понять, что, когда генеральный директор компании определенного типа пользуется некорпоративным адресом электронной почты, это аномалия.

«В некоторых организациях, если руководитель общается через личную почту на мобильном устройстве, это норма, а вот если главный бухгалтер отправляет сообщения с персонального адреса, это уже аномалия», – добавляет Асаф Сайдон, вице-президент по сервисам обеспечения безопасности контента Barracuda.

Обратите внимание

Еще одно преимущество облачной доставки: разработчикам проще совершенствовать свои продукты исходя из клиентских откликов.

«Кибербезопасность – это как соседская бдительность: если я заметил что-то подозрительное в нашем квартале, то предупрежу других», – говорит Крис Гейзер, директор по технологиям Garrigan Lyman.

Фишинговые сообщения или сетевые атаки могут быть обнаружены раньше в других часовых поясах, благодаря чему у компаний появляется время подготовиться. Естественно, должно быть доверие к поставщику сервиса.

В Garrigan Lyman при выборе поставщиков проводили подробный анализ – например, удостоверялись в том, что кандидат придерживается определенных норм проведения аудита, и в том, что доступ к клиентским данным могут получить только уполномоченные лица.

Недоверие к новшествам затрудняет переход от традиционных процессов к автоматизации на основе искусственного интеллекта – ведь кроме знания особенностей работы вашего поставщика не помешают сведения о том, как именно ИИ принимает решения. Принципы работы экспертных систем должны быть понятными, чтобы им можно было доверять. Понимая, как действует система, клиент дает свои отзывы и пожелания, это помогает совершенствовать модели машинного обучения.

В компании LexisNexis Legal and Professional 12 тыс. ее сотрудников недавно начали для защиты электронной почты пользоваться системой GreatHorn.

Теперь, если, к примеру, начинают поступать сообщения из домена, по написанию похожего на хорошо известный, система автоматически отметит его в качестве «самозванца» и сообщит, почему это сделано: «Отметка поставлена, поскольку домен похож на тот, с которым вы обычно обмениваетесь сообщениями, однако его техническая информация выглядит подозрительно».

По мере роста уровня доверия к системе и точности ее решений в LexisNexis хотят перейти от простой маркировки подозрительных сообщений к автоматическому перемещению таких сообщений в карантин.

Важно

На сегодня результаты весьма впечатляющие: маркируются именно вредоносные сообщения. А когда будет налажено карантинирование, пользователи вообще перестанут их видеть.

После этого инструмент планируется внедрить и в других подразделениях компании, а также изучить иные возможности использования ИИ для обеспечения безопасности.

Как искусственный интеллект позволяет опередить злоумышленников

ИИ совершенствуется по мере роста объема получаемых данных. При накоплении достаточно больших срезов данных системы способны обнаруживать очень ранние признаки появления новых угроз. Пример – SQL-инъекции.

В компании Alert Logic ежеквартально собирают данные примерно по 500 тыс. инцидентов, происходящих у 4 тыс. ее клиентов. Около половины таких инцидентов связаны с атаками на основе SQL-инъекций.

Ни в одной компании мира нет возможности рассматривать каждый такой инцидент в отдельности, чтобы выяснить, удалась ли попытка инъекции, уверены в Alert Logic.

Благодаря машинному обучению системы компании не только быстрее обрабатывают данные, но и коррелируют события, происходившие в разные периоды времени в разных регионах. Некоторые атаки могут повторяться через несколько недель или месяцев, при этом исходить из других сегментов Интернета. Если бы не машинное обучение, такие инциденты в Alert Logic упускали бы, уверены в компании.

Источник: https://www.osp.ru/cio/2017/10/13053561/

Западнопартнерский контроль. 4 стартапа, которые создают искусственный интеллект для ведения кибервойн

С мест сообщают о попытках создания «Скайнета». Все компании нашли финансирование и работают. Результаты, конечно, не публикуются. Поэтому неясно если ли они в принципе. Однако, западная пресса пишет:

Стартапы в области информационной безопасности нацеливают свое внимание на скрытый потенциал автоматизированных систем, использование которого может оказаться более эффективным, чем найм персонала, отвечающего за безопасность компании.

Читайте также:  Робот-каракатица. для чего он нужен?

Продолжает расти общее беспокойство по поводу возможной утраты контроля над информационной безопасностью.

Стремительные перемены в использовании коммуникационных технологий и увеличение числа подключаемых к системе устройств означает также повышение количества точек доступа и рост вероятности утечки информации.

Совет

Поскольку темп происходящих перемен достаточно высок, системы информационной безопасности не успевают адаптироваться к нему, чем, в свою очередь, умело пользуются хакеры. Традиционные способы защиты от киберугроз начинают выглядеть безнадежно устаревшими.

Вопрос безопасности поднимается в самых высоких кругах. С момента своего появления в Белом Доме в 2009 году, Президент Обама постоянно призывает к усовершенствованию систем информационной безопасности. В декабре 2015 года был подготовлен новый законопроект в этой сфере, который предусматривает использование 14 млрд.

долларов из федерального бюджета на обеспечение защиты правительственной информации, публикуемой он-лайн. Ожидается, что к 2020 году эта сумма может достичь размера 170 млрд. долларов.

Вместе с тем в поисках того, кто сможет предложить оптимальное решение сложившейся проблемы, все надежды возлагаются на индустрию информационной безопасности.

В то время, как технологии продолжают набирать обороты, некоторые инновационные стартапы в области информационной безопасности делают попытки применять потенциал искусственного интеллекта для усиления защиты, осуществляемой специалистами компаний. Они распознают, определяют местоположение и уничтожают потенциальные угрозы гораздо быстрее и эффективнее, чем это возможно при использовании традиционных методов.

11 правил, которые нужно соблюдать, если вы входите в судебный процесс, касающийся вопросов информационной безопасности

Darktrace
Cтартап Darktrace, разработанный в Великобритании, берет пример с иммунной системы человека, способной к самообучению, и использует машинное обучение для обнаружения ранее неизвестных киберугроз в режиме реального времени, что позволяет обезвредить их гораздо быстрее, чем при традиционном подходе.
В отличие от классических систем информационной безопасности, в которых вредоносные программы и вирусы добавлялись вручную к уже имеющемуся списку и затем блокировались, Darktrace использует систему, основанную на машинном обучении и математике, способную распознать угрозу без предварительной информации об объекте поиска и исключить необходимость человеческого участия в обеспечении защиты. Эта прогрессивная система была разработана инженерами и математиками из Кембриджского Университета.

Jask
Jask, стартап из Сан-Франциско, создает так называемый «первый в мире диагностический центр по обеспечению безопасности». Эта система нацелена на помощь компаниям любого масштаба и дает им возможность предупреждать серьезные кибератаки.

Это делается благодаря активному использованию потенциала искусственного интеллекта, способного преодолеть ограничения существующих методов защиты.

По мере того, как компания добавляет в свою сеть новое программное обеспечение, целиком полагаясь на облачное хранилище данных, Jask «автоматически обнаруживает угрозы, скрытые в этих данных, избавляя компанию от необходимости привлечения человеческих ресурсов к решению проблемы», — говорит Грег Мартин, основатель и генеральный директор Jask.

Deep Instinct
Запущенный в Тель-Авиве в ноябре 2015 года, этот стартап использует сложные алгоритмы глубокого обучения для обеспечения информационной безопасности в банковской, финансовой и правительственной сферах Израиля и США.

При разработке Deep Instinct за основу была взята способность человеческого мозга к обучению. Как только мозг научился распознавать объект, он подсознательно будет делать это снова и снова.

Обратите внимание

Точно также, по мере того, как искусственный интеллект Deep Instinct учится распознавать любой вид киберугроз, его способность к прогнозированию становится более быстрой и развитой.

Компания недавно заключила договор о сотрудничестве с FireLayers для создания первого коммерчески доступного решения, использующего искусственный интеллект и призванного обеспечить безопасность облачных приложений. Его действие сфокусировано как на выявлении, так и на предупреждении угроз повышенной стойкости (APT).

harvest.ai
harvest.ai рассматривает использование искусственного интеллекта для информационной безопасности немного в другом ракурсе. За основу взята идея, что для обеспечения защиты необходимо знать свои слабые места и основные мишени возможной атаки.

Александр Ватсон, основатель и генеральный директор компании, проработав в Агентстве Национальной Безопасности (NSA) почти десять лет, не понаслышке знает о промышленном шпионаже и кибератаках.

Его компания создала алгоритмы искусственного интеллекта, способные определять бизнес ценность важных документов, отслеживать их использование и перемещение, распознавать и пресекать утечку информации в результате целенаправленной атаки или внутренней угрозы прежде, чем данные будут скопированы или украдены.

Система MACIE распознает странности во время работы пользователей в сети, анализируя изменение местонахождения, перемены в привычках серфинга и передаче данных, а также изменение в других телеметрических данных, которые могу быть использованы внешними системами.

Система защиты предупреждает пользователей в случае, если важные документы случайно стали общедоступными в облачных хранилищах или сети, а также, если были отправлены не тому адресату, которому предназначались.

How 4 Startups Are Harnessing AI In The Invisible Cyberwar

Источник: https://www.tsarev.biz/news/zapadnopartnerskij-kontrol-4-startapa-kotorye-sozdayut-iskusstvennyj-intellekt-dlya-vedeniya-kibervojn/

Все, что нужно знать об искусственном интеллекте

Искусственный интеллект (ИИ) становится все более популярным в мире, и мы собрали все последние новости и события, связанные с ним, с которыми стоит ознакомиться

Давно выйдя за рамки материалов научной фантастики, искусственный интеллект или ИИ, становится все более распространенным явлением в современном мире.

Объединяя новейшее мощное программное обеспечение с передовым оборудованием, инструменты ИИ используются для улучшения многих областей повседневной жизни, от здравоохранения до проблем с трафиком.

Важно

Черная пятница: все лучшие предложения здесь.

Но что такое ИИ и как он используется сегодня? В этом руководстве есть все, что вам нужно знать, мы собрали случаи самого инновационного и интересного применения ИИ сегодня.

Что такое ИИ?

В течение многих лет считалось, что компьютеры никогда не будут более мощными, чем человеческий мозг, но поскольку темпы развития ускорились в наше время, это оказалось совсем не так.

ИИ как концепция относится к типу вычислительной техники, будучи в состоянии мыслить самостоятельно, и принимать решения, основанные на данных, которые он получает. Системы ИИ часто очень сложны и имею высокую производительность, с возможностью обрабатывать непостижимые объемы информации в чрезвычайно короткий срок, чтобы прийти к эффективному решению.

Благодаря подробным алгоритмам, системы искусственного интеллекта теперь способны выполнять большие вычислительные задачи гораздо быстрее и эффективнее, чем человеческий разум, помогая совершать большие успехи в области исследований и разработок по всему миру.

Одна из наиболее заметных реальных приложений ИИ являются Watson от IBM, который используется для поддержки исследований в огромном диапазоне областей вместе с машинным обучением Azure от Microsoft и TensorFlow, который также известен во всем мире.

Ассистенты с ИИ становятся обычным явлением на мобильных устройствах, такие как Siri, Cortana и Alexa.

Кажется, нет предела применению технологий ИИ, и, возможно, самый захватывающий аспект экосистемы заключается в том, что неизвестно, куда она может пойти дальше, и какие проблемы она может в конечном итоге решить.

Самые последние новости в области ИИ

21/11 – Apple приобретает компанию, специализирующуюся на ИИ

Технологический гигант, как сообщается, купил стартап Silk Labs в начале этого года

16/11 – BlackBerry подписывает контракт о кибербезопасности в сфере ИИ на $1,4 млрд

Приобретение Cylance делает BlackBerry вдвойне заинтересованной в кибербезопасности

15/11 – Samsung инвестирует $22 млрд в ИИ и 5G

Корейский технологический гигант намеревается контролировать 20% рынка сетевого оборудования

14/11 – ИИ и поисковые системы нового поколения

Совет

Как пользователи могут заявлять и требовать права собственности на свои собственные данные?

14/11 – Oracle наращивает инвестиции в области ИИ в Великобритании

Гигант в области ПО надеется удвоить команду по ИИ как часть крупного расширения компании в Великобритании

12/11 – Microsoft: будущее безопасности – это ИИ

Искусственный интеллект и машинное обучение играют важную роль в стратегии безопасности Microsoft

31/10 – IBM и RFU объединяются для работы над технологиями в области спорта

Партнерство IBM обещает технологические инновации на всех уровнях английского регби

31/10 – британские компании отстают, не охватывая сферу ИИ

Отчет Microsoft призывает британские фирмы активизировать свою деятельность в области ИИ

30/10 – Telefonica раскрывает свой свод правил для ИИ

“Принципы искусственного интеллекта” охватывают равенство, прозрачность, безопасность и многое другое

29/10 – сотрудники не хотят, чтобы программное обеспечение работало на их персональных устройствах

Подавляющее большинство возражает против принудительной установки программного обеспечения компаний на смартфоны

29/10 – искусственный интеллект дает компаниям реальное представление о своих клиентах

Нил Макилрой из Feefo рассказывает нам, почему ИИ может преобразовать ряд отраслей

26/10 – работа в будущем в эпохе ИИ

В будущем мы все будем работать бок о бок с роботами, а иногда даже ближе

25/10 – IBM создала ИИ-парфюмера, который может создавать совершенно новые ароматы

Смело нюхать то, что еще не нюхал ни один человек

23/10 – сдержки и противовесы в развертывании ИИ

Предотвращение захвата робота

22/10 – что на самом деле означает ИИ в телефоне?

Машинное обучение используется во многих сферах в наших устройствах

17/10 – лоток для мусора с ИИ анализирует здоровье вашей кошки и использует технологию NASA для очистки

Умный туалет устраняет вонь на молекулярном уровне

10/10 – почему предприятия медленно внедряют машинное обучение?

Отсутствие понимания машинного обучения сдерживает предприятия от внедрения этой новой технологии

04/10 – Стив Возняк: не волнуйтесь, ИИ не убьет нас всех, пока что

Соучредитель Apple ставит под сомнение, что ИИ может захвататить человчеество

04/10 – ИИ в автомобилях сможет скоро узнавать ваше настроение

Принимайте это за чистую монету

30/09 – региональный разногласия в принятии ИИ

Посмотрите, как разные регионы внедряют новые технологии искусственного интеллекта

27/09 – человек и ИИ – вот как автоматизация создает реальную цифровую рабочую силу

ИИ делает сотрудников более продуктивными, открывая доступ к новым возможностям

25/09 – за кадром: внедрение решений по преобразованию ИИ с помощью высокопроизводительных вычислений

Высокопроизводительные вычисления помогают разработчикам создавать мощный ИИ и машинное обучение приложений

24/09 – Deezer может создаавть плейлисты с помощью ИИ на основе настроения

Подсел на это чувство…

19/09 – аттестация по технологии ИИ скоро может стать реальностью

На шаг ближе к восстанию машин

19/09 – корпорация IBM открывает секреты ИИ

Новый сервис даст основания для решений алгоритма и устранит предрассудки об ИИ

18/09 – ИИ может быть секретным оружием в индустрии безопасности

Обратите внимание

По данным исследвоания Aruba, использование систем ИИ может помочь в борьбе с ростом атак на «интернет вещей»

18/09 – может ли ИИ сделать работу более человечной?

Исследования показывают, что ИИ может помочь оптимизировать рабочие процессы для повышения эффективности

18/09-здравоохранение на пике, когда дело доходит до инвестиций в ИИ

Новый отчет показывает, как ИИ настроен на преобразование будущего здравоохранения

18/09 – начать экспериментировать с ИИ, чтобы улучшить обслуживание клиентов сегодня

Читайте также:  Искусственная кожа придаст роботизированной руке чувствительность

Пошаговое руководство по использованию искусственного интеллекта и машинного обучения

09/08 – Intel показывает ИИ чипы

Оборудование с ИИ принесло более $1 млрд в прошлом году, заявляют Intel

08/08 – дроны с ИИ могут использоваться, чтобы отпугивать птиц в аэропортах

Новый способ борьбы с птицами

08/08-Samsung инвестирует миллиарды в 5G и ИИ

17-миллиардная инвестиционная программа Samsung, похоже, защитит смартфон от зависаний

02/08 – почему ИИ является лучшим инструментом дял создания веб-сайта

Глава Wix рассказывает о влиянии ИИ на мир веб-дизайна

31/07 – мировые инвестиции в искусственный интеллект к 2025 году составят $ 200 млрд

В отчете KPMG освещаются основные возможности ИИ, машинного обучения и RPA

Источник: https://oshibka-reshenie.ru/what-is-ai-everything-you-need-to-know

Перевод выдержек из доклада «Искусственный интеллект и национальная безопасность» Г.Аллена и Т.Чана, IARPA, 2017

Трансформация  потенциала искусственного интеллекта

Впервые вопрос практического использования искусственного интеллекта (ИИ) для укрепления национальной безопасности, снижения рисков и отражения угроз был сформулирован в отчете Белого дома по ИИ от 2016 г.

В докладе указано: «При всем разнообразии последствий использования ИИ в сферах обороны, разведки и правоохранительной деятельности главным эффектом ИИ в краткосрочной перспективе будет автоматизация задач, которые ранее либо выполнялись людьми, либо вообще не выполнялись».

Очевидно, что в ближней перспективе ИИ в сфере национальной безопасности наиболее широко будет использоваться в разведывательной деятельности, которая в настоящее время требует огромных усилий множества людей.

ИИ в ближайшие три-пять лет сможет не только заменить человеческий труд машинным, но и сделать актуальным решение многих задач, которые сегодня не представляется возможным выполнить именно из-за отсутствия автоматизации.

В первую очередь это связано с обработкой и мониторингом больших данных преимущественно неструктурированного характера, а именно потоков онлайн-видео и текстовой информации.

Американские вооруженные силы с конца нулевых годов активно используют робототехнику для выполнения вспомогательных и основных военных функций.

Однако до настоящего времени практическое использование полностью автоматизированных дронов и других типов боевых роботов в американских вооруженных силах не осуществляется.

Важно

Можно найти отдельные примеры практического использования ИИ в Федеральном Бюро Расследования и полиции штатов крупнейших городов.

Несмотря на несомненное первенство Соединенных Штатов в области ИИ, в отличие от многих других технологий, оно проявляется в первую очередь в бизнесе, сфере научных исследований и отчасти в государственном управлении, но не в сфере национальной безопасности.

Другие страны, например, Китай, Израиль заметно уступают Соединенным Штатам  в общем уровне разработок и исследований в сфере ИИ, но смелее, чем Америка берут на вооружение ИИ в основных секторах национальной безопасности. Америке брошен вызов.

На него необходимо в кратчайшие сроки должным образом ответить.

ИИ в вооруженных силах

Магистральным направлением использования ИИ в вооруженных силах является создание распределенных и роевых автономных роботизированных систем, управляемых центральным ИИ.

Сами по себе автономные системы начали использоваться еще со времен Второй мировой войны.

С тех пор неуклонно происходит процесс делегирования человеком контроля и функций управления автономным роботизированным системам, оснащенным ИИ.

Во время Второй мировой войны, робототехнические системы использовались для запуска ракет. Неслучайно первый в мире компьютер заработал не в Соединенных Штатах, Великобритании или СССР, а в нацистской Германии. Он был разработан в рамках проекта ФАУ.

Постепенно элементы ИИ стали активнее использоваться в стратегических и тактических ракетных вооружениях для создания систем наведения ракет на цель.

Совет

Превосходство вооруженных сил США над СССР в значительной части было связано именно с превосходством в области микроэлектроники – основы ИИ.

Тактические ракеты и управляемые бомбы активно использовались вооруженными силами США во Вьетнамской войне, которая принесла стране и обществу серьезные раны и убытки.

Одним из ее последствий стало принятие на законодательном уровне действующего до сих пор запрета, ограничивающего использование боевых, в том числе огневых, и других поражающих полностью автономных систем без принятия человеком решений о применении летального оружия.

Хотя полностью автономные системы активно используются американским бизнесом и наукой, армия Соединенных Штатов не имеет на вооружении полностью автоматизированных дронов и других подобных комплексов.

Между тем, такие комплексы уже находятся на вооружении Израиля, Великобритании и по некоторым сведениям – Китая. Как показали маневры, проведенные в 2014 г.

в Израиле, в случае противоборства полностью автоматизированные боевые средства не просто превосходят управляемые человеком аппараты, но и  гарантированно захватывают господство в воздухе или другой среде.

Несмотря на результаты маневров в Соединенных Штатах до сих пор действует законодательство, при котором люди всегда должны контролировать применение смертоносного оружия, смонтированного на робототехнических комплексах. С учетом превосходства полностью автоматизированных систем над системами с участием человека, Соединенным Штатам необходимо отказаться от этого наследия Вьетнамской войны или лишиться превосходства в воздухе.

Размер рынка для коммерческой военной робототехники растет экспоненциальными темпами, а цена единицы мощности процессоров, используемых в системах ИИ, снижается в два раза в течение восьми месяцев. При этом 90% мирового рынка процессоров для эксплуатируемых систем ИИ приходится на три компании, контролируемые американскими владельцами.

Обратите внимание

По данным BCG в период между 2001 и 2017 гг. мировые расходы на военную робототехнику возросли с 2,2 до 10,1 млрд долларов и более чем удвоятся в период до 2025 г.

  Однако, подавляющая часть специалистов полагает, что даже эта оценка является на порядок заниженной, не учитывающей двойной эффект падения удельных цен единицы мощности процессоров и появления все новых поколений компонентов для ИИ, включая принципиально новые типы процессоров, в том числе нейрочипы, графеновые и алмазные чипы, новые устройства для передачи информации и т.п. Кроме того,  по мнению специалистов, уже к 2020 г. станет полностью бессмысленным разделение аппаратной составляющей на коммерческую и военную.  Использоваться будут одни и те же аппаратные комплексы, а различия будут происходить только в рамках программной части.

В этой связи можно ожидать, что соответствующие органы, контролирующие экспортно-импортные операции США, других стран НАТО, а также стран – союзников США будут вводить эмбарго на поставку в третьи страны не софта, как сегодня, а аппаратных комплексов, в том числе имеющих и вполне мирное применение.

Это, несомненно, приведет к изменению ландшафта мировой торговли и международной организации труда. Целые страны и регионы, которые в настоящее время противоборствуют с Соединенными Штатами и их союзниками, окажутся выключенными из международной кооперации труда.

При таком порядке в них  будет запрещено поставлять аппаратные компоненты ИИ, независимо от их функционального использования.

Источник: http://hrazvedka.ru/guru/perevod-vyderzhek-iz-doklada-iskusstvennyj-intellekt-i-nacionalnaya-bezopasnost-g-allena-i-t-chana-iarpa-2017.html

Ии в кибербезопасности: решение проблем или опасная азартная игра?

В Лас-Вегасе 3-7 августа проходила конференция по кибербезопасности Black Hat. На ней выявилась одна четкая тенденция — крупные компании готовы доверить защиту против хакерских атак искусственному интеллекту. Для этого есть две причины:

  • квалифицированных кадров для работы над защитой от вредоностого ПО не хватает;
  • количество кибератак ежегодно увеличивается, а модели по которым они проводятся усложняются.

Искусственный интеллект способен существенно разгрузить работников и помочь выявить потенциальные угрозы. Но зависимость от AI может стать дополнительным источником опасности.

Конференция Black Hat 2018

Риск №1: Ложное чувство безопасности

Кажущаяся устойчивость ИИ к вредоносному ПО заставляет ослабить контроль за системами безопасности.

Машинное обучение показывает отличные результаты во многих областях, и предприниматели ищут возможности применить его для обеспечения безопасности своего бизнеса.

Они досконально не изучают возможные риски от передачи обязанностей программе, полностью полагаясь на поставщиков ИИ. Злоумышленники, как внедрясь в ряды сотрудников компании-разрабочика, так и удаленно, смогут «заражать» такое ПО.

Риск №2: Датасеты, размеченные с ошибками

Для обучении ИИ необходим набор данных, который требует предварительной разметки (supervised learning).

Из желания как можно скорее вывести продукт на рынок и сэкономить, компании начнут обучать свои ИИ на наборах, из которых не были до конца удалены аномальные данные. На выходе это приведет к непредсказуемым ошибкам в работе.

Например, гражданская техника будет по ошибке размечена как военная, а в ходе конфликта ИИ примет решения об уничножении этого «военного объекта».

Риск №3: Уязвимости мастер-алгоритма

Если для управления системой безопасности используется один мастер-алгоритм, то при наличии уязвимости не будет инструментов, которые смогут указать на это.

Если же использовать два или больше алгоритмов от независимых разработчиков, то они начнут конфликтовать между собой.

К тому же при использовании крайне сложных моделей сложно понять по каким принципам они определяют одни ПО как вредоносные, а другие как «чистые».

Вывод

Использовать ИИ стоит с осторожностью, тщательно изучая принципы работы алгоритмов, применяя несколько программ, которые смогут указать на несовершенства. Риски необходимо  минимизировать до ввода в работу ИИ и отслеживать их всегда по ходу работы.

Слайд с конференции Black Hat 2018

По материалу MIT Technology Review.

Источник: https://neurohive.io/ru/novosti/ii-v-kiberbezopasnosti-reshenie-problem-ili-opasnaja-azartnaja-igra/

Искусственный интеллект мыслит как преступник

Распространение технологии искусственного интеллекта (AI) может привести к росту киберпреступности и появлению ее новых форм, манипулированию общественным мнением и повреждению физической инфраструктуры уже в течение ближайших пяти лет, считают авторы доклада «Преступное использование AI: прогноз, профилактика и предотвращение».

100-страничный доклад написан 26 экспертами в сфере кибербезопасности. Среди них ученые из Оксфордского, Кембриджского и Стэнфордского университетов, аналитики некоммерческих организаций Electronic Frontier Foundation и OpenAI и представители других авторитетных организаций.

Авторы доклада сравнивают искусственный интеллект с ядерной энергией и взрывчатыми веществами, которые можно использовать как в мирных, так и в военных целях. «Когда возможности искусственного интеллекта станут более мощными и повсеместными, мы ожидаем, что это приведет к расширению существующих угроз, возникновению новых угроз и изменению типа угроз»,— предупреждают авторы.

«Многие из нас поражены масштабами того, что произошло за последние пять лет. Если это продолжится, вы увидите появление действительно опасных вещей»,— отмечает глава OpenAL Джек Кларк.

Разработчики должны на ранних этапах предусматривать возможность преступного использования искусственного интеллекта и создавать соответствующие ограничения, советуют авторы. Если это не будет сделано, искусственный интеллект станет мощным оружием в руках людей с преступными намерениями.

Авторы выделяют три главных направления угроз. Первая — искусственный интеллект поможет устраивать хакерские атаки. Технологии облегчат обнаружение уязвимостей ПО или выбор потенциальных жертв преступлений.

Также искусственный интеллект позволит использовать уязвимости человека.

Например использовать синтез речи или создавать «контекстное» вредоносное ПО. Благодаря ему вероятность того, что пользователь нажмет на ссылку, запускающую вирус, или скачает нужное злоумышленникам приложение, резко вырастет.

Хакерские атаки с применением подобных технологий будут намного масштабнее и эффективнее, чем сейчас.

Важно

Недобросовестное применение искусственного интеллекта в политической сфере также весьма вероятно. С его помощью власти создадут более мощные системы наблюдения за инакомыслящими.

Политические силы смогут проводить «автоматизированные, гиперперсонализированные кампании дезинформации».

Читайте также:  В 2016 году в ввс россии поступят ракеты с искусственным интеллектом

Искусственный интеллект сможет генерировать фейковые новости в таких количествах, что пользователю будет почти невозможно вычленить среди них настоящие.

Повысится эффективность и адресность пропаганды, манипулировать общественным мнением станет проще, предупреждают авторы. Особенно опасным это становится с учетом того, что с помощью искусственного интеллекта может быть сделан шаг вперед в изучении основ психологии поведения человека.

Третья группа угроз — возможность атак на физические объекты. Речь идет, например, о массовом управлении беспилотниками и другими автоматизированными боевыми комплексами.

Кроме того, искусственный интеллект будет способствовать злонамеренному внедрению в системы беспилотных автомобилей, с дальнейшими авариями или нападениями с их участием.

«Искусственный интеллект, цифровая безопасность, физическая безопасность и политическая безопасность прочно связаны, и их связь будет только укрепляться… Хотя конкретные риски бесчисленны, мы считаем, что понимание общих закономерностей поможет пролить свет на будущее и улучшить информирование для предотвращения и смягчения последствий»,— говорится в докладе.

Впрочем, некоторые эксперты отмечают, что масштаб проблемы может быть преувеличен. «Улучшения идут с обеих сторон — это постоянная гонка вооружений. Искусственный интеллект уже сейчас крайне полезен для кибербезопасности. Пока неясно, какая сторона извлечет больше выгоды», — считает сооснователь компании в сфере кибербезопасности CrowdStrike Дмитрий Альперович.

Главные тренды по версии Массачусетского технологического института

Читать далее<\p>

Яна Рождественская

Источник: https://www.kommersant.ru/doc/3557537

США, Китай, Россия: Кто первым сделает искусственный интеллект оружием

Что делают главные мировые державы, чтобы «умные машины» стали основой государственной безопасности.

Для многих российских школьников учебный год начался с советов о мировом господстве от президента Владимира Путина. Выступая перед учениками, он сказал:

Эти слова Путина — очередная иллюстрация гонки за лидерство в военном применении искусственного интеллекта (ИИ), в которую вступили США, Россия и Китай.

Совет

Все три страны провозгласили «умные машины» важнейшим аспектом государственной безопасности. Программное обеспечение для обработки разведданных, автономные летающие или наземные беспилотники — все это призвано сделать солдата сильнее.

Грегори Аллен, сотрудник внепартийного аналитического «Центра новой американской безопасности», говорит: «США, Россия и Китай согласны в том, что искусственный интеллект станет ключевой технологией, и от его развития будет зависеть власть в мире».

Он также ссылается на недавний доклад, подготовленный по поручению Управления директора национальной разведки США, в котором говорится, что искусственный интеллект может повлиять на ход военных конфликтов не меньше, чем ядерное оружие.

В июле Государственный совет Китая опубликовал подробную стратегию, призванную к 2030 году сделать страну «лидером и мировым центром инноваций в ИИ». Среди положений стратегии есть обязательства инвестировать в исследования, связанные с ИИ и нацеленные на прогресс в сфере обороны и национальной безопасности.

У США, несмотря на заслуженную репутацию лидера в разработках, связанных с искусственным интеллектом, нет подобной «дорожной карты». Тем не менее известно, что уже несколько лет Пентагон разрабатывает стратегию, известную как Third Offset («Третий сдвиг»), цель которой — получение с помощью ИИ такого же преимущества над потенциальными противниками, как когда-то с помощью ядерной бомбы.

В апреле Министерство обороны создало Военную кросс-функциональную алгоритмическую группу — как раз для совершенствования технологий ИИ, в том числе машинного зрения, в Пентагоне.

Россия отстает от Китая и США в этих вопросах, но наращивает инвестиции в рамках программы модернизации армии, начатой в 2008-м, а военно-промышленный комитет правительства поставил задачу к 2025 году довести долю роботизированной военной техники до 30%.

В этот раз гонка вооружений обещает быть иной, поскольку, в отличие от ядерного оружия или стелс-технологии, искусственный интеллект может использоваться как для военного, так и для гражданского применения.

Источник: https://ru.ihodl.com/opinion/2017-09-14/ssha-kitaj-rossiya-kto-pervym-sdelaet-iskusstvennyj-intellekt-oruzhiem/

Искусственный интеллект против киберпреступлений

Шандор Балинт – руководитель отдела защиты прикладных задач компании Balabit

Только когда компания сталкивается с тяжелыми последствиями киберпреступлений, топ-менеджеры задумываются, что для борьбы против продвинутых методов взлома требуется нечто большее, чем человеческая интуиция.

Могут ли новые достижения в области машинного обучения и искусственного интеллекта (ИИ) заменить необходимость человеческого вмешательства в процесс идентификации продвинутых угроз? Смогут ли автономные машины бороться с угрозами сами по себе, без человеческого участия?

С помощью ИИ увеличится скорость обнаружения угроз, выявления проблем, атак, алгоритмов и аномалий, на поиск которых он изначально не запрограммирован. Машины можно запрограммировать на обнаружение «неизвестного неизвестного», и это позволит службам безопасности быть на шаг впереди.

Обратите внимание

Когда дело касается обнаружения реальных угроз, контекст имеет решающее значение: нужно человеческое вмешательство, чтобы прочесть скрытые коммуникации, намерения, причины и мотивы.

Этот симбиоз человеческого понимания и возможностей компьютера по обработке и сопоставлению данных дает наилучший эффект, чтобы пролить свет на ранее неизвестные угрозы и на те слабые стороны, которым не придавали значения.

Путь в неизвестное

Управление безопасностью прежде всего подразумевает управление рисками. Нельзя остановить каждую угрозу, но с помощью информации и интеллекта возможно удерживать риски на допустимом уровне.

Чтобы этого достичь, нужно выяснить, что происходит в сетевом окружении, происходит ли что-то необычное – и если есть, то что именно, и почему оно не было ранее проанализировано, и несет ли оно риски (и если да, то что с этим делать).

В вопросах безопасности управление рисками – это обработка исходных данных в применимые знания, ссылаясь на которые, можно совершить правильные действия. Только обладая информацией, мы можем узнать, что нам на самом деле угрожает.

С одной стороны, можно столкнуться с явными угрозами, например, определенные действиями, которые несут потенциальную опасность (уведомления вируса-вымогателя или известные паттерны вредоносного ПО).

Но, с другой стороны, существуют и слепые зоны: с ними мы сталкиваемся, если нет всех необходимых данных, либо эти данные есть, но нет инструментов для анализа и нельзя выявить значимые корреляции.

Большая часть вопроса борьбы против киберпреступности – понимание ранее неизвестного, например, непредвиденных изменений, угроз или рисков, которые, как казалось, нас не касаются.

Здесь мы попадаем в мир «неизвестных». Как нам управлять рисками, когда мы не знаем, что собой представляет угроза?

Кроме того, администраторы часто страдают от перегрузки информацией.

Важно

Площадь атак увеличивается, все больше устройств нуждаются в защите, все больше становится локальных и облачных данных, и мы начинаем использовать больше инструментов безопасности и приложений для сбора информации.

ИБ-специалисты могут запутаться в таком объеме данных и сделать неверные выводы, тем самым, порой даже не осознавая этого, они идут на риск.

Человеческий фактор

Прогресс в машинном обучении помогает идентифицировать неизвестные ранее риски и отклонения от нормы. Искусственный интеллект с большей скоростью обрабатывает массивы данных и обнаруживает продвинутые угрозы, используя алгоритмы для прогнозирования поведения.

Компьютерные способности больше подходят для выполнения рутинных задач, поскольку люди обладают различным набором навыков, пониманием и эмпатией, могут различать намерения и предвидеть последствия, на что компьютер попросту не способен.

Человеческий разум лучше справляется в нестандартных ситуациях.

В этом заключается ключевая разница между компьютером и человеком. Компьютер действует по алгоритмам и способен выявлять причины, только если получил команду. Обладающие навыками люди могут распознать причины и намерения, даже если никогда ранее не сталкивались с алгоритмом, который указывает на злоумышленное поведение.

Как сказал Ли Хэдлингтон, профессор, киберпсихолог университета Де Монтфорт, человеческий элемент незаменим в любой компьютерной системе, особенно когда дело касается окончательного решения. Люди чувствуют себя некомфортно, когда решения за них принимает компьютер.

Вовсе не обязательно, что люди думают лучше компьютера, но большинство людей все еще тем не доверяет.

Нам предстоит как следует поработать над усилением своих слабых сторон и понять предел возможностей людей и компьютеров.

Важные решения должны принимать конкретные сотрудники, в большей степени это касается инцидентов безопасности, значит, компаниям следует инвестировать в навыки персонала, чтобы они лучше справлялись с интерпретацией данных. Нужно использовать изобретательность человека, чтобы улучшить системы и процессы.

Совет

С помощью креативности людей мы можем более критически относиться к данным, предварительно обработанным компьютером. Нам следует инвестировать в лучшие из доступных инструментов безопасности и автоматизировать то, что должно быть автоматизировано.

В конце концов, компьютер не способен заменить человека в вопросах кибербезопасности, но искусственный интеллект дает возможность сфокусировать ресурсы на действиях, которые имеют значение в борьбе с киберпреступностью.

Источник: https://www.if24.ru/iskin-protiv-kiberprestuplenij/

Искусственный интеллект — будущее систем безопасности

ИИ оказал серьезное влияние на нашу ежедневную жизнь: будь то голосовой набор сообщений, персональные ассистенты – типа Siri – или робоавтомобили. Следующий шаг – использование искусственного интеллекта в системах частной и кибербезопасности. О этом пишет Information-age.

Cегодня один или несколько охранников, сидящих перед кучей мониторов системы безопасности и следящих за порядком, считаются достаточной мерой защиты. Это действительно относительно успешный подход, но он не гарантирует полной безопасности.

Устранение человеческого фактора — главный аргумент в пользу привлечения ИИ для интеллектуального анализа видео, поступающего с камер системы безопасности.

Люди легко отвлекаются, не могут долго сохранять концентрацию, им трудно фокусировать внимание на нескольких вещах одновременно, то есть им физически тяжело следить за всеми мониторами системы безопасности сразу, соответственно у злоумышленника появляется шанс быть незамеченным.

Система человек-ИИ предсказывает кибератаки с 85% точностью

В статье, опубликованной Доктором Махешем Саптариши, старшим вице-президентом по анализу данных в компании Avigilon, говорится: «В то время как офицер охраны может просто не заметить человека, пытающегося проникнуть в плохо освещенное здание, камера, оснащенная системой интеллектуального видеоанализа, инициирует вспышку света на экране и предупредит персонал о возможной угрозе. Такая система с легкостью заметит бродягу, слоняющегося по периметру школьного двора и пошлет охранников разобраться в том, что происходит и принять меры, если это необходимо. Система совершит это без единого промаха, ни на секунду не отвлекаясь ни от одного экрана, держа под присмотром каждый угол, доверенной ей территории».

Насколько ИИ может быть применен в физических охранных системах, настолько же успешно его можно использовать и в сфере кибербезопасности.

Необходимость в глобальном обновлении существующих систем безопасности ощущается давно. IT специалисты осознают, что способы защиты и верификации работают все хуже и с каждым днем становится сложнее выявлять атаки. Хакеры с легкость могут в тайне атаковать предприятия, скрываясь от систем безопасности, обманывая механизмы верификации пользователей.

Apple заплатит хакерам $200 тысяч за выявление уязвимостей

Обратите внимание

На днях DB Networks анонсировали DBN-6300 и Layer 7 Database Sensor — программное обеспечение, которое было разработано, чтобы успешно унаследовать и применить лучшие разработки из области ИИ в сфере кибербезопасности для автоматической защиты инфраструктуры баз данных.

«Искусственный интеллект принесет поистине кардинальные изменения в сферу кибербезопасности, — говорит CEO DB Networks, Бретт Хэлм. — ИИ позволит нам быстро и точно идентифицировать кибератаки.

Уже на этапе их совершения система заметить и предотвратит несанкционированный доступ.

В следующих поколениях продуктов DB Networks будет использовать ИИ для развертывания автономных систем кибербезопасности, которые не только смогут останавливать атаки, но и самостоятельно находить и устранять уязвимости систем».

Интеграция искусственного интеллекта в системы персональной и кибербезопасности — это естественный путь развития технологий. Системы, управляемые ИИ, объективно более эффективны и лишены человеческого фактора.

Искусственный интеллект сделает пространства — физические и виртуальные — более безопасными, постоянно увеличивая эффективность и подстраиваясь под изменяющиеся условия.

Источник: https://hightech.fm/2016/08/08/ai-cibersecurity

Ссылка на основную публикацию
Adblock
detector