Хакеры используют искусственный интеллект для обхода систем защиты

Хакеры обошли одну из самых сложных систем безопасности

Эксперты в сфере компьютерной безопасности рассказали о том, как хакеры могут легко обходить системы авторизации, основанные на сканировании и анализе подкожных кровеносных сосудов.

О том, как это делается, исследователи биометрических систем аутентификации поделились на ежегодном собрании Chaos Communication Congress, традиционно проходившем с 27-го по 29-е декабря и собиравшем вокруг себя специалистов по компьютерному взлому со всего света.

Последние годы устройства и системы безопасности все активнее полагаются на так называемую биометрические методы аутентификации, когда для доступа к компьютерным системам используются программные и аппаратные средства для сканирования уникальных физиологических особенностей человека. Примерами таких систем могут служить те же сканеры отпечатков пальцев, либо технология FaceID, которая используется в смартфонах iPhone для предоставления доступа к устройству по особенностям лица пользователя. Одним из наиболее современных и сложных методов биометрической защиты является так называемая идентификация по рисунку вен ладони, которая, как следует из названия, проводит сканирование размера, форм и расположения подкожных кровеносных сосудов в руке пользователя. Но как оказалось, хакеры смогли обойти и его.

Биометрические системы безопасности — не панацея

На проходившем на этой неделе в Германии ежегодном Всемирном конгрессе хакеров специалисты по исследованию систем цифровой безопасности рассказали, как им удалось создать из воска искусственную руку и обмануть с помощью нее систему сканирования подкожных кровеносных сосудов.

Метод идентификации по карте кровеносных сосудов использует алгоритмы, которые сравнивают рисунок вен на руке пользователя с содержащейся в базе данных эталонной информацией об этом человеке. Согласно последним данным немецких СМИ, такая система используется, например, в новом берлинском офисе Федеральной разведывательной службы Германии.

Пара слайдов, которые были показаны Крисслером в ходе его презентации

Одна из особенностей системы авторизации на основе метода сканирования подкожных кровеносных сосудов, выделяющая ее на фоне метода, скажем так, более традиционной системы сканирования отпечатков пальцев заключается в том, что хакеру сложнее вычислить структурные особенности карты кровеносных сосудов пользователя под кожей. Если речь идет об отпечатках пальцев, то получить их дубликат гораздо проще. Например, образец отпечатка можно получить из следов, оставленных на предметах, к которым прикасался человек, либо с помощью качественных фотографий пальцев.

Обратите внимание

Крисслер и Альбрехт создали свой имитатор ладони на базе фотографий своих собственных рук. Для получения образца карты кровеносных сосудов они использовали обычную однообъективную зеркальную камеру с демонтированным инфракрасным фильтром.

В общей сложности за 30 дней исследований Крисслер и Альбрехт получили более 2500 фотографий рук, отобрав в итоге наиболее удачные варианты для максимальной эффективности. После этого хакеры отлили из воска модели ладоней, а затем нанесли на их поверхность карту кровеносных сосудов.

Выводами своей работы Крисслер и Альбрехт поделились с компаниями Fujitsu и Hitachi. Со слов Крисслера, в Hitachi очень заинтересовались исследованием и даже отправили своих сотрудников обсудить его детали. Fujitsu в свою очередь пока никак не отреагировала на сообщение и запросы.

Следует понимать, что Крисслер и Альбрехт занимались этим исследованием всего около месяца. Таким образом, при наличии достаточного финансирования и ресурсов вероятный противник мог бы повторить результаты этих исследований, переведя их на новый масштаб.

Опасений добавляет тот факт, что объекты, которые защищаются подобными системами безопасности, как правило являются крупными транснациональными корпорациями, а также правительственными и в том числе военными организациями, которые могут представлять большой интерес со стороны государств-оппонентов.

Подписавшись на наш Telegram-канал, вы будете в курсе самых интересных событий из мира науки и технологий.

Источник: https://Hi-News.ru/technology/xakery-oboshli-odnu-iz-samyx-slozhnyx-sistem-bezopasnosti.html

Найден способ взламывать любую CAPTCHA за долю секунды

Международная группа исследователей сообщила о создании самого совершенного на сегодняшний день инструмента прохождения теста CAPTCHA, передает The Indian Times. В основе метода лежит разработанный специально для этого искусственный интеллект с функцией глубокого обучения. Девелоперы отмечают, что это самый эффективный способ обхода CAPTCHA по состоянию на декабрь 2018 г.

Алгоритм, название которому еще не присвоено, в сравнении с ранее представленными методами решения CAPTCHA, работает в несколько раз быстрее: на обычном пользовательском компьютере он может пройти тест всего за 0,05 с.

CAPTCHA или (Completely Automated Public Turing test to tell Computers and Humans Apart) – это автоматизированный публичный тест Тьюринга для различения компьютеров и людей. Он применяется для определения, кто отправляет запросы на сайт – человек или компьютер (робот). Первая версия CAPTCHA была представлена в 1997 г.

Специфика алгоритма

Предложенный метод решения CAPTCHA базируется на так называемой «генеративно-состязательной сети», предусматривающей наличие генератора решений с возможностью предварительного обучения.

Другими словами, разработчики сперва «натравили» алгоритм на большое количество учебных вариантов CAPTCHA, по степени защиты неотличимых от настоящих.

Они отметили, что для эффективного обучения их системы требуется в среднем 500 учебных «капч» вместо нескольких миллионов, которые понадобились бы без использования генеративно-состязательной сети.

Всего 0,05 секунды – и искусственный интеллект взломает CAPTCHA на вашем сайте

По результатам прохождения теста авторы метода вносят коррективы в работу искусственного интеллекта, тем самым повышая его эффективность.

Как отметил профессор Ланкастерского университета Великобритании и по совместительству один из участников проекта Жень Ван (Zheng Wang), это первый зафиксированный метод прохождения теста CAPTCHA с применением техники генеративно-состязательной сети.

Ван подчеркнул, что их исследование проводится с целью наглядно доказать уязвимость одного из самого популярного метода защиты к атакам нового поколения с использованием искусственного интеллекта. «Любой злоумышленник теоретически может обойти CAPTCHA менее чем за секунду.

Подобное делает этот тест в его текущем виде бесполезным», – добавил профессор.

Под угрозой весь интернет

Тест CAPTCHA в различных вариантах используют для защиты миллионы веб-ресурсов по всему интернету, в том числе Wikipedia, официальный сайт корпорации Microsoft и популярный онлайн-аукцион eBay.

Авторы нового алгоритма решения опробовали ее на 33 наиболее распространенных видах теста, и каждый из них был успешно решен.

Это означает, что CAPTCHA больше не может считаться надежным методом защиты – хакер, завладевший алгоритмом или написавший его аналог, получит возможность атаковать практически любой веб-сайт.

Защиты от искусственного интеллекта нет?

ИИ может стать угрозой для всего человечества, и дело не в потенциально возможном восстании машин, а в том, что современные методы защиты информации теряют свою актуальность. Сегодня искусственный интеллект победил CAPTCHA, а чуть меньше месяца назад, в ноябре 2018 г.

, в США заработала нейросеть DeepMasterPrints по подбору отпечатков пальцев. Используемые в ней алгоритмы позволяют подбирать «пальчики» к любому гаджету и к любым дверям с биометрической защитой, используя несовершенство этого метода защиты.

Не исключено, что именно по этой причине в 2017 г. компания Apple отказалась от использования системы Touch ID в своих смартфонах iPhone, а в 2018 г. – в планшетных компьютерах iPad.

Датчики отпечатков пальцев заменили на более надежную функцию сканирования лица Face ID, которую, впрочем, тоже можно обмануть при помощи высокоточной 3D-копии лица.

Важно

Но это вовсе не означает, что ИИ способен обойти любую из систем защиты информации, придуманной человечеством. Он пока еще не добрался до систем сканирования рисунка вен, который, как и отпечатки пальцев, уникален для каждого человека, и близнецы в данном случае – не исключение.

Подобные системы защиты пока встречаются не так часто, но все же используются вполне успешно на протяжении нескольких лет. К примеру, в 2014 г.

в Швеции началось использование технологии Quixter, интегрированной с системой электронных платежей, которая активно эксплуатируется в магазинах и кафе страны.

Источник: http://safe.cnews.ru/news/top/2018-12-06_iskusstvennyj_intellekt_raspravilsya_s_captcha

Как искусственный интеллект откроет хакерам доступ к вашему счету

По данным новых исследований, поддельные цифровые отпечатки пальцев, созданные искусственным интеллектом, могут обмануть дактилоскопические сканеры на смартфонах — а значит, хакерам будет легче обчищать банковские счета жертв.

Совместная работа исследователей Нью-Йоркского университета и Университета штата Мичиган рассказывает, как технологии глубокого обучения могут использоваться для подрыва биометрических систем безопасности. Исследование, спонсированное грантом Национального научного фонда США, получило первую награду на конференции по биометрии и кибербезопасности в октябре, сообщает Fortune.

Производители смартфонов вроде Apple и Samsung обычно используют биометрические технологии в своих девайсах, чтобы пользователи могли разблокировать свои устройства пальцами, без ввода пароля. Некоторые крупные банки, такие как Wells Fargo, стремясь предоставить своим клиентам должный уровень комфорта, открывают доступ к расчетным счетам по отпечаткам пальцев.

Но хотя сканеры отпечатков пальцев — это удобно, программное обеспечение, управляющее этими системами, можно взломать. Эта информация чрезвычайно важна — благодаря ей мы знаем, как преступники могут использовать новейшие технологии ИИ, чтобы обойти стандартные барьеры кибербезопасности.

Ученые обнаружили, что некоторые дактилоскопические системы безопасности можно обмануть, используя либо оцифрованные, либо фрагментарные изображения реальных отпечатков пальцев. Алгоритм под названием MasterPrints может обмануть биометрические системы безопасности, которые ориентированы на проверку лишь определенных частей отпечатка пальца, а не всего отпечатка.

Ирония в том, что люди, которые проверяют MasterPrints, могут с ходу распознать подделку по фрагментам отпечатков. Программное обеспечение не настолько умно.

Исследователи использовали нейронные сети — базовое программное обеспечение для формирования и подготовки данных — для создания убедительных цифровых отпечатков, которые выглядели даже лучше, чем изображения в предыдущем исследовании. Поддельные отпечатки пальцев казались настоящими не только человеческому глазу, но и некоторым сканерам отпечатков пальцев.

Слева — примеры реальных отпечатков пальцев, справа — сгенерированные ИИ поддельные отпечатки

Джулиан Тогелиус, один из авторов статьи и профессор кафедры информационных технологий Нью-Йоркского университета, рассказал, что его команда подделала отпечатки пальцев в программе под названием DeepMasterPrints, используя вариант технологии нейронной сети — генеративно-состязательную сеть (GAN), которая, по его словам, «покорила вселенную ИИ за последние два года».

Совет

Исследователи использовали GAN для создания достаточно убедительных, но тем не менее сфабрикованных фото и видео, известных как «глубокие фейки» — законодатели, в свою очередь, беспокоятся, что они могут быть использованы для подделки видеороликов и пропаганды, которые люди примут за чистую монету.

Например, исследователи рассказали о том, как с помощью ИИ можно «лепить» видеоролики, на которых бывший президент Барак Обама говорит то, чего не было и в помине — и это только начало.

Источник: https://ru.ihodl.com/technologies/2018-12-03/kak-iskusstvennyj-intellekt-otkroet-hakeram-dostup-k-vashemu-schetu/

Обучение в облаке: как защитить нейросеть от хакеров

Рынок публичных облачных сервисов достиг в 2017 году $154 млрд и превысит $186 млрд в 2018-м, согласно расчетам Gartner. Но он мог бы расти быстрее, если бы не проблемы с направлением SaaS (программное обеспечение как услуга).

Существующие облачные сервисы позволяют пользователю самостоятельно позаботиться о шифровании данных и даже застраховать возможные риски при модели IaaS (инфраструктура как сервис). Но такой подход требует продвинутой ИТ-экспертизы.

Другой вариант — использовать облачные сервисы в виде SaaS, когда пользователю достаточно лишь передать свои данные для работы системы и дожидаться результата. В последнем случае обработку информации и ее безопасность должен обеспечить оператор.

Но из-за обострившихся проблем с киберпреступностью клиенты стали осторожнее относиться к этой модели, что существенно замедлило рост всего сегмента SaaS на рынке облачных услуг.

Этот вопрос особенно актуален для компаний, использующих технологии ИИ. Для его быстрого обучения необходимы большие компьютерные мощности, чтобы не тратиться на собственное оборудование, и многие компании предпочитают переносить расчеты в облако.

Например, этим пользуются медицинские компании, проводящие диагностику заболеваний с помощью ИИ.

По оценкам компании Accenture, рынок искусственного интеллекта в области медицины ждет рост более чем в 10 раз за ближайшие три года, в результате чего он достигнет $6,6 млрд.

Обратите внимание

Нейронные сети сверточного типа эффективно распознают изображения, поэтому их пытаются применить для помощи врачу в поиске признаков заболеваний на магнитно-резонансной томографии (МРТ), рентгенограммах и т. п.

Читайте также:  Искусственный интеллект помогает врачам

Накопление большого объема сканов позволило бы качественно обучить нейросеть, но этому мешают законы о персональных медицинских данных. К тому же кибератаки все чаще направлены и на получение или порчу информации о пациентах: в апреле 2018 года вирус WannaCry атаковал Национальную службу здравоохранения Великобритании (NHS).

Поэтому инфраструктура для обработки данных пациентов нуждается в соблюдении строгих стандартов безопасности.

Быстрая, как газель

Большинство известных на текущий момент методов защиты информации существенно замедляет работу нейронной сети, в некоторых случаях в миллион раз, из-за необходимости постоянно кодировать и декодировать данные. В таких условиях облачная обработка данных теряет свое основное преимущество — скорость.

В исследовании MIT, представленном на конференции по безопасности USENIX в августе 2018-го, была презентована система под названием GAZELLE, сочетающая в себе две распространенные технологии: гомоморфное шифрование и протокол искаженного контура. Их сочетание позволяло обучать нейросеть в 20-30 раз быстрее, чем самые современные модели, при этом уменьшая требуемую пропускную способность сети на порядок.

Механизм работы GAZELLE схематично можно описать следующим образом: зашифрованное изображение отсылается на сервер, который производит распознавание, используя систему GAZELLE, после этого обе стороны обмениваются зашифрованной информацией для классификации изображения пользователя. Картинка и данные пользователя отсылаются отдельно, и система следит, чтобы сервер не узнал ничего о загруженных данных, в то время как пользователь — ничего не знал о сетевых параметрах.

Понятные технологии

Гомоморфное шифрование позволяет обрабатывать зашифрованную информацию и генерировать зашифрованный результат. То есть потенциальный хакер, перехватив информацию, все равно будет вынужден ее декодировать, но при этом сервер сможет провести операции, необходимые для обучения ИИ.

Пользователь получит результат, который легко расшифрует, так как имеет необходимые ключи. Казалось бы — идеальный метод, чтобы безопасно обучать нейросети на удаленных компьютерах. К сожалению, этот вид шифрования накапливает ошибки на каждом шаге вычислений.

Фильтрация шума требует дополнительной компьютерной обработки, и в результате скорость операций замедляется. Типичная проблема при шифровании данных.

Протокол искаженного контура позволяет двум участникам системы провести вычисление, которое требует от них предоставить данные (например, сравнить представленные ими значения), не давая участникам информацию о входных данных друг друга, а также не привлекая третью сторону (арбитра). Этот метод хорошо работает, когда количество вычислений невелико, но требует слишком больших мощностей, если надо совершать много операций. К сожалению, обучение нейросети — как раз второй вариант.

Ноу-хау исследователей Массачусетского технологического института заключается в объединении и чередовании этих методов таким образом, чтобы обойти их неэффективность. Работа сверточной нейронной сети по распознаванию изображений выполняется с использованием гомоморфного шифрования, а обмен данными и вычисления на стороне пользователя — с помощью протоколов искаженных контуров.

Фактически операции разделены так, чтобы каждый из алгоритмов мог показать свою сильную сторону. Распределяя нагрузку, система ограничивает гомоморфное шифрование на выполнение сложной математики на один уровень за раз, не позволяя накапливать ошибки и повышая производительность системы.

Третьим компонентом системы GAZELLE является модуль GAZELLE Network Inference для вывода результатов обработки нейронной сети. Когда пользователь отправляет зашифрованные данные в облачную службу, они разделяются между обеими сторонами. К каждой доле добавляется секретный ключ (случайные числа), который знает только владеющая сторона.

Во всех вычислениях каждая сторона всегда будет иметь некоторую часть данных, а также случайные числа. По окончании вычислений обе стороны синхронизируют свои данные, и только тогда пользователь запрашивает у облачной службы свой секретный ключ и получает результат, вычитая секретный ключ из всех данных, полученных после обработки.

Если хакер вмешается на любом этапе, кроме конечного, то получит только закодированные данные.

Кому это нужно

Несмотря на экспериментальный характер системы GAZELLE, возможно, уже в ближайшее время она будет применена для защиты алгоритма машинного обучения, распознающего наличие диабетической ретинопатии по снимку глаза. Этот медицинский подход был одобрен американской FDA (аналог Министерства здравоохранения в США) в апреле 2018 года.

Ценность системы, разработанной учеными MIT, в том, что она открывает дорогу в облако аналитическим системам, работающим с чувствительными данными, например при распознавании лиц и в сфере финансов.

Если GAZELLE успешно пройдет испытания, то ее влияние на распространение технологий распознавания изображения может быть сопоставимо с появлением безопасных протоколов SSL/TLS, которые сейчас обеспечивают защищенную передачу данных через интернет.

Источник: http://www.forbes.ru/tehnologii/367281-obuchenie-v-oblake-kak-zashchitit-neyroset-ot-hakerov

Искусственный интеллект, как инструмент для хакерских атак

Привет. Кибератаки в ближайшем будущем могут базироваться на технологиях искусственного интеллекта. На недавней конференции по кибербезопасности 62 профессионала из 100 опрошенных заявили, что считают, что первая кибератака с искусственным интеллектом может произойти в ближайшие 12 месяцев.

Это не означает, что роботы станут хакерами и начнут совершать эти атаки. Скорее всего, искусственный интеллект будет использован в качестве инструмента в руках хакеров для повышения эффективности краж личных данных, DDos атак и взлома паролей. 

Это достаточно опасно, так как при помощи этого вид взлома могут быть похищены деньги, причинен эмоциональный вред и даже причинен вред жизни и здоровью людей. Мощные атаки могут лишить электричества сотен тысяч людей, нарушить работу объектов жизнеобеспечения и даже повлиять на национальную безопасность.

Важно

Ученые, изучающие принятие решений в области AI, говорят, что на текущем этапе развития AI интерпретация человеческих действий по-прежнему сложна для машин и что люди не доверяют системам AI, когда надо принимать важные решения. 

Таким образом, в отличие от научной фантастики, вряд ли сегодня AI будет самостоятельно выбирать цели и нападать на них по своей “воле”, скорее всего, возможности AI могут быть использованы злоумышленниками при проведении ими кибератак . 

Людям по-прежнему придется создавать системы искусственного интеллекта и запускать их для решения определенных задач. Но, тем не менее, добавление огромных возможностей AI к сегодняшнему миру киберпреступности и миру кибербезопасности приведет к эскалации быстро растущей гонкой вооружений между атакующими и защитниками.

Более быстрые атаки

Отсутствие у машин таких ограничений, как усталость, необходимость в еде и сне, которые есть у человеческих хакеров, даже в случае работы командах, позволяет AI системам осуществлять сложные кибератаки намного эффективней.

На сегодняшний день влияние автоматизации ограничено. Ранее существовали технологии, очень отдаленно похожие на AI, которые на протяжении десятилетий давали вирусным программам возможность саморепликации, распространяющейся с компьютера на компьютер без конкретных человеческих инструкций. 

Кроме того, программисты использовали свои навыки для автоматизации различных элементов взлома. Распределенные атаки, например, включают запуск удаленной программы на нескольких компьютерах или устройствах для подавления серверов.

Атака, которая обрушила большие участки Интернета в октябре 2016 года, использовала этот тип подхода.

В некоторых случаях обычные атаки становятся доступными как сценарий, который позволяет любому неопытному пользователю выбирать цель и запускать против нее атаку.

AI, тем не менее, может помочь киберпреступникам повысить эффективность атак. Например, нападения с использованием шпионской информации требует, чтобы злоумышленники имели личную информацию о предполагаемых целях, сведения о их счетах в банках или какую медицинскую страховую компанию они используют.

Системы AI могут помочь собирать, организовывать и обрабатывать большие базы данных для снятия идентифицирующей информации, что облегчает и ускоряет этот тип взлома.

Это снижает затраты хакеров для запуска множества небольших атак, которые остаются незамеченными в течение длительного периода времени (если они вообще будут обнаружены) из-за их более ограниченного воздействия.

Системы AI могут также использоваться для сбора информации из нескольких источников, чтобы идентифицировать людей, которые были бы особенно уязвимы для нападения. Например, кто-то, кто госпитализирован или находится в доме престарелых, может не заметить деньги, пропавшие с их счета. 

Улучшенная адаптация

Вооруженные искусственным интеллектом хакеры будут намного быстрее реагировать на возможное сопротивление специалистов по кибербезопасности. AI может использовать другую уязвимость или начать сканировать новые пути взлома системы, не дожидаясь человеческих инструкций.

Это может означать, что специалисты по кибербезопасности окажутся не в состоянии реагировать со скоростью входящих атак. Это может привести к технологической гонке вооружений, при котором защитники будут разрабатывать помощников AI по выявлению и защите от атак или, возможно, даже с возможностями ответных атак.

Избегайте опасностей

Эксплуатация таких систем полностью автономно может привести к тому, что AI будут атаковать систему, которую не должны атаковать, или причинять непредусмотренный ущерб.

Например, программное обеспечение, запущенное злоумышленником, намеревающимся только украсть деньги, может решить настроить таргетинг на больничный компьютер таким образом, чтобы вызвать травму или смерть человека.

Потенциал беспилотных летательных аппаратов для автономной работы поднимает аналогичные вопросы безопасности.

Совет

Последствия таких атак могут быть значительными, но большинство людей, скорее всего, даже не заметят, когда первая атака AI будет совершена.

Для большинства пострадавших результат будет таким же, как и при обычных хакерских атаках, совершенных людьми.

Но по мере того как люди продолжают заполнять свои дома, фабрики, офисы и дороги интернет-подключенными роботизированными системами, потенциальные последствия атак при помощи искусственного интеллекта будут только возрастать.

Подробней, фото1, фото2, фото3

Источник: https://golos.io/ru–tekhnologii/%40konstantin/opasnost-ispolzovaniya-vozmozhnostei-iskusstvennogo-intellekta-dlya-soversheniya-moshnykh-khakerskikh-atak

Технология искусственного интеллекта в роли хакера – Reality — ежедневный интернет-журнал

Садитесь и наслаждайтесь шоу. Совсем недавно, в этом месяце, компьютеры сделали то, что раньше не было им доступно — они взламывали друг друга, и человек тут не причем.

Битва ИИ в Лас-Вегасе

На конференции по кибербезопасности  Black Hat в Лас-Вегасе искусственный интеллект сражался против искусственного интеллекта (далее ИИ — прим. Reality) в то время, когда из создатели сидели напротив и наблюдали за происходящим.

 Борьба развернулась нешуточная, ведь призовой фонд в этом «состязании умов» составил аж $4 миллиона — в рамках исследовательского проекта  проводимого в США (DARPA). Задача ИИ состояла в том, чтобы взломать компьютерную систему своего противника.

Они искали слабые места в защите и выясняли как их использовать для взлома.

Усложнение ИИ и применение его в качестве «взломщика» произвело впечатление на многих присутствующих. «Это действительно застало меня врасплох», — говорит Мэтт Девост из отдела  кибербезопасности фирмы FusionX в Вашингтоне, округ Колумбия. «Это событие может полностью изменить весь мир безопасности в сети в ближайшие 10 лет», — говорит он.

Целью конкурса является стимулирование развития автоматизированных систем, которые могут защитить пользователей интернета от хакеров. Победитель, с «именем» Mayhem, был создан  компанией ForAllSecure в Питтсбурге, штат Пенсильвания.

Мир электронных устройств становится для людей слишком сложным, чтобы они могли защититься самостоятельно. Таким образом, такие люди, как Брамли, разрабатывают инструменты, которые позволят людям чувствовать себя в относительной безопасности.

«С помощью ИИ можно создать такие средства защиты, которые способны работать автономно», — говорит Мэтт Девост ( компания FusionX — прим. Reality). «Если поручить ему одну единственную задачу по сканированию вашей сети, то он будет находить уязвимости в ней и устранять их самостоятельно»

На данный момент  компания ForAllSecure начала зондировать операционную систему Linux. Она используется многими компьютерами, которые работают в сети Интернет.

Фирма планирует выпустить свое программное обеспечение для проверки проблем безопасности с которыми сталкивается Linux.

«Поворотным моментом является то, что мы можем проверять не полностью весь продукт, а отдельный фрагмент его программного обеспечения и делать это автономно», — говорит Дэвид Брамли (директор ForAllSecure — прим. Reality).

Чтобы вы понимали: идея заключается в том, чтобы дать потребителям представление о том, насколько безопасно устройство, которое они хотят приобрести. «Если вы покупаете, например, маршрутизатор, то наша задача найти и донести до вас все уязвимости, которое имеет его программное обеспечение», — говорит Брамли.

Читайте также:  Baidu будет работать над ии для китайских военных

Обратная сторона медали

Девост не один знает о такой проблеме.

Сразу после конкурса ИИ в Лас-Вегасе, компания Electronic Frontier Foundation (EFF) (Фонд Электронных Рубежей — некоммерческая организация, занимающаяся защитой прав, которые могут быть нарушены в связи с появлением новых технологий связи, — прим.

Reality) — опубликовала статью, в которой они хвалят инициативу DARPA, но вместе с тем призывают исследователей собраться вместе, чтобы обсудить, как сохранить такие системы ИИ от рук злоумышленников, поскольку это может нанести поистине катастрофический ущерб.

Программное обеспечение, подобное Mayhem может использоваться, чтобы взять управление над подключенными устройствами в гораздо больших масштабах, нежели это могут себе позволить простые хакеры. Это откроет новые виды хакерских атак, которые превзойдут существующие.

Как это может использоваться злоумышленниками?

Например, хакеры могут получить контроль над «умными» термостатами, которые используются для охлаждения оборудования у производителей электроэнергии. А дальше требовать выкуп, угрожая «разрушить» всю систему кондиционирования воздуха, тем самым вызвав сильнейшую аварию всей сетки электросети.

И напоследок…

В докладе на конференции Black Hat, Мэтт Девост пошутил, что данная конкуренция между «добром и злом»  ознаменует запуск подобия Skynet — злого ИИ в фильме Терминатор.

«Все засмеялись», — говорит он. «Люди не понимают, что аплодируют своей собственной кончине!»

Источник: https://rjournal.ru/texnologiya-iskusstvennogo-intellekta-v-roli-xakera/

Хакеры вооружились ИИ и это вознесет их мощь до небес

IT NewsНовости рынкаБезопасность

Анна Шулина | 09.08.2018

Как сообщает агентство Reuters из Сан-Франциско, становится реальностью самый страшный ночной кошмар ИБ-специалистов.

Приложения, использующие искусственный интеллект, станут самообучаемыми и смогут обойти самые сложные системы защиты данных. Сигнал опасности поступил от команды IBM, которая работает, используя возможности искусственного интеллекта, над созданием средств ИБ с применением ИИ.

Подробности специалисты из IBM, как ожидается, представят на конференции по компьютерной безопасности Black Hat в Лас-Вегасе.

Современные средства защиты обычно полагаются на анализ деятельности вредоносного ПО, выявляя его атакующую способность.

Обратите внимание

Но приложения с искусственным интеллектом не проявляют себя до тех пор, пока не достигнут конкретной цели. Это делает их невидимками для систем обнаружения.

Стоит отметить, что пока еще никому не удалось обнаружить вредоносное ПО, снабженное искусственным интеллектом. И это дает основания полагать, что существующие средства защиты не слишком то и надежны.

«Я абсолютно уверен, что все ведет к тому, что программы с ИИ будут становится все совершеннее и их будет намного сложнее обнаружить», – сказал Джон ДиМаджио (Jon DiMaggio), старший аналитик по кибербезопасности компании Symantec.

Продвинутые хакеры, состоящие на службе у государства, уже показали, что они могут создавать ПО, которое активируется только тогда, когда оно достигает четко поставленной цели.

Наиболее известным примером является Stuxnet, которое было применено спецслужбами США и Израиля против установки оборудования по обогащению урана в Иране.

Однако сотрудниками IBM доказано, что аналогичный уровень программных продуктов может быть доступен и тем, у кого гораздо меньше ресурсов, чем у государственных служб.

Для демонстрации была использована общедоступная программа для просмотра фотографий и видеоконференций, взломанная с помощью искусственного интеллекта, которая срабатывала только по факту обнаружения определенного лица.

На недавней нью-йоркской конференции «Хакеры планеты Земля», специалист по безопасности компьютерных сетей Кевин Ходжес (Kevin Hodges) продемонстрировал программу начального уровня, которую он создал с использованием элементов ИИ, применив алгоритм обучения с открытым исходным кодом, дающий машине возможность последовательно варьировать подходы к атаке. «Нам стоит озаботиться этой проблемой сейчас», – сказал г-н Ходжес. «Потому что все киберзлоумышленники мира не дремлют и работают над той же задачей», – подчеркнул он.

Журнал IT-News № 09/2018    [ PDF ]    [ Подписка на журнал ]

Источник: https://www.it-world.ru/it-news/security/140303.html

Дроны и беспилотные автомобили как оружие: почему нам нужно бояться хакеров

Никто не станет отрицать, что искусственный интеллект может вывести нашу жизнь на новый уровень. ИИ в состоянии решить множество проблем, которые не под силу человеку.

Однако многие считают, что сверхразум обязательно захочет уничтожить нас, как SkyNet, или начнёт проводить опыты над людьми, как GLADoS из игры Portal. Ирония в том, что сделать искусственный интеллект добрым или злым могут только люди.

Ну как не захватить мир после такого

Исследователи из Йельского университета, Оксфорда, Кембриджа и компании OpenAI опубликовали отчёт на тему злоупотребления искусственным интеллектом. В нём говорится, что реальная опасность исходит от хакеров. С помощью вредоносного кода они могут нарушить работу автоматизированных систем под управлением ИИ.

Исследователи опасаются того, что технологии, созданные с благими намерениями, будут использоваться во вред. Например, средства наблюдения могут применять не только для поимки террористов, но и для слежки за простыми гражданами. У исследователей также вызывают беспокойство коммерческие дроны, которые доставляют продукты питания. Их легко перехватить и подложить что-нибудь взрывоопасное.

Важно

Ещё один сценарий разрушительного использования ИИ — беспилотные автомобили. Достаточно изменить несколько строчек кода, и машины начнут игнорировать правила безопасности.

В игре Watch Dogs хакер получил контроль над всеми системами города, и вот что из этого вышло

Учёные считают, что угроза может быть цифровой, физической и политической.

  • Искусственный интеллект уже используется для изучения уязвимостей различных программных кодов. В будущем хакеры могут создать такого бота, который обойдёт любую защиту.
  • С помощью ИИ человек может автоматизировать многие процессы: например, управлять роем беспилотников или группой автомобилей.
  • С помощью таких технологий, как DeepFake, можно влиять на политическую жизнь государства, распространяя ложную информацию о мировых лидерах с помощью ботов в интернете.

Эти пугающие примеры пока существуют только в качестве гипотезы. Авторы исследования не предлагают полного отказа от технологий. Вместо этого, они считают, что правительства стран и крупные компании должны позаботиться о безопасности, пока индустрия искусственного интеллекта только зарождается.

Разработчики, в свою очередь, должны оценивать опасность, исходящую от высоких технологий, предвидеть худшие последствия и предупреждать о них мировых руководителей.

В докладе содержится призыв к разработчикам ИИ: объединиться с экспертами по безопасности в других областях и выяснить, можно ли использовать принципы, обеспечивающие безопасность этих технологий, для защиты искусственного интеллекта.

Полный отчёт описывает проблему более подробно, но суть в том, что ИИ — мощный инструмент. Все заинтересованные стороны должны изучить новую технологию и убедиться, что она не используется в преступных целях.

Источник: https://Lifehacker.ru/ai-weapons/

Эксперт: хакеры вскоре могут начать использовать искусственный интеллект

Мнение

14:20 27.07.2017Получить короткую ссылку

28720

Искусственный интеллект начал успешно применяться для систем защиты, скоро его станут применяться для систем атаки, заявил технический директор группы QIWI Кирилл Ермаков

ДУШАНБЕ, 27 июл — Sputnik. Хакеры в атаках вскоре могут начать использовать технологию искусственного интеллекта, считает главный технический директор группы QIWI Кирилл Ермаков.

https://www.youtube.com/watch?v=EFd1uWNT0AU

В последнее время различные ведомства, компании и банки по всему миру фиксируют усиление кибератак. Недавние “нападения” вируса-шифровальщика WannaCry, а затем и вируса, получившего название ExPetr, показали уязвимость многих систем безопасности. В настоящее время бизнес стал все больше задумываться о необходимости совершенствования инфраструктуры для противодействия хакерским атакам.

“С точки зрения трендов мы видим, к примеру, что искусственный интеллект начал успешно применяться для систем защиты. Что мы можем предсказать на будущее? Что скоро он начнет применяться для систем атаки”, — заявил Ермаков в интервью РИА Новости.

По его словам, в среднем для большой компании приемлемым для уровня защиты киберсистем является один инцидент с крупными потерями (свыше миллиона долларов) раз в три года. “Это если присмотреться к открытым источникам. Но сколько инцидентов умалчивается!” — рассуждает эксперт.

“Вообще вся безопасность — это разговор про деньги. Специалисты стоят дорого. Программное обеспечение, которое необходимо создать самостоятельно или купить у разработчиков, стоит не меньше. И не стоит забывать, что внедрение усиленного контроля безопасности приводит к понижению эффективности бизнеса. Поэтому инвестиции надо рассчитывать очень и очень грамотно”, — отметил Ермаков.

На подготовку хакерской атаки киберпреступники тратят тысячи долларов, заявил ранее замначальника главного управления безопасности и защиты информации Банка России Артем Сычев.

© Sputnik /

По его словам, подготовка и проведение спам-рассылок или DDoS-атак стоят порядка 10-15 тысяч долларов, модификация вредоносного кода — около 15-20 тысяч долларов, аренда бот-сети (управляющих серверов) — порядка 1-15 тысяч долларов. При этом, отметил Сычев, доход участников преступных схем распределяется следующим образом: заливщик получает 20% дохода, картовод — 5-8%, дроппер — 20-40%, координатор — 30%.

Совет

Он подчеркнул, что, как только злоумышленники понимают, что не могут получить за раз большие суммы, что слишком много тратят на организацию атаки, тогда они пытаются уйти в другую сторону.

Сейчас у киберпреступников уходит примерно полгода на поиск уязвимостей. Так, если раньше они сосредотачивались на каналах банковского обслуживания, то теперь из интересует финтех, еще полгода-год уходят на создание опытного образца, рассказал Сычев.

Полтора-три года тратятся на тестирование нового способа хищений. Поэтому дальше злоумышленники пришли к выводу, что им перспективнее продать эту разработку на черном рынке, чем самим совершать непосредственные кражи, добавил он.

Источник: https://tj.sputniknews.ru/opinion/20170727/1022927376/ekspert-khakery-vskore-mogut-nachat-ispolzovat-iskusstvennyy-intellekt.html

Сбербанк: хакеры начали использовать искусственный интеллект для атак на банки

МОСКВА, 8 июня. /ТАСС/. Хакеры научились использовать искусственный интеллект при кибератаках на банки, сказал журналистам зампред правления Сбербанка Станислав Кузнецов.

“Атаки стали модифицироваться, стали использовать элементы искусственного интеллекта, чтобы можно было получать информацию о построении защиты, об архитектуре самих технологических и операционных систем банка, в том числе систем безопасности банков”, – отметил он.

По его словам, Сбербанк является для хакеров мишенью номер один среди кредитных организаций. В целом, по его словам, с начала года количество кибератак на банковский сектор увеличилось на 1,5-1,8 раза.

Сбербанк видит определенные киберриски в связи с проведением в России чемпионата мира по футболу, также отметил Кузнецов. “Что касается киберугроз, они были, есть и точно будут. Мы, конечно же, видим определенные киберриски, видим, что внимание к чемпионату мира точно будет повышенное со стороны киберпреступников.

И в этой связи нам известно, что в нашей стране принимаются на уровне государства дополнительные меры по защите для того, чтобы хеджировать эти риски.

На уровне кредитных организаций, финансового сектора, конечно же, мы дополнительные меры повышенного внимания и сейчас принимаем, и продолжаем принимать”, – сказал Кузнецов.

Он также отметил, что большинство банков, входящих в Ассоциацию “Россия”, подключатся к разработанной Сбербанком платформе по обмену данными о кибермошенниках к концу июня. “Банки, которые входят в Ассоциацию банков России, в подавляющем большинстве уже к концу июня будут подключены к технологической платформе киберзащиты”, – сказал Кузнецов.

Сбербанк предложил организовать в России независимую роботизированную систему, с помощью которой банки смогут обмениваться информацией об актуальных угрозах, реагировать на инциденты и противодействовать фишинговым атакам. Глава комитета ассоциации по информационной безопасности Станислав Кузнецов, предложил взять за основу платформу по обмену данными об инцидентах, которая разработана и успешно применяется в Сбербанке.

По словам Кузнецова, она агрегирует более 1 млн индикаторов в сутки и имеет актуальную информацию об угрозах в режиме онлайн. Нейронная сеть анализирует и оценивает паттерны поведения клиентов, выявляет нетипичные для них действия и сообщает о них специалистам по безопасности, пояснял он принцип ее работы.

Запуск платформы в промышленную эксплуатацию, предполагающую обмен информацией между Сбербанком и другими участниками рынка, планируется 18 июня. 

Источник: https://tass.ru/ekonomika/5276356

Может ли искусственный интеллект защитить нас от хакеров?

Марк Уорд Би-би-си

Image caption Какие терминаторы смогут защитить нас от зловредных хакеров?

С роботов-автомобилей и роботов-спасателей американское исследовательское агентство Darpa переключило свое внимание на роботов-хакеров.

Агентство Darpa, известное в первую очередь благодаря тому, что именно оно познакомило мир с интернетом, время от времени проводит конкурсы новых разработок, цель которых – справиться с очередным “большим вызовом” современности.

Соревнования призваны ускорить исследования в областях, требующих первоочередного внимания. Именно идеи Darpa легли в основу серьезных разработок беспилотных автомобилей и роботов, способных трудиться в зонах стихийных бедствий.

Обратите внимание

На очереди – Большой кибертурнир, цель которого – способствовать созданию программного обеспечения, выявляющего и устраняющего уязвимости других программ до того, как их обнаружили и использовали хакеры.

Читайте также:  Особенности постановки и решения задач с использованием искусственных нейронных сетей

“В настоящее время поиском и устранением уязвимых мест в программах занимаются исключительно люди, и это очень медленный процесс”, – объясняет Майк Уокер, возглавляющий Большой турнир Darpa.

По его словам, это представляет большую проблему в силу сложности современного программного обеспечения и фундаментальных трудностей, с которыми сталкивается один компьютер, пытаясь понять, что делает другой. И проблему эту описал еще пионер компьютерного дела Алан Тьюринг.

Правообладатель иллюстрации Getty ImagesImage caption Агентство Darpa устроило состязания для роботов, способных трудиться в зонах стихийных бедствий

Именно он предсказал, что, по мере того как мир будет заполняться миллиардами небольших, соединенных между собой умных машин, будет нарастать необходимость в решении проблемы их взаимопонимания.

“Смысл заключается в том, что в какой-то момент эти устройства начнут использоваться в таких масштабах, что без автоматики мы просто не сможем обеспечить эффективную сетевую защиту”, – предрек Тьюринг задолго до создания интернета.

Кульминацией кибертурнира станет проходящий на этой неделе съезд хакеров Def Con, на котором семь команд вступят в борьбу, чтобы выяснить, чья хакерская программа – самая лучшая.

Как взорвать “трояна”

Разумеется, автоматизированные системы цифровой защиты представлены не только на турнире Darpa.

Во всем мире широко используются автоматические программы для выявления вирусов.

По словам главного технолога компании Symantec Даррена Томсона, большая часть работы антивирусных программ должна быть автоматизирована просто потому, что злоумышленники разработали огромное количество компьютерных вирусов. Считается, что в ход уже запущено более 500 миллионов червей, троянов и иных вредоносных программ, и каждый день появляются тысячи новых.

На помощь пришлось привлечь автоматические алгоритмы, объясняет Томсон, поскольку традиционные антивирусы плохо справлялись с вредоносными программами, которых не было в их базе.

Правообладатель иллюстрации AFPImage caption Алан Тьюринг одним из первых занялся исследованием пределов возможностей компьютеров

“Эти программы выявляют лишь около 30-40% всего того, от чего мы защищаем пользователей”, – поясняет эксперт.

В остальном же компании, занимающиеся обеспечением кибербезопасности, всегда полагались на все более усложнявшиеся программы, которые на примере известных им вирусов обучались распознавать новые, неизвестные.

К ним добавились алгоритмы, которые следят за работой других программ и оповещают об опасности, если в этой работе происходит что-то неожиданное.

Некоторые системы защиты заключают подозрительно ведущие себя программы в виртуальный контейнер и с помощью разных методов пытаются “разорвать” вредоносный код и выявить его намерения.

“Мы имитируем нажатие клавиш и взаимодействие программы с пользователем чтобы убедить вирус, что он активизирован”, – рассказывает Томсон.

Умный код

Появление больших объемов информации позволило сделать важный шаг на пути к созданию программ защиты, которые позволяют перехватывать 60-70% вирусов, оставшихся незамеченными традиционными традиционным антивирусным софтом.

“Обучающиеся машины позволяют выявить ДНК вирусных семейств, а не просто отдельные вирусы,” – говорит основатель и исполнительный директор фирмы SentinelOne Томер Уэйнгартен.

Этот подход был почерпнут из мира даталогии, или науки о данных, и, по словам Уэйнгартена, оказался очень результативным благодаря огромной базе, быстро собранной компаниями, которые начали отслеживать поведение зараженных вирусами компьютеров.

“Так появился большой объем информации, и информации повторяющейся, – поясняет эксперт. – А это две необходимых составляющих для строительства очень надежного обучающего алгоритма, который может отличить хорошее от плохого. Если вы хотите сделать что-то вредное, вам нужно предпринять какие-то шаги, которые всегда будут отличаться от нормальных”.

Правообладатель иллюстрации Getty ImagesImage caption Системы безопасности используют машины, способные отслеживать поток информации в сети

Автоматизация выявления таких аномальных шагов необходима потому, что человек, или даже большая группа людей, не сможет выявить их достаточно быстро.

И такие обучающиеся машины могут обеспечить защиту не только компьютерам.

Когда речь заходит о крупных компаниях и даже правительствах, киберпреступники норовят проникнуть в из закрытые сети в поисках таких лакомых кусков, как базы данных клиентов, образцов новой продукции, контрактов, подробностей переговоров и ставок.

Это еще одна ситуация, в которой, по словам директора компании киберразведки и кибербезопасности Dark Trace Джастина Файера, машины заметно опережают своих создателей.

“Вы заставляете машину запомнить обширную базу данных, а затем с помощью вычислительной техники высокого уровня находите иголку в стоге сена, которой там не должно быть, – поясняет Файер. – Порой машина может заметить небольшую аномалию, которая укроется от человеческих глаз”.

Впрочем, предостерегает эксперт, не стоит обольщаться, будто способность машин к обучению – это и есть настоящий искусственный интеллект.

Важно

Конечно, это шаг вперед, говорит Файер, но для принятия окончательного решения, после того как машина заметила что-то подозрительное, по-прежнему требуется человеческий интеллект.

А кроме того, способность машин к обучению могут использовать не только те, кто занимается защитой.

“У нас был случай, когда мы выявили вирус, следивший за пользователями и запоминавший их привычки, – поясняет эксперт. – Нам остается лишь прийти к выводу, что этот вирус пытался найти наиболее удобный способ извлечения информации без возбуждения подозрений. Так что, когда обучающиеся машины начнут использовать хакеры, начнется самое интересное”.

Источник: https://www.bbc.com/russian/features-36935149

Эшелонированная оборона или защита информации от хакеров

Обычно под стратегией обороны подразумевается нагромождение многочисленных проверок и технологий защиты. Но это не всегда повышает информационную безопасность.

Представьте себе ситуацию, где компании нанимают дополнительных специалистов по кибербезопасности без особых требований. Да, расходы на безопасность увеличиваются, но не факт, что уровень кибербезопасности повысится. Не стоит забывать про утечку информации за счет не контролируемых физических полей

Глубоко эшелонированная защита

В идеале, эти спецы должны не дублировать свои обязанности, а расширять возможности друг друга. То есть каждый из них должен быть экспертом в какой-то определенной области. Сообща они смогут настроить глубоко эшелонированную защиту, которая обеспечит более надежную защиту, чем нагромождение многочисленных проверок и технологий защиты.

Почему это так важно?

Например, системный администратор настроил для организации хорошо защищенную локальную сеть от внешнего проникновения, но ее сотрудники не обладают необходимым уровнем знаний, которые смогут уберечь их от фишинговых атак и прочих методов социальной инженерии.

Получается сотрудник может сам запустить вредоносный скрипт, тем самым поможет хакеру обойти многие уровни защиты. В этом и заключается суть использования глубоко эшелонированной защиты.

Отчеты компаний по информационной безопасности говорят, что с каждым годом хакерские атаки становятся более сложными. Если Вы хотите защитить свой бизнес, то нужно идти в ногу со временем.

Компания Майкрософт одна из первых стала развивать машинное обучение.

Сейчас в windows 10 они используют искусственный интеллект, который анализирует поведение пользователя и может определять не свойственные для него действия и передавать информацию в центр безопасности.

Недавно им удалось остановить крупную атаку. За 12 часов около 500 000 компьютеров было заражено вредоносным скриптом, который устанавливал программы для майнинга.

Модель глубоко эшелонированной защиты информации

Скажу сразу, что не стоит брать уже готовую модель эшелонированной защиты, так как высока вероятность, что она может не подойти.

Например, окажется слишком сложной и не будет учитывать специфику работы организации для которой необходима индивидуальная модель глубоко эшелонированной защиты.

Кстати, разработка с нуля может оказаться более эффективной, чем переработка модели взятой у другой организации.

Источник: https://goodlucker.ru/uslugi/eshelonirovannaya-oborona.html

В darpa намерены использовать искусственный интеллект для защиты от существующих и новейших киберугроз

Как подсчитали эксперты по кибербезопасности, хакеры располагают, в среднем, 312 сутками в году на то, чтобы использовать уязвимости «нулевого дня» до того момента, когда они будут выявлены и устранены.

В этой связи руководство Управления перспективных исследовательских программ Пентагона DARPA объявило о старте реализации нового проекта, целью которого станет определение потенциальных возможностей искусственного интеллекта в обнаружении и устранении уязвимостей нового ПО за время, исчисляемое в промежутке от нескольких секунд — до нескольких минут.

В рамках этой новой программы предусмотрено своеобразное соревнование Cyber Grand Challenge, представляющее собой настоящее сражение систем искусственного интеллекта.

В рамках задачи, поставленной перед системами ИИ планируется взлом сервера условного противника с одновременной защитой своих собственных серверов, а также поиск и устранение недостатков программного обеспечения «на лету». Победитель соревнования — автор разработки системы получит приз в 2 миллиона долларов, обладатель второго места претендует на 1 миллион, призовой фонд за третье место составит 750 тысяч долларов.

Результат битвы ИИ, по убеждению руководства DARPA, позволит определить систему искусственного интеллекта, пусть и нуждающуюся в некоторой дальнейшее доработке, но уже сегодня способную оказать эффективную помощь экспертам по кибербезопасности.

«Обороноспособность» вычислительных систем сегодня обеспечивается благодаря постоянной работе группы высококвалифицированных специалистов, выявляющих признаки угроз и разрабатывающих меры борьбы с ними в режиме реального времени.

Совет

С учетом сложности и многогранности этого процесса, а также количества сообщений об ошибках в случае сбоев программного обеспечения, каждое из которых требует анализа говорить об эффективном противодействии в случае масштабных кибератак не приходится.

В этой связи интеграция возможностей ИИ позволит избавить экспертов от колоссального объема рутинной работы по мониторингу текущей ситуации. Такие системы, уверены в агентстве, смогут производить более быстрый и всесторонний анализ проблем, минимизировать время реакции, автоматически генерировать корректирующие программные коды, устраняющие обнаруженные уязвимости.

Проведение соревнования Cyber Grand Challenge запланировано на 4 августа 2016 года в Лас-Вегасе. На протяжении 10 часов участники команд-разработчиков смогут только наблюдать за тем, как их творения сражаются друг с другом в виртуальном цифровом пространстве.

Но ключевым этапом соревнования станет финал, в котором системы искусственного интеллекта, претендующие на лавры победителей будут действовать в рамках изолированной сети, а на подзащитных серверах будет функционировать совершенно новый и неизвестный им программный код.

И на этом этапе для того, чтобы приступить к обнаружению и устранению уязвимостей ИИ потребуется самостоятельно определить, изучить язык сетевого общения и логику программного взаимодействия.

Для того, чтобы атаковать конкурентов, система ИИ должна самостоятельно обнаружить слабые места серверов противника. При обнаружении уязвимости системе потребуется сообщить об этом членам жюри и составить аналитический прогноз последствий, которые могут наступить в случае использования обнаруженной уязвимости.

Примерно так действует игрок в бильярд, планирующий сложный удар-многоходовку с несколькими касаниями, который должен закончиться попаданием шара в определенную лузу.

Системы ИИ не будут пытаться «валить» сервера конкурентов, но будут набирать очки, обнаруживая уязвимости в чужих серверах, и терять очки в случае, если они не смогут защитить свои собственные сервера, вовремя устранив обнаруживаемые уязвимости.

«Через 21 день мы собираемся произвести большой научный эксперимент в области искусственного интеллекта и одновременно эксперимент по обеспечению жизнеспособности компьютерных систем.

Обратите внимание

Пока мы даже не готовы представить себе какие результаты нам удастся получить» — пишут представители DARPA, — «Но даже убедительная победа в соревновании Cyber Grand Challenge станет только началом длинного пути развития искусственного интеллекта.

Следующим шагом станет выступление победителя на конференции хакеров DEF CON 2016, где ИИ уже предстоит противостоять действиям высококвалифицированных и авторитетных хакеров-экспертов».

Источник

На этом всё, с вами был Dronk.Ru. Не забывайте возвращать деньги за покупки в Китае и подписываться на наш блог, будет ещё много интересного.

Рекомендуем: — Экономим до 8% с каждой покупки на AliExpress и других интернет-магазинах Китая — Почему интернет-магазины отдают деньги за покупки? — Верните свои деньги — Выбираем кэшбэк-сервис для Aliexpress — История развития Dronk.ru — от выбора квадрокоптеров до возвращения денег за покупки на AliExpress и не только

— Лучший кэшбэк сервис или 5 основных критериев оценки кэшбэк-сервиса

Источник: https://se7en.ws/v-darpa-namereny-ispolzovat-iskusstven/

Ссылка на основную публикацию