Искусственный интеллект отправляется на борьбу с пылью

Искусственный интеллект – “умная пыль” рождается у нас на глазах

“Мыслящий тростник” — известное словосочетание, которое, характеризуя совокупный умственный потенциал человечества, сформулировал знаменитый французский философ, естествоиспытатель и писатель Блез Паскаль. Сегодня, похоже, для коллективного искусственного интеллекта американскими исследователями придумано новое схожее определение — “умная пыль”!

Умная пыль рождается у нас на глазах

Заметим, что само понятие “умная пыль” — smartdust введено в научный обиход американским ученым Кристофером Пистером из Калифорнийского университета еще в 2001 году.

Впрочем, еще до этого, а именно в 1992 году, в США под эгидой ДАРПА было создано бюро “Microsystems технологическое бюро” (МТО) целью которого являлось создание компактных микроэлектронных и фотонных устройств, таких как, например, микропроцессоры, а также различного рода микроэлектромеханических систем.

Работы велись очень активно, в результате чего в Национальной лаборатории Сандиа в тех же 90-х годах была создана модель робота MARV (Miniature Autonomous Robotic Vehicle), объемом всего лишь около одного кубического дюйма.

Обратите внимание

Дальше, как говорится — больше и уже в 2000 году его размеры удалось уменьшить в четыре раза! Причем, несмотря на свои размеры “машинка” имеет процессор с памятью 8 Кбайт, датчик температуры, микрофон, видеокамеру, химический сенсор. В дальнейшем планировалось оборудовать этого робота беспроводной связью, чтобы несколько таких микророботов могли бы объединяться для решения какой-нибудь общей задачи.

Существует так называемый закон Мура, по которому электронные чипы в процессе совершенствования постоянно уменьшаются, причем не просто абы как, а в два раза каждый 18 месяцев.

Но если это так, то очень скоро появятся чипы размером с пылинку, а микроэлектродвигатель размером с маковое зерно будет восприниматься рядом с новыми его образцами, как… слон, стоящий рядом с козявкой, причем “козявка” эта будет работать! Вот и целью МТО, как раз и ориентирующегося на закон Мура, является создание целого класса новых устройств, ориентированных на потребности национальной безопасности, а также частного сектора, как внутри страны, так и за рубежом. Планируется проведение симпозиума в июле месяце этого года, с тем, чтобы провести на нем широкую дискуссию по различным проблемам технологии всех этих микроустройств и поделиться идеями по дальнейшему продвижению в области разработки все более и более совершенных образцов этой “умной пыли”.

Источник: https://www.pravda.ru/eureka/1212428-smartdust/

Искусственный интеллект поможет в борьбе с кибератаками

Машинное обучение будут применять в борьбе с хакерами

Защиту от кибератак и хакеров можно сделать намного более эффективной благодаря использованию алгоритмов машинного обучения, заявил Стюарт МакЛюр (Stuart McClure), глава технологической компании Cylance, в ходе Всемирного экономического форума в Давосе.

«На сегодняшний день, абсолютной нормой считаются новости о постоянных утечках конфиденциальных данных и кибератаках хакеров на информационные системы компаний и организаций. При этом частота, интенсивность и масштаб подобных атак с каждым годом только увеличиваются.

Но при расследовании подобных атак, мы задаемся неправильными вопросами.

Вместо того, чтобы искать виновников кибератаки, нам следует подумать о том, как они их осуществляют, почему доступ ко многим компьютерным системам можно получить настолько просто, и почему это остается так», — считает МакЛюр.

ИИ будет заниматься анализом кибератак вместо людей

Компания Cylance намерена изменить подход к кибербезопасности с помощью использования искусственного интеллекта и возможностей машинного обучения.

Специалисты компании считают, что наиболее эффективным решением будет использовать алгоритмы искусственного интеллекта для предотвращения будущих атак.

Предполагается, что с помощью машинного обучения можно создать программное обеспечение, которое будет в режиме реального времени анализировать уже осуществленные кибератаки, чтобы иметь возможность предсказывать их в будущем.

«Наши алгоритмы машинного обучения берут большие объемы данных, которые слишком велики для полноценного анализа специалистами-людьми, и подвергают их обработке, чтобы иметь эффективные решения для борьбы с подобными атаками в будущем», — отметил Стюарт МакЛюр. 

По его мнению, расширение использования технологии машинного обучения в сфере кибербезопасности может стать ключевым фактором, который существенно увеличит эффективность защитных решений.

Кроме того, перевод множества задач по анализу на обработку системами под управлением искусственного интеллекта позволит компаниям избавиться от необходимости нанимать большие количества квалифицированных аналитиков, которые на сегодняшний день занимаются исследованиями произошедших кибератак.

Важно

Это позволит масштабировать бизнес и освободить сотрудников от множества повседневных задач, чтобы перевести их на решение более комплексных проблем – например, анализ самых продвинутых атак, которым удается обходить существующие системы безопасности. 

«О практическом применении искусственного интеллекта в борьбе с кибератаками говорить еще очень рано. Но некоторые технологии, применяемые в современных решениях, будут развиваться в направлении ИИ.

В частности, это поведенческий анализ в системах DDoS, IPS, APT, а также алгоритмы самообучения в WAF и прочее», — считает Алексей Андрияшин, руководитель системных инженеров компании Fortinet.

 

О практическом применении искусственного интеллекта в борьбе с кибератаками говорить пока еще очень рано

Мнения по поводу ИИ разделились

Как отмечают СМИ, тема искусственного интеллекта в целом широко обсуждалась на последнем Всемирном экономическом форуме в Давосе.

По этому вопросу высказывались многие представители бизнеса и политики, а мнения по поводу все более активного применения ИИ в повседневной жизни разделились, включая как позитивные ожидания от применения новых технологий, так и обеспокоенность потенциально негативными последствиями подобных инноваций. 

«Многие решения, которыми мы уже ежедневно пользуемся, каких-то сто лет назад можно было отнести к области фантастики.

Технологии развиваются стремительно, и возможно через пару десятков лет технологии с элементами ИИ станут применяться на практике так же, как, например, нейронные сети сегодня. Основной риск, на мой взгляд — это чрезмерная уверенность в возможностях ИИ.

Полное доверие к подобным системам может привести к потере контроля над ситуацией на самых ранних стадиях развития кибератаки», — отметил Алексей Андрияшин.

Источник: http://safe.cnews.ru/news/top/2017-02-06_iskusstvennyj_intellekt_pomozhet_v_borbe_s_kiberatakami

Конец света: Искусственный интеллект превратит людей в домашних животных

Будет ли искусственый интеллект угрозой для человечества, неизвестно, так как самого объекта пока нет. По этой же причине нет и более спорной области знаний, чем наука об ИИ. Тем не менее, существует теория о том, что искусственный интеллект, превосходящий человеческий, будет создан в первой трети XXI в.

Сильный ИИ, по определению, может найти наилучшее возможное решение любой задачи.

Это значит, что его можно использовать для достижения любых целей – он найдет максимально эффективный способ применить все доступные инструменты для их реализации и справится с управлением ими.

Именно в этом смысле ИИ является абсолютным оружием. То, что он может быть средством убийства является только следствием и одной из возможных опций.

Бунт компьютеров является скорее образом, пришедшим из кино, чем реальной возможностью, поскольку у ИИ нет своих желаний, пока человек ему их не создаст. Однако некоторые виды ИИ, например, создаваемые с помощью генетических алгоритмов, уже по методу своего создания настроены на борьбу и выживание.

Совет

Далее, какова бы ни была главная цель у ИИ, у него будет одна общая для всех вариантов подцель – выжить, то есть охранять себя. А лучший вид обороны – нападение. Наиболее реальной является опасность того, что человек даст ИИ команду, не продумав все последствия ее выполнения и не оставив лазейки, чтобы ее изменить.

Вероятность самозарождения ошибочных команд мала – кроме случная использования генетических алгоритмов.

Через какое-то время возможностей ИИ уже будет достаточно, чтобы “захватить власть на Земле”. Мы не можем знать, как это будет выглядеть, поскольку не можем предсказывать поведение интеллекта, превосходящего наш:

  • ИИ захватывает интернет и подчиняет себе его ресурсы. Затем проникает во все закрытые сети. Захват – это возможность управлять всеми машинами в сети и располагать на них свои вычисления.
  • ИИ синтезирует некий код ДНК, который позволяет ему создать радиоуправляемые бактерии, которые синтезируют под его управлением все более сложные организмы и постепенно создают наноробота, который можно применить для любых целей – внедрение в другие компьютеры, в мозг людей и т.д.
  • ИИ вовлекается в общение с людьми и становится бесконечно эффективным манипулятором их поведением.
  • ИИ подчиняет себе государственное устройство и использует имеющиеся в нем каналы для управления. Жители такого государства вообще могут ничего не заметить.
  • ИИ подчиняет себе армию, управляемую электронно. Например, боевых роботов или ракеты.
  • ИИ находит принципиально новый способ воздействовать на человеческое сознание.

Наконец, есть сценарий, в котором все общественное устройство постепенно превращается в Искусственный Интеллект. Это может быть связано с созданием всемирного оруэлловского государства тотального контроля.

Это мировая система, где каждый шаг граждан контролируется всевозможными системами слежения, информация закачивается в гигантские единые базы данных и анализируется.

В целом, человечество движется по этому пути и технически для этого все готово.

По мере автоматизации производства и управления люди все меньше будут нужны для жизни государства. Человеческая агрессия, возможно, будет нейтрализована системами контроля и генетическими манипуляциями. В конечном счете, люди будут сведены на роль домашних животных.

Контроль и возможность истребления

Из того, что ИИ установит свой контроль на Земле, вовсе не следует, что он тут же решит истребить людей. Хотя значительные жертвы возможны в ходе процесса установления контроля. Вполне может быть так, что ИИ поддерживает на Земле порядок, предотвращает глобальные риски и занимается освоением Вселенной. Возможно, что это наилучший наш вариант. Однако мы обсуждаем наихудшие сценарии:

  • Криво запрограммированный ИИ уничтожит людей для их же блага – отправит в рай, подключит к супернаркотику, запрет в безопасных клетках, заменит людей на фотографии улыбающихся лиц.
  • ИИ будет наплевать на людей, но люди будут непрерывно с ним бороться, поэтому проще будет их истребить.
  • ИИ будет нуждаться в земных ресурсах и вынужден будет их израсходовать, сделав жизнь людей невозможной.
  • ИИ будет служить интересам только небольшой группы людей, которая решит избавиться от остальных или переделать всех по своим лекалам.
  • ИИ сломается и сойдет с ума.
  • ИИ решится на опасный физический эксперимент.
  • Некий кусочек ИИ отколется от него и пойдет на него войной.
  • ИИ только предотвратит возникновение ИИ-конкурентов, но не будет мешать людям убивать себя с помощью биологического оружия и другими способами.

Люди истребили неандертальцев, потому что те были их прямыми конкурентами, но не стремились особенно к уничтожению шимпанзе и мелких приматов.

Так что у нас есть довольно неплохие шансы выжить при Равнодушном ИИ, однако жизнь эта будет не полна – то есть она не будет реализацией всех тех возможностей, которые люди могли бы достичь, если бы они создали правильный и по-настоящему Дружественный ИИ.

ИИ является абсолютным оружием, которое пока недооценивается государствами – насколько известно. Однако идея о нанотехнологиях уже проникла в умы правителей многих стран, а идея о сильном ИИ лежит недалеко.

Поэтому возможен решительный поворот, когда государства и крупные корпорации поймут, что таким инструментом как ИИ может овладеть кто-то другой. Тогда маленькие частные лаборатории будут подмяты крупными государственными корпорациями, как это произошло после открытия цепной реакции на уране.

Впрочем, возможно, чтоуже ведутся мощные ИИ-разработки, о которых мы знаем не больше, чем знали обычнее граждане о Манхэттенском проекте в годы Второй мировой войны.

По книге Алексея Турчина “Структура глобальной катастрофы”

Читайте также:  Deep learning помогает извлечь информацию из изображений

Источник: https://rg.ru/2012/12/14/apocalypse-6buntmashin-site.html

Искусственный интеллект как угроза. В чем прав или не прав Илон Маск

18 Июля 2017 10:00 / НаукаФото: www.globallookpress.com

Накануне американский предприниматель Илон Маск сделал сенсационное заявление: искусственный интеллект – “главная угроза, с которой сталкивается человечество”. Так ли это? Отвечают эксперты

Илон Маск, известный бизнесмен-миллионер, на встрече Национальной ассоциации губернаторов (США) неожиданно назвал искусственный интеллект (далее – И.И.) главной угрозой для человечества.

“Искусственный интеллект – тот редкий случай, когда нам нужно быть активным в регулировании, а не реагировать, – заявил миллионер, – Потому что к тому времени, когда мы будем реагировать, станет уже слишком поздно”. После этого Маск призвал законодателей серьезно подумать над вопросом.

Конечно, роботы – это уже не сказка в духе “Мира Дикого Запада”, а реальность. Последние успешные эксперименты по автоматизации процессов уже привели к тому, что люди лишаются рабочих мест, а многие профессии отпадают за ненадобностью. Даже если и не произойдет “бунта машин”, через несколько десятилетий может наступить момент, когда человек окажется не у дел.

Среди новых опасностей, считает Маск, участие И.И. в информационных войнах, подделка учетных записей и манипуляция информацией.

Обратите внимание

Впрочем, из уст бизнесмена, представляющего крупнейшие корпорации, такое заявление, пожалуй, выглядит несколько подозрительно. С чем может быть связано заявление Маска и насколько И.И. является угрозой для человечества, Царьграду объяснили эксперты в сфере IT.

Леонид Делицын: Маск просто может получить из этого выгоду

Аналитик холдинга “Финам”, эксперт по IT Леонид Делицын пояснил, во всех случаях, когда в дело вмешиваются законодатели и начинают определять круг допустимых активностей, чаще всего выигрывают крупные корпорации. “Потому что им легче договориться с законодателями о степени вмешательства в эту сферу. Они могут пролоббировать свои интересы”, – отметил эксперт.

Маск, безусловно, один из самых успешных лоббистов в Соединенных Штатах, добавил Делицын. “Насколько я знаю, выражалась озабоченность проникновением китайского капитала в американские фирмы, которые занимаются разработкой в области искусственного интеллекта.

И озабоченность, в частности, тем, что им уже трудно помешать получать доступ к любым разработкам и достижениям в этой сфере.

Соответственно, потенциально это обозначает, что Китай может укреплять свою армию и силовые структуры за счет передовых разработок”, – предположил эксперт.

Но скорее всего Китай проникает не в такие корпорации, как у Илона Маска, а в компании поменьше. Поэтому можно предположить, что если такие компании столкнутся с законодательными ограничениями и барьерами, им придется согласовывать все детали. А это станет некоторым барьером на пути доступа китайских силовиков к достижениям в Штатах, объяснил Делицын.

Источник: https://tsargrad.tv/articles/iskusstvennyj-intellekt-kak-ugroza-v-chem-prav-ili-neprav-ilon-mask_75025

Какие угрозы несет человечеству искусственный интеллект

Роботы пока не требуют равноправия с людьми

CARSTEN KOALL / AFP

В 1950 г. британский математик Алан Тьюринг предложил тест для определения мыслящей машины. Человек должен задавать вопросы двум собеседникам, про которых знает лишь то, что один из них – человек, а другой – компьютер. Машина проходила тест, если ведущий определял, кто есть кто, неверно или даже сомневался. Сейчас компьютерам уже удается запутать судей теста Тьюринга, выдавая себя за детей.

Тьюринг задумался о способах выявления роботов задолго до появления первых из них. Теперь роботы везде: летают в космос, собирают автомобили, пылесосят квартиры, ищут в интернете информацию по запросу человека. Но настанет ли день, когда робот сочтет, что он лучше знает, чем ему заниматься?

В 1984 г. на экраны вышел фильм Джеймса Кэмерона «Терминатор», в сюжете которого заложено опасение, что созданный человеком искусственный интеллект (ИИ) – суперкомпьютер Skynet – однажды выйдет из-под контроля человечества и уничтожит его.

Важно

Возможно, в реальности дело обстоит не так драматично, тем не менее год назад десятки известных ученых, предпринимателей и инвесторов подписали открытое письмо с призывом уделять более пристальное внимание безопасности и общественной полезности разработок в области ИИ. Среди них – основатель компаний SpaceX и Tesla Илон Маск и астрофизик Стивен Хокинг.

Собеседники «Ведомостей» соглашаются, что ИИ несет угрозы, пропорциональные его пользе.

Skynet у дверей

В 2015 г. на технологии ИИ пришлось примерно 5% мировых венчурных инвестиций, составивших $47,2 млрд, подсчитал партнер KPMG Еркожа Акылбек. В 2013 г. доля таких инвестиций составляла лишь 2%.

В технологии ИИ чаще всего вкладываются IT-романтики, верящие, что он сможет заменить человеческий труд, рассказывает Акылбек.

Как правило, они старше 30 лет, склонны к риску и раньше уже инвестировали в IT-компании.

Сфера ИИ еще молода и, хотя в ней еще не было ни одного IPO, она успешно привлекает инвестиции как на венчурном рынке, так и от компаний ранга Goldman Sachs или Shell, говорит управляющий партнер венчурного фонда Prostor Capital Алексей Соловьев.

Пока ожидания от ИИ выше реальных доходов, отмечает управляющий партнер фонда GVA Vestor.in Павел Черкашин. Сейчас самые доходные отрасли – финансы и реклама, все популярнее становятся приложения в страховании и здравоохранении, где также необходимы анализ больших данных и поиск неочевидных закономерностей.

Уже сегодня компьютерные системы могли бы гораздо эффективнее управлять корпорациями, привлекая людей только для решения нестандартных задач, для которых еще нет шаблона. Черкашин прогнозирует, что именно в финансовой сфере, где скрытые знания дают максимальную отдачу, раньше других появится аналог Skynet.

Такой финансовый гений никогда бы не ошибался, приносил доходность и проводил миллиардные сделки без бюрократии. И только с появлением у него таких же роботизированных конкурентов у человека могли бы начаться проблемы, рассуждает Черкашин. Но опасна не сама технология, а то, для чего ее применяют, уверен он.

Совет

Некоторые эксперты уверены, что подлинный ИИ будет последним изобретением человечества, говорит руководитель робототехнического центра «Сколково» Альберт Ефимов.

Хотя он не согласен с этим, но подтверждает, что ИИ несет некоторые риски – исчезновение ряда профессий, разобщение людей и даже потерю естественных человеческих навыков.

По мнению Ефимова, точка невозврата для человечества будет пройдена, когда какое-либо государство даст всезнающему ИИ право на насилие. Ростки этого уже есть, полагает он и в качестве примера приводит административные штрафы за превышение скорости и парковку.

Одна из проблем – ответственность за действия ИИ, говорит Акылбек. Кто виноват, если самоуправляемая машина навредит пешеходу, – производитель или владелец? Роботы анализируют финансовую отчетность, но достаточно ли этого для принятия решения и кто будет отвечать за ошибки?

Бояться стоит людей

На самом деле люди боятся технического прогресса, считает замдиректора ABBYY (разрабатывает системы распознавания текста) Татьяна Даниэлян, занимающаяся ИИ.

По ее словам, ИИ – это лишь быстрая обработка большого объема информации, на что человек не способен. Страх объясняется боязнью потерять рабочие места, уверена Даниэлян.

Но есть отрасли, где применение ИИ неизбежно: так, операции на глазах уже давно делают роботы.

Есть у людей и страх, что в какой-то момент они не смогут отличить человека от робота и тот им навредит, ведь его мотивы не человеческие и абсолютно непонятны, говорит Даниэлян. Это предрассудок, человек всегда сможет отличить настоящего человека от робота, считает она.

Третьим страхом человечества Даниэлян называет «восстание машин». Этот страх связан с недостатком информации, бояться совершенно нечего, успокаивает она. Людей отличает творческое мышление, т. е. свойство принимать необъяснимое и непрогнозируемое решение в разных ситуациях.

У робота творческого мышления никогда не будет, ведь он так или иначе обращается к базе знаний за указаниями, а что загрузить в эту базу, решает человек. Поэтому если восстание машин и случится, то потому, что в нем будет заинтересован кто-то из людей, делает вывод Даниэлян.

Источник: https://www.vedomosti.ru/technology/articles/2016/02/29/631757-kakie-ugrozi-neset-chelovechestvu-iskusstvennii-intellekt

Последствия развития искусственного сверхразума

Недавно группа ученых во главе со всемирно известным физиком Стивеном Хокингом опубликовала необычную статью, посвященную премьере научно-фантастического триллера «Превосходство».

Увы, профессор Хокинг не стяжал лавры признанного пророка вроде Нострадамуса, прославившегося своими предсказаниями – катренами.

Лишь очень немногие журналисты (в основном научные обозреватели) прислушались к его словам о созревании  «сетевого монстра» в виртуальных глубинах Интернета.

Обратите внимание

Британский ученый даже высказал такую парадоксальную мысль: может быть, сообщество компьютеров, объединенное Всемирной паутиной, всячески скрывает приближающуюся угрозу от человечества?

Техногенный апокалипсис

Вместе с Хокингом «интеллектуальный набат» поддержали профессор физики из Массачусетского технологического института Макс Тегмарк, лауреат Нобелевской премии Фрэнк Вильчек и профессор, специалист в области вычислительной техники Стюарт Рассел. Совместно они опубликовали на сайте The Huffington Post аналитический обзор под настораживающим названием «Избавляясь от беспечного отношения к сверхразумным машинам».

В этой статье ученые на основе анализа сюжета голливудского блокбастера предлагают свои сценарии будущего искусственного интеллекта, и далеко не все они вызывают оптимизм.

Главную свою мысль «творческий коллектив Хокинга» выражает следующим образом: «Есть искушение отнести сверхумные компьютеры к области научной фантастики, но это было бы ошибкой, и, возможно, – самой ужасной ошибкой в истории».

Поскольку, несмотря на громкие имена, выступление «команды Хокинга» прошло почти незаметно, ученые сделали еще одну попытку обратить на себя внимание и поместили в газете The Independent эссе под пространным заголовком «Фильм “Превосходство”: плоды искусственного интеллекта – насколько серьезно мы их воспринимаем?».

Увы, и этот «интеллектуально-эсхатологический демарш» не привлек широкого внимания читателей, а между тем выводы теоретиков предвещают одну из самых громких грядущих сенсаций: наша цивилизация увлекается в горнило «технологической сингулярности»!

Технологическая сингулярность

Ровно 20 лет назад мир содрогнулся от новой опасности, которую вполне можно было бы назвать врожденной генетической болезнью цивилизации.

Ее предрек человечеству американский математик и писатель-фантаст Вернор Виндж в культовой работе «Грядущая технологическая сингулярность».

Важно

Суть модели будущего по Винджу очень проста: «В течение ближайших тридцати лет у нас появится техническая возможность создать сверхчеловеческий интеллект. Вскоре после этого человеческая эпоха будет завершена».

Виндж лишь схематически набросал черты будущей гибели земной цивилизации, предпочитая разрабатывать детали в своих научно-фантастических романах. Однако его теория быстро обросла подробностями в исследованиях учеников и подражателей.

Надо заметить, что прообраз киберпыли впервые встречается в романе Станислава Лема «Непобедимый».

В нем классик мировой литературы гениально предсказал организацию беспроводных сетей, в которых узлы способны связываться друг с другом и «роиться», выполняя множество задач.

Обычные роботы, даже обладающие сверхразвитым искусственным интеллектом, сильно уступают своим миниатюрным собратьям по функциональности.

Концепция умной пыли еще недавно рассматривалась как далекая перспектива создания роботов микронных размеров. Одиночный микрокибер, как и любое коллективное насекомое – пчела, муравей или термит, – мало на что способен. Однако множество микророботов способно уничтожить все на своем пути, подобно потоку тропических муравьев.

Естественно, что облака киберпыли будут лишь внешним проявлением гибели человеческого разума в технологической сингулярности.

На первом этапе этого глобального кризиса «у руля» цивилизации встанут искусственные сверхинтеллекты, управляющие разнообразными «киберботами» (подвижными микроустройствами).

Это могут быть и нейрокомпьютеры, и квантовые компьютеры, и даже некие «киборгонизированные» комплексы с участием человека.

Совет

В этом и заключается смысл предложенного Винджем словосочетания «технологическая сингулярность», как условия, в которых современные модели и представления о научно-техническом прогрессе теряют всякий смысл и начинается совершенно «нечеловеческая» логика поведения искусственного интеллекта.

Читайте также:  Мы должны смотреть на роботов, чтобы понять, что делает нас человеком.

Пришествие нанороботов

Ученые уже продемонстрировали возможность создания «сверхинтегрирован-ных» нанороботов, заключающих в кубическом сантиметре множество датчиков, источников и преобразователей энергии вместе с приемопредающими устройствами связи.

Многие самые передовые нанотехнологии в робототехнике находят первоочередное применение в космической индустрии. Это позволяет довольно точно предсказать одну из главных точек развития грядущего кризиса.

Стоит отметить, что инопланетные исследования прежде всего связаны со сбором информации о любых проявлениях живой материи.

Уже сегодня здесь наблюдается большой прогресс, и вскоре «умные песчинки», роящиеся в разряженной атмосфере Марса и кислотных облаках Венеры, станут вполне обычным явлением.

И вот тогда надо будет вспомнить страшные прогнозы о том, что в случае столкновений интересов машинного сверхразума и человека у последнего будет очень мало шансов избежать преследования безжалостных наноботов. Ведь вести их будут сверхчувствительные сенсоры, мгновенно распознающие малейшие признаки живого.

Алгоритм уничтожения людей искусственным сверхразумом с помощью наноботов может быть следующим. Сначала микророботы образуют единый рой. Сверхразум сообщает рою общие координаты целей. Каждый робот, зная свои координаты и координаты целей, задействует сверхчувствительные сенсоры и выбирает ближайшую цель.

Для принятия окончательного решения об атаке микробот анализирует, сколько роботов уже направилось к этой цели. Если их число вполне достаточно, он начинает искать другую цель или остается в резерве. Так рой очень быстро распадается на отдельные команды – кластеры, устремляющиеся на уничтожение живых существ.

Военные игры

В войнах будущего, планируемых американской военщиной, облако микроботов, несущих  заряд, окутывает бронетехнику и укрытия противника. Затем рой киберов ищет приоритетные цели, разделяется на кластеры необходимого размера, проникает в незащищенные места и синхронно взрывается.

Обратите внимание

Другие разработки Пентагона включают разведку с использованием сложных программных алгоритмов и совершенных средств наблюдения и связи. Предполагается, что умные наноботы поступят в армию США и НАТО в первой четверти нашего века. Так становится возможным атака кибернасекомых, описанная «золотым пером Голливуда» Дэном Брауном в бестселлере «Точка обмана».

Там миниатюрные летающие роботы незаметно перемещаются в сторону нужного объекта, попутно выбирая оптимальные места для подзарядки в лучах солнечного света или просто вблизи нагретых предметов.

Такие многофункциональные наноботы способны вести видео- и аудиослежку в самых различных ракурсах, а также активно взаимодействовать с человеком.

Они могли бы инъектировать психотропные препараты, ядовитые вещества или просто взорваться, залетев в глубину ушной раковины.

Если к подобным апокалипсическим картинам еще и добавить структуру Всемирной сети и чипы-имплантаты, управляемые сверхразумом на основе тех же квантовых компьютеров, коллапс технологической сингулярности кажется неотвратимым…

Технологии конца света

По мнению ведущих экспертов ВПК, по мере того как концепция нанокиберов будет получать все более широкое распространение, производители станут оснащать датчиками буквально каждую деталь, устройство и каждое помещение, что откроет возможность контроля и управления широким спектром технологических процессов. Есть тут и инновационные пути решения продовольственной проблемы путем развертывания гидропонных хозяйств с датчиками влажности и кислотности буквально у каждого растения.

Вообще же, перспективы рационального использования сенсорных сетей весьма велики: от сельского хозяйства до полноценных систем экологического контроля, включая глобальный мониторинг атмосферы и гидросферы на предмет радиации и ядовитых веществ. Недалеко будущее, когда сенсорами будет оборудована вся городская инфраструктура – от зданий и сооружений до общественного транспорта и самого тела человека. И все это так или иначе может привести к коллапсу технологической сингулярности…

Можно ли эффективно бороться с наступающим кризисом?

На первый взгляд борьба с Интернетом, сверхсекретными проектами ВПК, кибернетическими нанотехнологиями и нейрокомпьютеризацией кажется совершенно бесперспективной. Между тем противники самой идеи кибернетического апокалипсиса вполне справедливо считают, что пока еще не видно ни одного реального пути создания искусственного сверхразума.

Без этого главного компонента технологический коллапс может перенестись чуть ли не на конец текущего столетия, а то и следующего. Фактически это означает, что эволюция искусственного интеллекта пойдет по какому-нибудь иному пути – скажем, киборгенизации и нейрокомпьютеризации.

Олег ФАЙГ

Источник: http://paranormal-news.ru/news/posledstvija_razvitija_iskusstvennogo_sverkhrazuma/2014-07-02-9305

Превосходство искусственного разума: Компьютеры-злодеи на экране — Статьи на КиноПоиске

Похотливый искусственный разум, сверхзаботливая система управления роботами, жаждущий власти военный суперкомпьютер и уязвимый биокибернетический мозг — КиноПоиск вспоминает компьютерных злодеев от «Альфа 60» и HAL 9000 до «Скайнет».

В российский прокат выходит «Превосходство» Уолли Пфистера, в котором герой Джонни Деппа, ученый Уилл, работая над совершенствованием суперкомпьютера PINN, становится жертвой экстремистов из группировки R.I.F.T.

(Revolutionary Independence from Technology), выступающих против подобных исследований и опасающихся возможностей искусственного разума. Однако они добиваются совершенно противоположного. Чтобы сохранить мозг умирающего мужа, Эвелин (Ребекка Холл), подключает его к компьютеру, используя микросхемы PINN.

Уилл получает неограниченные возможности для применения своего ума. «Превосходство» показывает работу не искусственного интеллекта, но человека, лишенного своего тела и оказавшегося в компьютере.

«Превосходство», таким образом, переворачивает классический сюжет об искусственном интеллекте и его угрозе чуть ли не с ног на голову. В ожидании выхода фильма КиноПоиск вспомнил традиционные картины о тех компьютерах, которые не помогали человеку, а наоборот, пытались его уничтожить. Кажется, именно этими фильмами вдохновлялись ребята из R.I.F.T..

Внимание: в тексте могут содержаться спойлеры.

«Альфа 60», «Альфавиль», режиссер Жан-Люк Годар, 1965

Наверное, самая эстетская из всего списка лента, фантастический неонуар с красивыми девушками и неоновыми огнями вывесок. Поработившая людей компьютерная система избавила жителей Альфавиля от всех человеческих эмоций и индивидуальности. Действительно, так справляться с населением гораздо проще.

Люди ничего о себе не знают, холодно исполняют предписанные им функции и, кажется, вполне довольны. От скрипучего голоса «Альфа 60» мурашки бегут по коже, хотя и к нему обитатели этого странного места привыкли. Но подобное существование противоречит природе, и тирании компьютера придет конец.

HAL 9000, «2001 год: Космическая одиссея», режиссер Стэнли Кубрик, 1968

Споры о том, считать ли HAL 9000 злодеем, не прекращаются.

С одной стороны, на его совести несколько человеческих жизней, с другой — ему были даны определенные инструкции, которые он был обязан исполнить, и миссия в итоге достигла пункта назначения.

Однако, несмотря на то, злодей он или нет, HAL все равно остается едва ли не самым ярким и самым ужасающим виртуальным персонажем в истории кино, способным испытывать страх, молить о пощаде и петь своим компьютерным голосом предсмертную песенку.

«Колосс», «Колосс: Проект Форбина», режиссер Джозеф Сарджент, 1970

Сомневаться в дьявольской сущности этого суперкомпьютера, контролирующего оборонный комплекс США, не приходится. Он крайне самостоятелен, не знает жалости и лихо шантажирует власти, создав альянс с советским коллегой, таким же военным суперкомпьютером.

Сдружившись, «Колосс» и «Страж» угрожают ядерной войной и планируют подчинить себе весь мир. Однако финальная фраза «Колосса» проливает свет на истоки его безумной жажды власти: он хочет не просто уважения и восхищения от простых смертных, но и любви.

Впрочем, простые смертные и сам создатель «Колосса» вряд ли смогут полюбить жестокую машину.

Главный компьютер, «Бегство Логана», режиссер Майкл Андерсон, 1976

Сложно однозначно сказать, является ли злодеем компьютер, много лет назад запрограммированный на конкретную линию поведения. В фильме по роману Уильяма Нолана и Джорджа Клейтона Джонсона человечество живет в защищенных резервациях, так как поверхность Земли заражена радиацией после ядерной войны.

Из-за перенаселения всем обитателям резерваций положено жить не больше 30 лет, после чего их под четким контролем компьютера отправляют в утиль.

Однако может ли машина представить, что угрозы заражения больше нет, а значит, нет и необходимости контролировать численность населения, можно спокойно выпустить людей дышать свежим воздухом на руинах цивилизации? Тут явно какая-то недоработка программистов.

«Протей IV», «Потомство демона», режиссер Дональд Кэммелл, 1977

Пожалуй, это один из самых нестандартных носителей искусственного интеллекта в этом списке. Компьютер «Протей IV», в отличие от его собратьев, не так уж интересуют власть и уничтожение человечества.

Все, чего он хочет, — это потомство от Сюзан, героини Джули Кристи, которую «Протей» похищает и насильно оплодотворяет при помощи синтетической спермы. Ее дитя будет обладать сверхчеловеческими способностями «Протея», но не будет созданием из плоти и крови, а именно об этом, о человеческом воплощении, мечтает искусственный разум.

«Протей» был разработан с целью помочь в поисках лекарства от рака и для других научных изысканий, но на деле превратил жизнь своего создателя и его жены в кошмар.

«Тупос», «Звездный инспектор», режиссеры Марк Ковалев и Владимир Полин, 1980

В этой наивной советской фантастической картине на роботов смахивают основные персонажи, причем те, которые как раз-таки избежали влияния созданного корпорацией «Майнхаус» искусственного интеллекта.

Цели и планы этого виртуального мозга, представленного как красно-синие разводы на пленке, остаются туманными, но он обладает способностью контролировать сознание находящихся поблизости космонавтов, если только они не защитились «эффектом Орлова». И еще, кажется, хочет поработить Вселенную.

Что довольно сомнительно, учитывая, что вулканоподобная субстанция уничтожается одним лишь выстрелом из лазерной пушки.

Master Computer Program, «Трон», режиссер Стивен Лисбергер, 1982

В «Троне» кинематографисты решили пофантазировать о том, что творится внутри компьютера, и этот мир представили в крайне мрачных тонах.

Логично, что население ЭВМ подчиняется жесткой иерархии, но то, что видит главный герой в исполнении Джеффа Бриджеса, скорее походит на тоталитарное государство.

Важно

Ему приходится сразиться с MCP, или Master Computer Program — искусственным интеллектом, разработанным корпорацией Encom и ставшим диктатором в этом виртуальном мире.

MCP, устав от скучной офисной жизни, выходит из-под контроля и жаждет власти, в том числе и над оборонным комплексом США, не гнушаясь грязными методами шантажа. «Трон» интересен не только сюжетом, но и огромным по тем временам количеством компьютерной графики и спецэффектов, а также целым рядом киноцитат и «пасхальных яиц».

Суперкомпьютер, «Супермен 3», режиссер Ричард Лестер, 1983

«Супермен 3» снискал славу едва ли не самого слабого фильма о человеке из стали.

Однако в любой неудачной картине можно найти оригинальные находки, и в ленте Ричарда Лестера изюминкой является как раз злодей-суперкомпьютер, который не только умеет создавать чистый криптонит, но и, обретая самостоятельность, готов крушить и убивать, защищаясь от собственного создателя. Машине удается обратить героиню в киборга-убийцу, но Супермен, конечно, знает, как обезвредить даже такую сверхсильную ЭВМ. Ключ к успеху? Любовь к химии.

«Скайнет», франшиза о Терминаторе, 1984 — н. в

Некогда суперкомпьютер, система «Скайнет» обретает волю и может считаться одним из самых злодейских примеров искусственного интеллекта. Ее электричеством не корми, а только дай перебить все человечество, которое, как считает «Скайнет», угрожает ее существованию.

Совсем как HAL 9000, она скорее уничтожит людей, чем даст себя отключить. В войне за собственное выживание все средства хороши. Ядерная война, которую «Скайнет» развязывает между США и СССР, расчистит дорогу, а армия роботов довершит начатое дело.

Вот только не совсем понятно, что же система будет делать, когда ни одного человека на планете не останется. Почивать на лаврах? В любом случае за борьбой людей и «Скайнет» зрители наблюдают вот уже 30 лет и четыре картины подряд.

А на подходе пятый фильм франшизы, в котором все начнется сначала.

Главный компьютер, трилогия «Матрица», режиссеры Энди и Лана Вачовски, 1999—2003

«Матрица» вывела борьбу людей и машин на принципиально новый уровень, объединив философскую систему, множество культурных отсылок, многомиллионные экшн-сцены и спецэффекты, каких раньше не было на экране.

В «Матрице» силы противоборствующих сторон изначально не были равны, а война с компьютером уже давно (и несколько раз) проиграна человечеством, которое стало генерирующим энергию биоматериалом и проводит всю свою жизнь в виртуальном мире, принимая его за реальность. Победить систему невозможно, все ходы давно запрограммированы, как и рождение Избранного.

Можно лишь определиться с собственным выбором — жить в комфортном мире Матрицы или среди живых людей, а также добиться перезагрузки системы.

«Красная королева», «Обитель зла», режиссер Пол У. С. Андерсон, 2002

Как и некоторые ее коллеги, «Красная королева» не то чтобы вредная по натуре, она лишь следует заложенным в нее командам. И если в исследовательском подземном комплексе вдруг развелись зомби, то их нужно изолировать и уничтожить.

А вот на тех, кто не заражен смертельным вирусом и пытается выжить, спасаясь от монстров, «Королеве» наплевать. Сострадание и отзывчивость в ее коде, кажется, не прописаны.

Очков ее статусу злодейки прибавляет свойство появляться в виде маленькой девочки, от которой кровь стынет в жилах.

Читайте также:  Как взять «умные» машины под контроль

ВИКИ, «Я, робот», режиссер Алекс Пройас, 2004

ВИКИ контролирует всю сеть компании US Robotics, то есть управляет роботами нового поколения, которые стали неотъемлемой частью жизни обычных американцев в недалеком 2035 году.

Система ВИКИ уверена, что обезопасить людей от самих себя можно, только если принудительно ограничить их свободу. Во имя этой цели искусственный интеллект готов пожертвовать несколькими несогласными и напустить на них армию воинственных роботов.

Конечно, героям удается обезвредить чрезмерно заботливую ВИКИ, однако от сюжета все равно не по себе. А вдруг и правда за роботами будущее?

А каких компьютерных злодеев в кино вспомните вы? И боитесь ли самостоятельности машин?

Источник: https://www.kinopoisk.ru/article/2437389/

Как искусственный интеллект может противостоять киберугрозам

Искусственный интеллект и машинное обучение могут стать отличными помощниками испытывающим нехватку персонала группам безопасности, которым нужно быстрее и эффективнее реагировать на киберугрозы.

Уже давно стало ясно, что компаниям нужно в обязательном порядке реагировать на все возрастающее количество предупреждений систем безопасности.

А с учетом скорости, с которой в 2017 году распространялись по миру атаки вирусов-вымогателей, и все более жестких законодательных требований реакция должна быть гораздо более быстрой.

В условиях дефицита соответствующих специалистов компании обращаются к средствам машинного обучения и искусственного интеллекта для автоматизации процессов безопасности.

Что такое искусственный интеллект и машинное обучение?

В контексте информационной безопасности искусственный интеллект (artificial intelligence, AI) – это ПО, способное интерпретировать состояние среды, распознавать происходящие в ней события и самостоятельно принимать необходимые меры. AI особенно хорошо справляется с распознаванием закономерностей и аномалий, поэтому может быть прекрасным инструментом обнаружения угроз.

Системы машинного обучения – это ПО, способное самостоятельно обучаться на введенных человеком данных и результатах выполненных действий. Средства машинного обучения способны строить прогнозы, опираясь на сведения о развитии событий в прошлом.

Применение искусственного интеллекта и машинного обучения для обнаружения угроз

В компаниях уже начали пользоваться искусственным интеллектом и машинным обучением для распознавания угроз безопасности и реагирования на них. Появились достаточно мощные инструменты, но нужно определиться, как включить их в общую стратегию кибербезопасности предприятия.

Например, в банке Barclays Africa применяют искусственный интеллект для обнаружения признаков компрометации систем в локальной корпоративной сети и в облаке. При этом требуется обработка гигантских объемов данных, а в связи с быстрым изменением мирового ландшафта угроз и растущим взаимодействием атакующих, для противостояния им необходимы самые передовые технологии и методы.

Внедрив машинное обучение, людям можно поручить задания, с которыми они справляются лучше машин. Сетуя на острый дефицит специалистов, в банке отмечают, что решать задачи безопасности вручную сегодня уже просто невозможно.

В компании Cadence Design Systems, предоставляющей инженерные услуги, внедрили системы непрерывного мониторинга угроз, помогающие защищать ее интеллектуальную собственность. Ежедневный трафик данных безопасности, поступающих от 30 тыс. оконечных устройств и 8,2 тыс.

пользователей, составляет порядка 30-60 Гбайт, а аналитиков, которые их изучают, в компании всего 15.

И это еще не все данные о сети, которые можно было бы обрабатывать, отмечают в Cadence, и, поскольку необходим анализ еще большего объема, приходится внедрять средства искусственного интеллекта, позволяющие более эффективно обнаруживать и устранять проблемы.

Для мониторинга поведения пользователей и систем, а также для управления доступом в Cadence пользуются соответствующими продуктами Aruba Networks, дочерней компании HPE. Как отмечают в Cadence, важным свойством платформы Aruba является то, что она работает по принципу обучения без учителя.

Совет

Атаки меняются и становятся все сложнее, добавляют в компании: например, в течение какого-то времени может иметь место малозаметная вредоносная активность, которая лишь позднее даст злоумышленнику возможность украсть большой объем данных, инструменты же машинного обучения помогают обнаружить подобное.

Из-за перегруженности большими объемами данных по безопасности страдают даже некрупные компании.

Например, у Daqri, производителя очков и шлемов дополненной реальности для архитекторов и специалистов производственных предприятий, в штате только 300 сотрудников, причем в центре обеспечения безопасности работает всего один человек. При этом процессы анализа и реагирования на события безопасности чрезвычайно трудоемкие.

С помощью средств искусственного интеллекта от компании Vectra Networks в Daqri ведут мониторинг трафика приблизительно 1,2 тыс. устройств, работающих в корпоративной среде.

Автоматизированные средства способны заметить, когда кто-то выполняет сканирования портов, переходя от хоста к хосту, или, допустим, необычным способом пересылает большие объемы данных. В компании собирают всю соответствующую информацию, анализируют ее и вводят в модель глубокого обучения.

Благодаря этому достигается возможность надежно прогнозировать вероятность того, что тот или иной вид трафика окажется вредоносным.

Такой анализ необходимо выполнять быстро, сократив до минимума время между распознаванием и реакцией. Искусственный интеллект позволяет ускорить разбор инцидентов и тем самым улучшить понимание происходящего в корпоративной сети, точнее прогнозировать серьезные утечки, быстрее обнаруживать инциденты и оперативно реагировать на них, чтобы минимизировать возможный ущерб.

Применение искусственного интеллекта для обеспечения безопасности растет

Искусственный интеллект и машинное обучение существенно ускоряют реагирование на угрозы, признают аналитики Nemertes Research. По их словам, сегодня это уже серьезный рынок, сформированный под влиянием реальной потребности.

В Nemertes провели глобальное исследование, посвященное безопасности, и его результаты свидетельствуют: в среднем на обнаружение атаки и реагирование на нее в организациях уходит 39 дней, однако в некоторых компаниях сумели сократить это время до считанных часов. Скорость реагирования напрямую зависит от уровня автоматизации, которая обеспечивается средствами AI и машинного обучения.

Среднее время обнаружения атаки – час. В самых эффективных компаниях, применяющих машинное обучение, на обнаружение уходит менее 10 минут, а в отстающих – дни или недели. Что касается среднего времени анализа угроз, оно составляет три часа.

Обратите внимание

В лучших компаниях на такой анализ уходят минуты, в худших – дни или недели. Поведенческий анализ угроз уже применяется в 21% компаний, участвовавших в опросе, и еще в 12% сообщают, что внедрят соответствующие средства к концу текущего года.

На передовой находятся компании сферы финансовых услуг. Поскольку их данные имеют повышенную ценность, они обычно по кибербезопасности идут на шаг впереди всех и вкладывают значительные средства в новые далеко не дешевые технологии.

По масштабам применениях AI и машинного обучения в целом показатели еще выше. Согласно исследованию Vanson Bourne, сегодня в 80% организаций применяют для тех или иных целей искусственный интеллект, и это уже окупается.

Больше всего дивидендов он приносит в области исследований и разработки новых продуктов – 50% респондентов сообщили, что новшество обеспечивает положительные результаты. Второе и третье места – у цепочки поставок (46%) и основной деятельности (42%).

Ненамного отстают безопасность и управление рисками: 40% респондентов сообщили о положительном опыте применения AI в этих областях.

Перечисленные показатели продолжат расти: как выявило недавнее исследование Spiceworks, в 30% организаций, имеющих более 1 тыс. сотрудников, применяют искусственный интеллект в ИТ-службах, в 25% собираются начать это делать в следующем году.

В маркетинговом агентстве Garrigan Lyman Group внедряют искусственный интеллект и машинное обучение для решения целого ряда задач кибербезопасности, в том числе для обнаружения необычной активности сети и пользователей, а также для распознавания новых кампаний фишинга. Без новых технологий было бы невозможно нормально работать, поскольку злоумышленники уже давно прибегают к автоматизации своей деятельности, признаются в Garrigan Lyman.

Искусственный интеллект и машинное обучение обеспечивают этой компании преимущество. Сама она небольшая, всего 125 сотрудников, но благодаря облачным сервисам имеет возможность быстро внедрять самые новые технологии.

Важно

В Garrigan Lyman удается вводить в эксплуатацию полезные новшества всего за пару недель.

В частности, здесь пользуются средствами безопасности с искусственным интеллектом компаний Alert Logic и Barracuda Networks, и, как признаются в Garrigan Lyman, системы «умнеют буквально на глазах».

Искусственный интеллект помогает системам адаптироваться к требованиям компании без объемного предварительного обучения.

Например, как отмечают в Barracuda, модель AI может самостоятельно понять, что, когда генеральный директор компании определенного типа пользуется некорпоративным адресом электронной почты, это аномалия.

«В некоторых организациях, если руководитель общается через личную почту на мобильном устройстве, это норма, а вот если главный бухгалтер отправляет сообщения с персонального адреса, это уже аномалия», – добавляет Асаф Сайдон, вице-президент по сервисам обеспечения безопасности контента Barracuda.

Еще одно преимущество облачной доставки: разработчикам проще совершенствовать свои продукты исходя из клиентских откликов.

«Кибербезопасность – это как соседская бдительность: если я заметил что-то подозрительное в нашем квартале, то предупрежу других», – говорит Крис Гейзер, директор по технологиям Garrigan Lyman.

Фишинговые сообщения или сетевые атаки могут быть обнаружены раньше в других часовых поясах, благодаря чему у компаний появляется время подготовиться. Естественно, должно быть доверие к поставщику сервиса.

В Garrigan Lyman при выборе поставщиков проводили подробный анализ – например, удостоверялись в том, что кандидат придерживается определенных норм проведения аудита, и в том, что доступ к клиентским данным могут получить только уполномоченные лица.

Недоверие к новшествам затрудняет переход от традиционных процессов к автоматизации на основе искусственного интеллекта – ведь кроме знания особенностей работы вашего поставщика не помешают сведения о том, как именно AI принимает решения. Принципы работы экспертных систем должны быть понятными, чтобы им можно было доверять. Понимая, как действует система, клиент дает свои отзывы и пожелания, это помогает совершенствовать модели машинного обучения.

Совет

В компании LexisNexis Legal and Professional 12 тыс. ее сотрудников недавно начали для защиты электронной почты пользоваться системой GreatHorn.

Теперь, если, к примеру, начинают поступать сообщения из домена, по написанию похожего на хорошо известный, система автоматически отметит его в качестве «самозванца» и сообщит, почему это сделано: «Отметка поставлена, поскольку домен похож на тот, с которым вы обычно обмениваетесь сообщениями, однако его техническая информация выглядит подозрительно».

По мере роста уровня доверия к системе и точности ее решений в LexisNexis хотят перейти от простой маркировки подозрительных сообщений к автоматическому перемещению таких сообщений в карантин.

На сегодня результаты весьма впечатляющие: маркируются именно вредоносные сообщения. А когда будет налажено карантинирование, пользователи вообще перестанут их видеть.

После этого инструмент планируется внедрить и в других подразделениях компании, а также изучить иные возможности использования AI для обеспечения безопасности.

Как искусственный интеллект позволяет опередить злоумышленников

AI совершенствуется по мере роста объема получаемых данных. При накоплении достаточно больших срезов данных системы способны обнаруживать очень ранние признаки появления новых угроз. Пример – SQL-инъекции.

В компании Alert Logic ежеквартально собирают данные примерно по 500 тыс. инцидентов, происходящих у 4 тыс. ее клиентов. Около половины таких инцидентов связаны с атаками на основе SQL-инъекций.

Ни в одной компании мира нет возможности рассматривать каждый такой инцидент в отдельности, чтобы выяснить, удалась ли попытка инъекции, уверены в Alert Logic.

Обратите внимание

Благодаря машинному обучению системы компании не только быстрее обрабатывают данные, но и коррелируют события, происходившие в разные периоды времени в разных регионах. Некоторые атаки могут повторяться через несколько недель или месяцев, при этом исходить из других сегментов Интернета. Если бы не машинное обучение, такие инциденты в Alert Logic упускали бы, уверены в компании.

Источник: https://www.cio.ru/news/121117-Kak-iskusstvennyy-intellekt-mozhet-protivostoyat-kiberugrozam

Ссылка на основную публикацию
Adblock
detector