Искусственный интеллект поможет оценить опасность вирусов

Искусственный интеллект научился писать трояны, невидимые для антивирусов. Платформа в открытом доступе

Выступая на хакерской конференции DEF CON эксперт компании Endgame Хирам Андерсон (Hyrum Anderson) показал, как можно настроить систему машинного обучения так, что она будет разрабатывать вредоносное ПО.

Речь идет не о полноформатной разработке троянов, однако автору доклада удалось использовать систему машинного обучения так, чтобы она превращала легитимный код во вредоносный, но при этом антивирусные решения с высокой долей вероятности продолжали ее игнорировать.

Обратите внимание

В целом алгоритм выглядит так: система машинного обучения вносит небольшие изменения в двоичный код, прогоняет его через антивирусный движок, анализирует полученные от антивируса данные и, в соответствии с ними, производит новые модификации.

Система, созданная в Endgame, тренировалась таким образом в течение 15 часов, произведя на свет в общей сложности 100 тыс. вредоносных сэмплов. 16% из них оказались невидимыми для антивирусных движков.

Вирусописательство следующего поколения

По словам Хирама Андерсона, такой подход позволяет обманывать в том числе те антивирусные платформы, которые сами базируются на системах машинного обучения и AI (искусственном интеллекте).

Хирам Андерсон, создатель системы машинного обучения, которая пишет вредоносное ПО

С 2016 г. некоторые компании, занимающиеся разработками подобных антивирусов, начали злоупотреблять определениями «искусственный интеллект» в маркетинговых целях, утверждая, что их разработки – это «антивирусы следующего поколения».

Таким образом, теперь «антивирусам следующего поколения» придется бороться с вирусами следующего поколения.

«Как видим, AI вполне возможно использовать во вредоносных целях, и это, на самом деле, весьма безрадостное развитие событий», – считает Ксения Шилак, директор по продажам компании SEC Consult.

– «Использование AI для усовершенствования скрытности вредоносных программ может перевести «гонку вооружений» между вирусописателями и антивирусными вендорами на принципиально новый уровень.

Особенно если такое автоматическое улучшение будет поставлено на поток».

Система Endgame построена на основе фреймворка OpenAI, разработанного некоммерческой организацией, возглавляемой Элоном Маском (Elon Musk). В апреле 2016 г. эта организация опубликовала публичную бета-версию OpenAI Gym, платформы для разработки и сравнения алгоритмов «стимулированного обучения» искусственного интеллекта.

Именно на базе этой платформы Endgame и разработали свой «вредоносный AI». Ее исходники опубликованы на GitHub и доступны всем желающим для использования.

Источник: http://safe.cnews.ru/news/top/2017-08-02_iskusstvennyj_intellekt_nauchilsya_pisat_troyany

Определена главная опасность искусственного интеллекта

Искусственный интеллект (ИИ) — тема, которая уже давно не сходит со страниц научно-популярных журналов и постоянно затрагивается в кино и книгах. Чем больше специалисты развивают эту область науки, тем большими мифами она покрывается.

Развитие и будущее искусственного интеллекта волнует и тех, кто стоит у руля государства.

Не так давно президент РФ Владимир Путин посетил офис Яндекса в день 20-летия компании, где ему объяснили, когда ИИ превзойдет человеческий интеллект.

Все, кто хоть немного проникает в суть потенциала искусственного интеллекта, понимают, что оставлять без внимания эту тему нельзя. Это не только важная тема для обсуждения, но и, наверное, одна из самых значимых в контексте будущего.

Важно

Что такое искусственный интеллект и чего на самом деле боятся люди, рассказал «Ридусу» специалист по методам машинного обучения Сергей Марков.Как говорил Джон Маккарти, изобретатель термина «искусственный интеллект» в 1956 году, «как только он заработал, никто больше не называет его ИИ».

ИИ уже во всю реальность: калькуляторы, Siri, самоуправляемые автомобили и т. д., а в него все равно не верят.

Почему так происходит, что люди отрицают существование ИИ?

— Главным образом, по причине терминологической путаницы, так как разные люди вкладывают в понятие «искусственный интеллект» совершенно разный смысл.

В науке искусственным интеллектом называют систему, предназначенную для автоматизации решения интеллектуальных задач. В свою очередь, под «интеллектуальной задачей» понимают такую задачу, которую люди решают при помощи своего, естественного интеллекта.

Легко заметить, что такое определение искусственного интеллекта чрезвычайно широко — под него попадает даже обычный калькулятор, т. к. арифметические задачи по сути тоже интеллектуальные, человек решает их при помощи своего интеллекта.

Поэтому внутри понятия «искусственный интеллект» была проведена важная граница, отличающая прикладной или, как ещё говорят, «слабый» искусственный интеллект, предназначенный для решения какой-либо одной интеллектуальной задачи или небольшого их множества, от гипотетического сильного ИИ, также называемого универсальным искусственным интеллектом (англ. — Artificial general intelligence).

Такая система, когда она будет создана, будет способна решать неограниченно широкий круг интеллектуальных задач, подобно интеллекту человека. С этой точки зрения, калькулятор, который способен считать куда быстрее человека, или программа, выигрывающая у человека в шахматы — это прикладной ИИ, гипотетический же сверхразум будущего — сильный ИИ.

Когда читаешь про разные открытия и разработки в области ИИ, понимаешь, что все в основном происходит в США или Азии. А как обстоят дела в России? Есть у нас какие-то наработки?

— Область компьютерных наук в наши дни интернациональна, многие наши специалисты работают над созданием и совершенствованием различных моделей машинного обучения, в составе как российских, так и международных команд. У нас традиционно сильная математическая и алгоритмическая школа, созданы исследовательские центры мирового уровня как в ведущих вузах, так и в некоторых частных компаниях.

Но давайте говорить начистоту — бюджеты, выделяемые в нашей стране на науку и образование, не идут ни в какое сравнение с научными бюджетами наиболее развитых стран. Доходы бюджета РФ в 2016 году составили около 200 млрд долларов США, в то время, как только на оборону США тратят сумму в три раза большую, чем весь российский бюджет.

Весь бюджет российской науки сопоставим с бюджетом одного лишь вуза из Лиги плюща. В безденежные 90-е страну покинули многие ведущие специалисты, была нарушена преемственность ряда научных школ. Также было практически утрачено собственное производство электроники.

Совет

В то время, как мировые лидеры ИТ ведут гонку в создании специализированных процессоров для обучения нейронных сетей, нам остаётся лишь сфера разработки алгоритмов и программного обеспечения. Впрочем, и в этой области пами были достигнуты весьма впечатляющие успехи.

Например, команда под руководством Артёма Оганова создала систему USPEX, способную предсказывать кристаллические структуры химических соединений, что привело к настоящей революции в современной химии.

Команда Владимира Махнычева и Виктора Захарова с ВМК МГУ при помощи созданной ими системы, а также суперкомпьютеров Ломоносов и IBM Blue Gene/P, впервые смогла рассчитать 7-фигурные шахматные окончания.Нейронные сети «Яндекса» распознают и синтезируют речь, генерируют музыку в стиле «Гражданской обороны» и композитора Скрябина.

Сильная команда специалистов по ИИ и машинному обучению создана и в «Сбербанке».

Словом, заметные успехи есть и у нас в стране.

Чем быстрее развиваются технологии искусственного интеллекта, тем сильнее людей захватывает опасение — как быстро они останутся без работы. Все действительно так плохо?

И да, и нет. Человечество уже несколько раз сталкивалось с возникновением технологий, революционно изменивших всю производственную сферу.

Так было с паровым двигателем в эпоху промышленной революции практически уничтожившим многие профессии (в основном, связанные с примитивным физическим трудом), так было с электронными вычислительными машинами, которые заменили человека в задачах, основанных на поточных математических расчётах.

В XV—XVIII вв.еках, когда в Англии «овцы съели людей», социальные последствия были действительно катастрофическими. Англия потеряла по разным оценкам от 7 до 30% своего населения. Властная элита того времени была всерьёз озабочена тем, куда девать лишних людей.

Джонатан Свифт откликнулся на эти искания юмористическим памфлетом, в котором предлагал употреблять детей бедняков в пищу.

Однако в наши дни мы видим, что на смену вымершим профессиям пришли новые, и население Земли куда больше, чем в XVIII веке.

Обратите внимание

В XX веке последствия автоматизации были уже не столь катастрофичны с социальной точки зрения. Однако недооценивать опасность всё-таки не стоит.

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, — такой прогноз дал Моше Варди (Moshe Vardi), профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). Это приведёт к тому, что более 50% жителей Земли станут безработными».

Роботы забирают работы

На днях председатель комитета Госдумы по информационной политике, информационных технологиям и связи Леонид Левин заявил, что для России является важной проблема вытеснения рабочей силы искусственным интеллектом.

Рано или поздно людей заменят автоматизированной системой, и на рынок выплеснется 2% работоспособного населения страны.

Именно поэтому о том, как их трудоустроить, тех, кто потеряет работу вследствие развития цифровых технологий, нужно думать уже сейчас сказал Левин.

По мнению председателя, уже в скором будущем мы столкнемся с ростом безработицы. Но действительно ли роботы «отберут» наши рабочие места и стоит ли беспокоиться по этому поводу рассказал «Ридусу» специалист по машинному обучению Сергей Марков.

-Сергей, даже сейчас уже есть «мертвые профессии», которые не требуют человеческого труда, хотя, казалось бы, лет 10 назад никто и не думал, что, например, кондуктора скоро станут ненужными. А какие еще профессии вытеснят технологии?

Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле. Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост.

Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? сказал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди при Университете Райса.

Долгое время на пути автоматизации стояли технологические ограничения — машины не могли распознавать образы и речь, не могли говорить, не могли достаточно хорошо понимать смысл высказываний на естественном языке, не имели достаточно данных для того, чтобы научиться многим привычным для человека вещам.

Благодаря последним достижениям в сфере искусственного интеллекта многие из этих ограничений фактически оказались сняты. Кроме того, многие профессии сами претерпели трансформацию, что сделало их более удобными для автоматизации.

Например, современный офисный клерк ведёт переписку не в бумажном, а в электронном виде, бухгалтер выполняет проводки не на бумаге, а в бухгалтерской программе, оператор станка управляет станком зачастую не при помощи рукоятей, а при помощи управляющей программы. Поэтому сейчас задача автоматизации во многих профессиях перестала быть научной и стала чисто инженерной.

Важно

Правда пока что производственная сфера, связанная с ИИ, скорее создаёт рабочие места — нужны специалисты в области машинного обучения и подготовки данных, сотрудники для разметки обучающих массивов, специалисты по внедрению и т. д. Но в какой-то момент электроовцы определённо начнут есть людей, и о последствиях нужно позаботиться уже сейчас.

При этом важно понимать, что остановить технический прогресс нельзя, и попытка это сделать обернётся куда более катастрофичными последствиями.

— Мы сможем когда-нибудь полностью довериться роботам (ИИ), или все-таки в любом деле должен быть человеческий фактор?

У этого вопроса есть несколько аспектов. С одной стороны, люди в прошлом с опаской относились практически к любой технике. Первый лифт, первый автомобиль, первый поезд или самолёт — всё это когда-то было непривычным, и многим казалось опасным. Да во многом опасным и было — техногенные катастрофы унесли немало жизней.

И тем не менее в наши дни все эти вещи стали привычными и уже не вызывают сильного страха. В этом смысле — наши потомки будут относиться к системам ИИ более спокойно. Люди порой склонны мистифицировать вещи, которые им непонятны. Дикарь думает, что в паровозе живёт злой дух, а современный обыватель думает, что наши системы ИИ обладают сознанием, хотя это далеко не так.

С другой стороны, я не думаю, что универсальные системы ИИ когда-либо станут частью нашей производственной сферы. На мой взгляд будущее скорее за синтетическими системами — то есть за объединением человека и машины в единый организм. В этом смысле искусственным интеллектом будущего будет усовершенствованный человеческий интеллект.

Кстати говоря, человеческий интеллект тоже не совсем корректно называть естественным. Ребёнок от рождения не обладает интеллектом, всему его учит общество, родители, окружающая среда. В этом смысле мы с вами все по сути дела «искусственные интеллекты», и наши страхи, связанные с ИИ, во многом являются страхами перед самими собой.

Последнее время многие ученые, например, Стивен Хокинг, Билл Гейтс или тот же Илон Маск, начали паниковать, что ИИ обрекает человечество на гибель, а будущее они видят какой-то антиутопией.

Стоит ли воспринимать такие прогнозы всерьез?

Честно говоря, я бы не спешил всерьёз пугаться этих заявлений.

Стивен Хокинг, безусловно, не является специалистом в области ИИ, как, в общем-то, и Илон Маск.

Совет

На другой чаше весов высказывания таких людей, как например, Эндрю Ын — американский учёный в области информатики, доцент Стэнфордского университета, исследователь робототехники и машинного обучения, ведущий специалист лаборатории искусственного интеллекта китайской корпорации Baidu.

Ын, говоря о проблеме безопасности ИИ, сравнивает её с проблемой перенаселения Марса — конечно, мы когда-нибудь колонизируем Марс, и тогда, возможно, в какой-то момент там возникнет проблема перенаселения. Но стоит ли заниматься ей сегодня?

Марк Цукерберг также довольно скептически отнёсся к заявлениям Маска. «Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно», — заявил он.

Лично я думаю, что высказывания Маска стоит рассматривать в прагматическом ключе — Маск хочет застолбить эту тему и в идеале получить от государства средства для её разработки.

Неужели все так безоблачно и не о чем беспокоиться?

Реальные опасности, связанные с развитием ИИ, лежат, на мой взгляд, совсем в иной плоскости, чем об этом принято думать. Главные риски связаны не с тем, что мы своими создадим «Скайнет», который поработит человечество. Риски от внедрения технологий ИИ и машинного обучения куда более прозаичны.

Доверяя решение важных вопросов тем или иным математическим моделям, мы можем пострадать от ошибок, допущенных при их разработке. Искусственный интеллект, воспроизводящий действия людей-экспертов, унаследует их ошибки и предубеждения. Недоработки в системах управления производством или транспортом могут привести к катастрофам.

Вмешательство злоумышленников в работу жизненно важных систем в условиях тотальной автоматизации может повлечь опасные последствия. Чем сложнее системы, тем больше в них может быть потенциальных уязвимостей, в том числе связанных со спецификой тех или иных алгоритмов искусственного интеллекта.

Безусловно, для управления этими рисками следует создавать законодательную базу, разумные регламенты безопасности, специальные методы для выявления уязвимостей. Одни системы ИИ будут использоваться для контроля других. Возможно, код жизненно важных систем будет обязателен к публикации для независимого аудита. Словом, специалистам в этой сфере предстоит ещё много работы.

Читайте также:  Словарь дельфинов: использование технологий для перевода их языка.

Источник: https://news.rambler.ru/other/37975123-opredelena-glavnaya-opasnost-iskusstvennogo-intellekta/

Искусственный интеллект поможет оценить опасность вирусов

Чтобы выяснить, какие изменения в генах приводят к тому, что вирусы, заражавшие только, допустим, птиц или свиней, смогли вызвать эпидемию среди людей, ученые вынуждены выполнять кропотливое сравнение ДНК двух штаммов: опасного для людей патогена и его «незаразного» предшественника.

Выявив мутации, которые потенциально могут оказаться причиной повышения патогенности, исследователи искусственно модифицируют различные штаммы вирусов, чтобы выявить эффект отдельных генетических изменений.

Помимо высокой трудоемкости, очевиден и другой недостаток данного метода: опасность работ с патогенными штаммами.

Базы данных по свойствам и генетическим последовательностям различных вирусных штаммов постоянно растут. И теперь эта информация вполне может стать основой для работы систем, использующих машинное обучение, чтобы по уже собранным данным разработать алгоритмы, позволяющие изучить неизвестные штаммы.

Для изучения ДНК и белков такой подход используется уже достаточно давно, но лишь в последнее время ученые начали применять его к вирусам.

В 2011 году алгоритмы машинного обучения были впервые использованы для сравнения штаммов вируса гриппа, передающихся только между свиньями и тех, которые способны заражать человека.

Обратите внимание

На основе данных об известных вирусах, помеченных как «свиные» или «человеческие», компьютер выработал набор критериев, по которым можно безошибочно отнести новый вирус к одной из этих групп. Узлами на этом дереве принятия решений оказались специфические для каждой из групп аминокислоты.

Дальнейшие исследования позволили выделить 13 аминокислот, которые необходимо подменить для «превращения» свиного вируса в человеческий, и еще 10, отличающих пандемический штамм от обычных сезонных. К публикации готовится работа, в которой ученые объясняют, как штамм H1N1 стал таким опасным.

Одно из основных преимуществ вычислительного подхода – возможность выйти за рамки областей генома, в которых обычно ведется поиск ключевых мутаций.

Как правило, в первую очередь исследователи обращают внимания на те гены, которые кодируют белки, так или иначе участвующие в процессе заражения (например, гемагглютинин, связывающийся с клеткой-хозяином).

Но оказалось, что некоторые из мутаций, делающих вирус опасным для человека, лежат за пределами этой области.

Системы машинного обучения также используются для анализа иммунного ответа, вызываемого различными штаммами, и его зависимости от комбинации человеческих лейкоцитарных антигенов, широко варьирующихся внутри популяции как от региона к региону, так и среди отдельных людей.

Эффективность вычислительного метода будет расти с увеличением объема генетических баз данных, что позволит ученым предсказывать появление новых штаммов гриппа, выявлять виды животных, которые могут оказаться носителями их относительно безопасных предшественников, и разрабатывать вакцины, которые не позволят возникнуть пандемии.

По сообщению Wired

Источник: https://surfingbird.com/surf/ejSX293ce

Искусственный интеллект поможет оценить опасность вирусов

В течение нескольких десятилетий вирус гриппа видоизменяется, обретая новую способность заражать людей и быстро передаваться между ними, вызывая пандемию. На сегодняшний день ученые используют алгоритмы, способные самообучаться и предсказывать мутации, приводящие к возникновению опасных штаммов.

Для выяснения того, какие изменения в генах могут привести к тому, что заразные лишь для животных вирусы, могут быть эпидемически опасными и для людей, ученые выполняют кропотливые сравнения ДНК двух штаммов: опасного для человека патогена и его заразного лишь для животного предшественника.

Выявив мутации с вероятностью потенциального повышения патогенности, учеными искусственно модифицируются различные штаммы вирусов с целью выявления эффекта отдельных генетических изменений. Такая работа помимо трудоемкости имеет и другой недостаток – опасность работ с патогенными штаммами.

Важно

Подобные базы данных свойств и генетических последовательностей различных вирусных штаммов обновляются и постоянно растут. На сегодня такая информация уже может стать основой работы систем, что используют машинное обучение. Нужно лишь разработать алгоритмы, по которым система будет изучать неизвестные штаммы.

Такой подход используется достаточно давно для изучения ДНК и белков. Но к вирусам его начали применять лишь в последнее время. Впервые машинные самообучающиеся алгоритмы для сравнения штаммов вируса, передающегося лишь между свиньями, и патогенного для человека, были использованы в 2011 году.

На основе обобщенных данных об известных и исследованных вирусах, что были помечены как патогенные для свиней или для человека, компьютером были выработаны стабильные критерии, безошибочно относящие новый вирус к какой-либо одной из указанных групп.

Узлами этого дерева принятия решений стали специфические для таких отдельных групп аминокислоты. В процессе дальнейшего исследования были выделены 13 аминокислот, подменив которые можно превратить свиной вирус в человеческий. А также 10 аминокислот, по которым отличается пандемический штамм от обычного сезонного.

К публикации готовится работа, где будут разъяснены причины возникновения опасного штамма H1N1.

К основным преимуществам вычислительного подхода следует отнести возможность выхода за пределы областей генома, где обычно ищут ключевые мутации.

Сначала, как правило, ученые обращают внимание на те гены, которыми кодируются белки, участвующие так или иначе в заражении (к примеру, гемаглитинин, что связывается с клеткой-хозяином).

Но оказалось, некоторые из мутаций, делающие вирус патогенным для человека, находятся за пределами указанной области.

Анализ иммунного ответа, вызываемый различными штаммами и его зависимость от комбинаций человеческих лейкоцитарных антигенов, которые широко варьируются внутри популяции как в зависимости от региона, так и от отдельных людей, также может быть проведен с использованием системы машинного обучения.

Чем больше объем генетических баз данных, тем более эффективно использование вычислительного метода. Данный метод позволит сделать следующее: — предсказывать возникновение новых штаммов гриппа, — виды животных, которые могут стать носителями непатогенных для людей вирусов,

— разрабатывать новые вакцины, препятствующие распространению пандемии, и другие лекарственные средства.

искусственный интеллект самообучающиеся алгоритмы

Источник: https://neuronus.com/stat/26-iskusstvennyj-intellekt-pomozhet-otsenit-opasnost-virusov.html

Эффективность искусственного интеллекта в борьбе с киберпреступностью

Искусственный интеллект — основной инструмент в борьбе с современными киберугрозами, благодаря алгоритмам машинного обучения и обработке больших массивов данных

В последнее время сфера искусственного интеллекта (ИИ), существующая уже много лет, стала как никогда актуальной. Хотя это может звучать несколько противоречиво, но все разговоры вокруг ИИ и связанной с ним технологией машинного обучения будут длиться еще достаточно долго. Ведь ИИ имеет очень важное значение в борьбе с постоянно растущим количеством разнообразных киберугроз.

Искусственному интеллекту уже более 60 лет

Все началось с Дартмутской конференции по вопросам искусственного интеллекта, которая состоялась летом 1956 года в одноименном колледже. С тех пор про ИИ было снято множество фильмов, где он, как правило, предстает в виде роботов с человеческими мыслями и чувствами. Однако в реальной жизни ИИ кардинально отличается от того, каким его изображают в фильмах.

ИИ применяется в компьютерных технологиях, которые могут выполнять задачи, имитируя человеческий разум. Он применяется в здравоохранительной и финансовой сферах, а также в сфере обслуживания и некоторых других.

Совет

Особый интерес вызывает и подвид ИИ — процесс, посредством которого компьютеры создают алгоритмы машинного обучения для принятия решений на основе шаблонов данных. Таким образом в процессе анализа больших массивов данных компьютеры обучаются.

Уже много лет компания Avast использует ИИ и технологии машинного обучения для защиты клиентов от киберугроз. Одна из наших систем, MDE, использует метод машинного обучения, который был разработан нашими специалистами по безопасности в 2012 году.

Почему даже самый опытный аналитик не может сравниться с искусственным интеллектом?

На заре компьютерной эры и интернета мы использовали цифровые подписи, для классификации различных типов угроз. Для их создания необходима работа специалиста и время, но чтобы идентифицировать огромное разнообразие современных новых киберугроз, их труда уже недостаточно. Проблему нехватки человеческих ресурсов и времени решают технологии искусственного интеллекта и машинного обучения.

Они становятся все более важным элементов, в виу появления все новых разновидностей вредоносных программ, которые часто выглядят как безвредные файлы, а также вирусов, которые могут видоизменяться, что еще больше затрудняет обнаружение таких угроз антивирусными системами. Более того, вредоносное ПО также продается на просторах даркнета, позволяя людям даже с небольшими техническими знаниями приобретать и распространять новые вредоносные программы.

Конечно, специалисты по кибербезопасности могут определять безопасность файлов, но для этого необходимо проверить их код.

Проанализировать каждый файл таким образом физически невозможно, учитывая, что каждый день мы сталкиваемся с более чем миллионом новых файлов.

Вряд ли вы захотите пользоваться сканером вредоносных программ или средством для их удаления, которые полагались бы исключительно на человеческие возможности.

С другой стороны, компьютеры прекрасно с этим справляются. Чтобы заставить их делать то, что аналитики обычно делают вручную, мы создали алгоритмы, которые раскладывают файлы в нужный нам вид.

Обратите внимание

Алгоритмы машинного обучения извлекают определенные характеристики, так называемые «отпечатки пальцев», из получаемых файлов.

Данные, которые извлекаются в результате, намного меньше исходных и поэтому подходят для массовой обработки и, что особенно важно, быстрого принятия решений.

Мы постоянно обучаем наши компьютеры

Поскольку масштаб угроз постоянно увеличивается, мы постоянно совершенствуем наполняем базы знаний наших машин о различных типах чистых и вредоносных файлов, чтобы они могли их лучше различать. Для этого наши аналитики преобразовывают полученные сведения о новых методах злоумышленников в алгоритмы, на основе которых наши машины учатся принимать решения на основе полученных данных.

Разумеется, наша способность делать все это зависит от данных, которые мы можем предоставить нашим компьютерам для числовых расчетов. Чем больше данных мы предоставим, тем точнее будут решения, принимаемые нашими системами.

Благодаря более чем 400 миллионам наших пользователей во всем мире, мы располагаем огромным количеством информации, на основе которой анализируем огромные массивы данных для определения вредоносных файлов.

В конечном итоге сочетание больших массивов данных, технологий машинного обучения и искусственного интеллекта позволяет нам предоставлять самую быструю и надежную защиту от вредоносного ПО.

Источник: https://blog.avast.com/ru/effektivnost-iskusstvennogo-intellekta-v-borbe-s-kiberprestupnostyu

Об искусственном интеллекте в сфере ИБ

О грядущем вымирании некоторых специальностей и замене специалистов на роботов говорят даже с самых высоких трибун.

Развитие прикладной математики и доступность вычислительных мощностей привели к тому, что машины готовы вторгнуться в область принятия решений, ранее считавшуюся доступной лишь для человека.

Давайте порассуждаем о некоторых аспектах, связанных с применением искусственного интеллекта в сфере ИБ.

Нехватку квалифицированного персонала в любой области решают с помощью нескольких подходов. Первый – «нарожать и обучить» – самый понятный, но и самый долгий, а потому не обеспечивает решение задачи здесь и сейчас.

Второй подход сегодня активно развивается. Это – аутсорсинг, подразумевающий концентрацию в центрах компетенции профессионалов, которые постоянно поддерживают собственную квалификацию и продают свои услуги потребителям.

Третий путь, ставший популярным в последнее время, – роботизация.

Инструменты бизнес-анализа, известные как системы поддержки принятия решений, существуют уже не одно десятилетие. Но прежде они не принимали решения самостоятельно, а лишь предлагали пользователю варианты и просчитывали их последствия (так называемый «what-if-анализ»). Теперь пришло время не только подсказывать, но и выбирать те или иные решения.

Эта тенденция не могла не породить рыночного «хайпа»: в маркетинговых целях возможности искусственного интеллекта приписывают любому продукту, значительно взвинчивая его цену.

Важно

Если 10 лет назад маркером десятикратной наценки служило слово «smart» (умные часы, умный дом, умный телефон, умный автомобиль и т.п.), то сегодня одного «ума» (а точнее – операционной системы, встроенной в систему управления продукта) стало недостаточно.

Читайте также:  Нейронные сети способны распознавать симптомы заболеваний без участия врачей

Такой продукт должен обладать не просто умом, а интеллектом, поэтому теперь все умные устройства объявлены интеллектуальными.

Просто разорви цепь

Службы информационной безопасности стояли в стороне от этого ажиотажа – прежде всего, из-за того, что на них возлагается большая ответственность.

Если движок распознавания лиц правильно распознает 80% лиц, его разработчики ликуют – четыре из пяти лиц определены, отличный результат! Однако безопасника такая эффективность приводит в ужас, ведь каждая пятая атака будет пропущена или каждое пятое легитимное действие пользователя будет заблокировано. Такие технологии искусственного интеллекта, как машинное обучение (machine learning) и глубокое обучение (deep learning), довольно долго применялись в сфере безопасности лишь для внутренних целей – автоматизации работы вирусного аналитика, анализа аномалий трафика. Они оставались принципиально пассивными и лишь «подсвечивали» аналитикам сомнительные места, с которыми те затем разбирались самостоятельно.

Старые проверенные методы, связанные с использованием обратной связи, безопасники не отбрасывали. Есть процессы, в которых ум – во вред, поскольку в их рамках надо однозначно реагировать на конкретные ситуации: при возникновении опасности ее причина должна блокироваться.

Вспомните эволюцию предохранителей, реагирующих на повышение силы тока в сети. Сначала это были одноразовые предохранители, которые плавились при повышении температуры, связанном с увеличением силы тока.

Потом они стали удобнее: просто размыкали сеть, и после срабатывания их не надо было менять. И не нужен такой системе никакой интеллект! Когда дело касается защиты, этот подход (разорви цепь при нагреве) гораздо эффективнее.

Всем спокойнее, если действия системы защиты являются «тупой» реакцией на угрозу, и надо не обдумывать конкретное решение, а просто реагировать по заранее прописанному сценарию.

Совет

Потому-то специалисты по информационной безопасности до сих пор не отказались от старых добрых сигнатур атак и вирусов.

В соответствующие базы знаний давно входят сотни миллионов образцов, и такие сигнатуры хорошо себя проявляют при очередном воздействии уже известных вредоносов и атак.

В этом и состоит основная проблема: да, известные атаки отражаются легко и полностью автоматически, но новые, неизвестные средству защиты, не отражаются вовсе.

Защита со многими неизвестными

Аналитики делают все возможное – быстро изучают новые угрозы и выпускают средства для защиты от них, которые оперативно распространяются.

Однако факт остается фактом: в промежутке между первой атакой и появлением соответствующего средства противодействия (а это – от нескольких часов до нескольких дней) пользователи беззащитны, поэтому сегодня основные усилия разработчиков направлены на поиск средств отражения именно неизвестных атак.

Нападающая сторона, конечно, не осталась том же уровне, на котором она находилась лет десять назад. Она уже использует технологии искусственного интеллекта для обхода средств защиты, обучая свои системы на реакциях объекта атаки. Можно утверждать, что классическое противостояние «снаряда и брони» охватило и эту область знаний.

Однако если нападающих мало интересуют мораль и законы, то у защитников при использовании искусственного интеллекта возникает немало проблем. Они знакомы широкой публике, например, по обсуждениям алгоритмов принятия решения автомобильных автопилотов.

Кто будет отвечать, если «робот» принял неверное решение, которое привело к отрицательным последствиям? И если нет хорошего решения, то что считать меньшим злом? В сфере информационной безопасности такие вопросы тоже стоят очень остро.

Обратите внимание

Кто ответит за ущерб компании, понесенный в случае принятия искусственным интеллектом неверного решения? Человека, принявшего такое решение, можно осудить по закону, а что делать с «роботом»?

Сочетая и интегрируя

Компании, разрабатывающие решения по защите информации на базе алгоритмов искусственного интеллекта, не делают ставку исключительно на такие алгоритмы.

Они сочетают старые, проверенные и новые методы защиты, чтобы эффективнее использовать их сильные стороны. Чаще всего технологии искусственного интеллекта применяют для обнаружения и анализа аномалий.

Любые аномалии в поведении системы, пользователя, в сетевом трафике могут быть как признаками атаки, так и совершенно легитимным новым функционалом.

Эта дилемма (на сленге – «бага или фича?») стала особенно насущной, когда системы начали меняться очень быстро и без документирования по методологиям гибкой разработки aka agile. При таких изменениях новый функционал вызывает аномалии в поведении пользователей, системы и трафика, очень похожие на аномалии при атаке.

Можно запускать режим самообучения системы защиты на новом функционале, но алгоритмы работают только в том случае, если время процесса самообучения – меньше интервалов между изменениями, а в подавляющем большинстве случаев дело обстоит уже не так.

Блокировать эти аномалии нельзя, поэтому очень много разработок направлены на изучение различных аномалий и оценку их опасности для процесса.

Системы защиты стали все теснее и теснее интегрироваться с защищаемыми объектами. Сегодня безопасность приложений начинается с безопасной разработки, то есть защита имеет возможность влиять на объект защиты.

Важно

Это – очевидный ход: при постоянных изменениях приложения важно не только фильтровать данные на входе, но и понимать их путь внутри приложения, поэтому появился тренд объединения различных систем анализа защищенности и активной защиты.

Данный подход позволяет не ограничивать уязвимый функционал приложения полностью, а только блокировать трафик к нему.

Верно и обратное: если система защиты знает, что атака не достигнет цели (например, в запросе фигурирует команда, но в поле ввода, в которое он направляется, нет возможности провести инъекцию), то такой трафик можно считать легитимным.

Робот конкурирует с человеком?

Когда система защиты не только видит аномалии, но и может предсказать реакцию системы на них, появляется гораздо больше информации для анализа и обучения алгоритмов искусственного интеллекта. Поэтому не за горами – то время, когда некоторые ИБ-профессии начнут отмирать.

Как в реальной экономике первыми жертвами «роботизации» станут профессиональные водители, так в области защиты информации – операторы систем защиты.

Сегодня работа такого оператора подразумевает выявление инцидента информационной безопасности на основе входящей информации, а затем – реакцию на инцидент согласно заранее написанным рекомендациям.

С повышением точности систем, действующих на базе искусственного интеллекта, разрешение коллизии «найденная аномалия – это бага или фича?» стала разрешаться без вмешательства человека, как происходило раньше, например, с детектированием вирусов.

Сначала операторы радуются снижению нагрузки, ведь «роботы» выполняют их задачи, но затем руководитель замечает, что его сотрудники лишь наблюдают за автоматической работой системы и, по большому счету, не нужны.

Совет

Однако внедрение систем с искусственным интеллектом в сфере информационной безопасности, как бы нас ни пугали футуристы, не приводит к увольнению людей – при нынешнем дефиците безопасников освободившиеся ресурсы всегда есть куда пристроить.

Другими словами, задач информационной безопасности больше, чем людей, и их число растет.

Повышение точности распознавания неизвестных атак на основе технологий искусственного интеллекта позволит не только решить проблему нехватки кадров, но и вновь сделать ИБ-деятельность активной.

Из-за большого количества ложных срабатываний при использовании традиционных сигнатурных технологий индустрия привыкла, что большинство средств защиты включаются в режиме мониторинга, лишь сообщая о чем-то необычном, а не блокируя атаки.

Однако точность сегодняшних систем, использующих технологии искусственного интеллекта, уже превышает точность оператора. Можно вспомнить и о неравномерной работоспособности, потребности в сне, об отпусках, болезнях и других «недостатках» человека по сравнению с «роботом».

Забрав у людей рутинную работу, искусственный интеллект освободит их для новых интересных задач, которых на наш век хватит. Если люди, конечно, захотят их решать.

Источник: https://bis-expert.ru/articles/56631

Кибер-эксперт. Искусственный интеллект в сфере ИТ-безопасности

Удастся ли настолько точно описать человеческий разум, чтобы воспроизвести его с помощью машины? У ученых нет единого мнения на этот счет. Разработчики, которые пытаются создать искусственный интеллект, используют совершенно разные подходы.

Одни отдают предпочтение искусственным нейронным сетям, другие — экспертным системам, эволюционным алгоритмам или системам нечеткой логики.

Но до сих пор ни один автономный искусственный интеллект не прошел тест Тьюринга, в котором требуется, чтобы интеллектуальная деятельность машины была неотличима от человеческой.

Одним из перспективных направлений, где оправданно применение автономного ИИ, являются компьютерная вирусология и удаленное лечение компьютера.

Главной нерешенной задачей в области искусственного интеллекта (ИИ) является создание автономного ИИ, то есть ИИ, способного к обучению, принятию самостоятельных решений, переобучению и изменению собственного поведения.

Можно построить узкоспециализированную систему, можно сделать и более универсальный сложный ИИ, но практически всегда это система, которая использует уже заложенные в нее людьми опыт и знания, описанные в виде обучающих примеров, правил или алгоритмов.

Почему сложно создать автономный искусственный интеллект? Потому что у машины пока нет таких человеческих качеств, как образное мышление, интуиция, умение самостоятельно отличать важное от второстепенного, а самое главное — у нее нет стремления к познанию нового.

Обратите внимание

Все эти качества дают человеку возможность находить верные решения даже в нестандартных ситуациях. А искуственному интеллекту для работы обычно требуется, чтобы люди заранее заложили в него эффективный алгоритм действий.

Тем не менее, попытки приблизиться к созданию автономного ИИ предпринимаются постоянно, и некоторые из них небезуспешны.

Издержки ручного труда

Процесс обнаружения вредоносных программ и восстановления нормальных параметров компьютера состоит из трех основных этапов, независимо от того, кто этим занимается — человек или интеллектуальная машина.

Первый этап заключается в сборе объективных данных об исследуемом компьютере и программах, которые на нем работают.

Оптимально, когда такое исследование выполняется с помощью быстрых автоматизированных инструментов, работающих без участия человека и формирующих отчеты в машиночитаемой форме.

Второй этап состоит в изучении собранных данных и выполнении уточняющих исследований. К примеру, в отчетах обнаруживаются сведения о подозрительных объектах — следовательно, эти объекты необходимо поместить в карантин и подвергнуть всестороннему анализу для вынесения вердикта об опасности и принятия решения о дальнейших действиях.

Третий этап — это непосредственно процедура лечения, для которой может применяться специализированный скриптовый язык, содержащий команды для удаления вредоносных файлов и восстановления нормальных параметров вычислительной системы.

Еще несколько лет назад этапы 2-3, как правило, выполнялись практически без автоматизации, вручную, аналитиками антивирусных компаний и экспертами специализированных форумов. Однако рост числа пользователей, ставших жертвами вредоносных программ и обращающихся за помощью, вызвал ряд проблем, среди которых можно отметить следующие:

  • при ручной обработке протоколов и файлов карантинов вирусный эксперт сталкивается с огромным объемом непрерывно поступающей информации, которую нужно обязательно осмысливать, что замедляет процесс анализа;
  • возможности человека имеют естественные психофизиологические ограничения. Любому человеку свойственно уставать и ошибаться, и чем объемнее решаемые задачи, тем выше вероятность ошибок. Перегруженный вирусный эксперт, например, может не заметить вредоносной программы, или наоборот, удалить легитимное приложение;
  • в случае, если лечение компьютеров пользователей выполняет несколько специалистов, крайне затруднен обмен накопленным ими опытом. А обмен опытом очень важен, чтобы можно было использовать уже известный способ для лечения компьютеров, пострадавших от идентичных вредоносных программ;
  • анализ полученных файлов в карантинах является крайне трудоемкой операцией, потому что эксперту необходимо учитывать особенности получения того или иного образца: где он фигурировал и в чем и почему подозревается.

Решить указанные проблемы можно только путем автоматизации процесса обработки данных о компьютерных угрозах, уязвимостях и повреждениях системы. Однако многочисленные попытки сделать это различными алгоритмическими методами не дали положительных результатов.

Читайте также:  Американцам предоставится возможность попробовать блюда от искусственного интеллекта

Главная причина этого заключается в том, что вредоносное ПО совершенствуется, ежедневно появляются десятки новых разновидностей вредоносных программ, отличающихся методами внедрения и маскировки в компьютерной системе. В результате алгоритм обнаружения получается крайне сложным, но хуже того — он очень быстро устаревает и его приходится постоянно актуализировать и отлаживать.

Важно

Другая проблема состоит в том, что качество работы любого алгоритма будет ограничено профессиональным уровнем создающих его специалистов.

Применять для «ловли» вирусов экспертные системы оказалось не многим более результативно. Разработчики антивирусных экспертных систем сталкиваются с похожими проблемами: результативность работы экспертной системы зависит от качества заложенных в ней правил и баз знаний, причем эти базы тоже надо постоянно актуализировать, а значит, опять привлекать человеческие ресурсы.

Общие принципы работы системы КиберХелпер

Тем не менее опыты в этой области привели наконец к успеху. Была разработана вычислительная система КиберХелпер — удачная попытка приблизиться к автономному ИИ, предназначенному для борьбы с вредоносными программами.

Множество автономных подсистем КиберХелпера способны к синхронизации, обмену данными и совместной работе.

Естественно, что в КиберХелпер заложено некоторое количество «жестких» алгоритмов и правил, которые применяются в обычных программах, однако большинство его подсистем используют аппарат нечеткой логики и самостоятельно определяют свое поведение при решении различных задач.

Основа системы КиберХелпер — утилита AVZ, которая была создана автором в 2004 г.

специально для автоматического сбора данных об исследуемых ПК и вредоносных программах для дальнейшего представления этих данных в машиночитаемом виде.

Утилита формирует протоколы исследования компьютерной системы в форматах HTML (для чтения человеком) и XML (для машинного анализа). С 2008 года ядро AVZ встроено в антивирусные продукты «Лаборатории Касперского».

Общий алгоритм работы системы КиберХелпер (шаги 1-6)

Алгоритм работы системы состоит из 6 шагов. На шаге 1 алгоритма ядро AVZ выполняет на зараженном компьютере разнообразные исследования и проверки и передает полученные результаты в виде XML-протоколов другим частям КиберХелпера для анализа.

При создании заявки на лечение важно внимательно ответить

на все вопросы системы

Анализатор системы изучает полученный протокол, при этом он опирается на огромный объем данных об уже изученных вредоносных программах, предпринятых действиях для лечения похожих случаев, а также обо всех схожих обращениях.

В этом КиберХелпер похож на живой разум, который для продуктивной работы тоже должен постоянно накапливать знания об окружающем мире, особенно в период своего становления. Так, для полноценного развития ребенка очень важно, чтобы он непрерывно познавал мир и общался с другими людьми.

Машина тут даже имеет перед человеком преимущество, так как способна хранить, извлекать из памяти и обрабатывать за единицу времени значительно большие объемы информации.

Пример предписания и скрипта лечения/карантина,
написанный системой КиберХелпер без участия человека

Еще одно сходство КиберХелпера и живого разума — это то, что КиберХелпер может самостоятельно, практически без подсказок, управлять процессом анализа протоколов, а также непрерывно самообучаться в меняющихся условиях.

Сложности реализации

Однако при реализации процесса самообучения КиберХелпера, а также при его функционировании приходится сталкиваться со следующими проблемами: 1) машине нельзя передать «интуитивный» опыт, который играет немалую роль в работе эксперта-человека 2) информация о программах зачастую неполная и противоречивая 3) данные, поступающие для анализа, многократно уточняются и нередко задерживаются 4) Процесс лечения требует времени, и нередко оказывается, что к моменту выполнения запрошенных действий пользователь может заразить свой компьютер каким-либо другим вирусом или его антивирус может успеть обновиться и вмешаться в процесс лечения.

Эксперты, обрабатывающие протоколы и файлы карантинов, могут ошибаться или выполнять действия, не имеющие с точки зрения машины логического объяснения.

Типичный пример: видя в протоколе незнакомый файл с характерным для вредоносной программы именем %System32%ntos.exe, специалист, опираясь на свой опыт и интуицию, удаляет файл без карантина и дополнительного исследования.

Совет

Следовательно, сведения о предпринятых экспертами действиях и их выводы не всегда могут использоваться непосредственно для обучения системы.

Неполная или противоречивая информация об угрозах также затрудняет процесс обучения системы. Например, пользователь перед обращением за помощью занимался «самолечением» компьютера и удалил только часть компонентов вредоносного ПО или успешно удалил вредоносную программу, но не очистил системный реестр.

Возможна и такая ситуация: во время анализа протокола доступны только метаданные подозрительных объектов, а после исследования файлов карантинов имеется только первичная информация о подозрительных объектах. На основании таких данных КиберХелпер нередко может сделать только начальные выводы, которые затем уточняются по мере более детального исследования данных, полученных от пользователя.

И наконец, еще одна проблема: через некоторое время может произойти однозначная классификация любого объекта или может измениться состояние компьютера пользователя. Допустим, некий объект фигурирует в протоколах, которые пользователь отправил на анализ.

Через несколько часов пользователь заходит в сервис лечения для получения предписаний, за это время антивирус пользователя обновляет базы, объект начинает детектироваться сигнатурно в качестве вредоносной программы и успешно вылечивается.

Изучивший протоколы «Киберхелпер», естественно, не знает о том, что объект уже удален — и, к примеру, предлагает скрипт для карантина объекта.

Карантин будет неуспешен, но главное — машине при этом неясно, почему именно не удалось подвергуть карантину объект, который, судя по протоколам, гарантированно присутствует на ПК.

Кроме перечисленных проблем следует отметить важную особенность, которую приходится учитывать в процессе самообучения системы. Рассмотрим ее на типичном примере: некий анализатор не находит в поведении изучаемого файла ничего опасного и сообщает этот вердикт системе КиберХелпер.

Обратите внимание

Через некоторое время анализатор дорабатывается, производится повторный анализ ранее изученных файлов, и для некоторых из них получается вердикт, противоположный предыдущему.

(Такая же проблема может возникать и с выводами вирусных аналитиков для программ со спорной классификацией, например для систем удаленного управления или утилит для скрытного слежения за пользователем, — их классификация может меняться от версии к версии исследуемого ПО).

Указанная особенность — изменчивость и неоднозначность оценки анализируемых параметров программ — привела к тому, что решения в системе КиберХелпер принимаются на основании более 50 различных независимых исследований. Приоритеты каждого вида исследования и значимость его результатов постоянно меняются в ходе процесса обучения интеллектуальной системы.

https://www.youtube.com/watch?v=yfmnKqvubOA

На основании данных, имеющихся на текущий момент, анализатор КиберХелпера выдвигает ряд гипотез о том, какие из фигурирующих в протоколе объектов могут представлять опасность, а какие — пополнить базу «чистых» файлов.

На основании этих гипотез КиберХелпер автоматически пишет скрипты AVZ для карантина подозрительных объектов. Скрипт передается пользователю (шаг 2 общего алгоритма КиберХелпера) и выполняется на его ПК.

Результатом работы скрипта являются копирование в карантин файлов и формирование дополнительных протоколов исследования, которые передаются интеллектуальной системе (шаг 3).

На этапе написания скриптов может оказаться, что интеллектуальная система имеет однозначные данные об объектах, обнаруженных в ходе исследования. В этом случае в скрипт могут включаться команды удаления уже известных вредоносных программ или вызова специальных процедур для устранения уже известных повреждений в системе.

Такие ситуации возникают довольно часто и связаны с тем, что КиберХелпер одновременно обрабатывает сотни заявок, и обычной является ситуация, когда за помощью обращаются несколько пользователей, пострадавших от одной и той же вредоносной программы.

Получив от одного из пользователей требуемые образцы и изучив их, система КиберХелпер может выдать скрипты лечения остальным пользователям, минуя стадию карантина, — это экономит время пользователей и их трафик.

Полученные от пользователя объекты подвергаются различным исследованиям (их результаты пополняют базу знаний КиберХелпера независимо от вынесенных вердиктов), причем процессом исследования управляет искусственный интеллект системы КиберХелпер. Таким образом интеллектуальная машина может осуществлять проверку гипотез, выдвинутых на первом шаге общего алгоритма, подтверждая или опровергая их.

Технические подсистемы КиберХелпера

Основными аналитическими подсистемами КиберХелпера являются автономная подсистема анализа исполняемых файлов и подсистема анализа поведения исполняемых файлов. Их наличие позволяет КиберХелперу самостоятельно исследовать вредоносные программы и самообучаться на результатах этих исследований.

Если исследования позволили однозначно подтвердить вредоносность объекта, он передается в антивирусную лабораторию с высоким приоритетом включения в антивирусные базы, а для пользователя формируется скрипт лечения (шаг 5 общего алгоритма системы).

Важно отметить, что, несмотря на возможность исследования объектов, система КиберХелпер далеко не всегда может принять однозначное решение по изучаемым объектам. И если однозначного решения нет, то все собранные данные и первичные результаты передаются человеку-эксперту для анализа (шаг 6 общего алгоритма КиберХелпера), и далее лечением компьютера руководит этот эксперт.

Важно

КиберХелпер не вмешивается в процесс, но продолжает изучать получаемую информацию о карантинах и протоколы, формируя отчеты для эксперта, что избавляет последнего от основной массы рутинной работы.

Когда заявка сформирована, система еще раз показывает ее вам,
чтобы можно было проверить, все ли входные данные верны

При этом «политика невмешательства» ИИ в работу эксперта действует не всегда — известны десятки случаев, когда интеллектуальная машина находила ошибки в действиях человека, используя для их анализа имеющиеся в ее распоряжении накопленные данные и результаты собственного анализа объекта.

В этом случае машина может вмешаться в процесс анализа и вынесения вердикта — начиная отправкой эксперту предупреждений и заканчивая блокировкой отправки пользователю скриптов, которые, по мнению машины, могут причинить вред системе пользователя.

Аналогичный контроль машина ведет и за своими действиями при разработке скриптов лечения — одна из подсистем разрабатывает скрипт, но при этом другая оценивает его опасность и пресекает возникающие ошибки. Простейший пример связанной с этим проблемы: вредоносная программа подменяет важный системный компонент.

При этом, с одной стороны, для лечения необходимо уничтожить вредоносную программу, но с другой, это нанесет непоправимый ущерб компьютеру.

Сервисом 911 на сайте VirusInfo может воспользоваться любой желающий

В настоящее время КиберХелпер успешно интегрирован с антивирусным порталом virusinfo.info и является основой экспериментальной системы 911 kaspersky-911.ru.

В системе 911 КиберХелпер выполняет все первичное общение с пользователем: запросы протоколов, их анализ, написание скрипта для выполнения первичного обследования, анализ полученного в ходе этого обследования файла карантина.

Совет

По результатам анализа машине разрешается проводить лечение зараженного компьютера.

Кроме того, КиберХелпер выполняет контроль над работой экспертов с целью поиска и пресечения опасных ошибок, осуществляет первичный анализ всех файлов, помещенных экспертами в карантин, и обрабатывает данные карантинов для пополнения базы «чистых» файлов. Принцип работы и технологии системы КиберХелпер защищены двумя патентами «Лаборатории Касперского».

Заключение

Современные вредоносные программы распространяются и действуют с чрезвычайно высокой скоростью. Для оперативной реакции на угрозы требуется мгновенная интеллектуальная обработка больших объемов нестандартной информации. Помочь в этом может искусственный разум, способный обрабатывать данные на скоростях, превышающих быстроту человеческой мысли.

Система КиберХелпер — одна из немногих удачных попыток приблизиться к созданию автономного искусственного разума, борющегося с компьютерными угрозами. Подобно разумному существу КиберХелпер самообучается и может самостоятельно определять свои действия.

Вирусные аналитики и интеллектуальная машина удачно дополняют друг друга, работая вместе эффективнее и обеспечивая пользователей более надежной защитой.

Статья была опубликована в журнале Secureview, 4th quarter 2010,

Источник: https://securelist.ru/kiber-e-kspert-iskusstvenny-j-intelle/1428/

Ссылка на основную публикацию
Adblock
detector