Финансовый аналитик против искусственного интеллекта: противостояние начинается…

Искусственный интеллект против финансовых преступлений

Авторы оригинальной статьи: Патрик Крейг (Patrick Craig), партнер офиса финансовых услуг по региону EMEA, руководитель стратегических решений по противодействию финансовым преступлениям E&Y; Марк Грегори (Mark Gregory), старший управляющий по направлению консалтинга в офисе финансовых услуг по региону EMEA E&Y

По материалам: International Accountant №100 (август-сентябрь 2018)

Противодействие отмыванию денежных средств стало одним из основных вызовов в индустрии финансовых услуг. Применяющиеся сегодня процессы по противодействию отмыванию в очень значительной степени опираются на ручной труд, повторяющиеся задачи и усиленную работу с данными, оставаясь сами по себе малоэффективными в борьбе с незаконной финансовой деятельностью.

С учетом того, как мало приносят сегодняшние усилия на фоте растущей сложности угроз и все увеличивающегося объема данных для анализа, давно пора изучить возможности применения искусственного интеллекта (ИИ) в этой области, потенциально способного вывести противодействие отмыванию на качественно новый уровень. Однако обширный потенциал и постепенно растущее число новых приложений на основе ИИ породили волну дискуссий, которые сводятся преимущественно к обсуждению эффективности этих решений и степени доверия, которое требуется для замены живых аналитиков роботами в этой проблемной области.

Опасения по поводу расширения применения технологий искусственного интеллекта можно понять, но это не отменяет того факта, что именно человеческий разум – вероятно, самая непредсказуемая и неопределенная система во всей Вселенной.

Обратите внимание

Поэтому оптимальным вариантом, как всегда, станет синергия – сочетание человеческой интуиции и процессов, выполнение которых лучше доверить компьютеру.

Это обеспечит лучший результат, чем изолированная работа над задачей только человека или только компьютера.

Чтобы лучше изучить и осознать весь обширный потенциал ИИ, индустрии финансовых услуг придется сначала внимательнее рассмотреть все риски и ограничения технологий искусственного интеллекта. Что не менее важно, придется также сформулировать этические основы использования искусственного интеллекта, его контроля, удостоверения эффективности работы этих новых моделей взаимодействия.

Противодействие отмыванию: грядут перемены

На данный момент и те подходы, что применяют сами компании, и основы регулирования не справляются в полной мере с отмыванием. Общемировой объем отмываемых каждый год средств оценивается величиной от 2% до 5% мирового ВВП.

Финансовые институты направляют на отмывание колоссальные средства, но пока без должного результата.

Отчет Европола свидетельствует, что только лишь 10% сообщений о подозрительных финансовых транзакциях приводят к дальнейшим расследованиям со стороны властей.

Организации-участники индустрии финансовых услуг уже сейчас с трудом сдерживают растущие издержки, а, между тем, объемы данных для обработки и сложность характера угроз, по ожиданиям, будут только расти. В результате все более четким становится осознание необходимости инноваций в антиотмывочной деятельности, внедрения современных технологий.

Что вообще такое искусственный интеллект? ИИ охватывает широкую совокупность различных областей, техник и технологий, поэтому дать ему четкое определение затруднительно.

В рамках сегодняшнего материала можно отталкиваться от определения, которое ввел Совет по финансовой стабильности (Financial Stability Board – FSB): “Теория и развитие компьютерных систем, способных к выполнению задач, которые традиционно требуют человеческого интеллекта”.

Машинное обучение является одной из ключевых областей ИИ, и в очень значительной мере тот успех, которого уже удалось добиться, связан с развитием именно машинного обучения.

Потенциал и влияние искусственного интеллекта

Потенциал ИИ в последние годы возрос, что демонстрируют примеры из реальной жизни в виде виртуальных помощников и роботов. Это не ускользнуло от внимания бизнеса, стремящегося к сокращению издержек, повышению эффективности управления рисками и росту производительности. Ежегодные венчурные инвестиции в США в ИИ-стартапы, по оценкам, выросли с 2000 года шестикратно.

От внимания инвесторов не ускользнули потенциальные возможности поставить машины на службу комплайенсу – выполнению компаниями требований финансового регулирования.

Важно

Только за первый квартал 2017 года более £238 миллионов было инвестировано в компании, работающие в сфере так называемых регуляторных технологий (финансовых технологий, облегчающих выполнение требований регулирования участниками рынка).

Параллельно и сами регуляторы (такие как британское финансовое управление Financial Conduct Authority или Совет по финансовой стабильности), и участники рынка признают растущее влияние ИИ в секторе финансовых услуг и влияние этого на комплайенс.

Издержки комплайенса

Потенциально ИИ способен обеспечить колоссальную эффективность ключевых операционных процессов, таких как комплексная проверка, скрининг, транзакционный мониторинг и т.д.

Для примера, традиционные системы контроля транзакций на отмывание слишком часто приводят к фиксации ложных сигналов, что увеличивает рабочую загрузку.

Эта неэффективность еще больше осложняется неэффективностью процессов по расследованию этих сигналов. Соотношение усилий и результата оставляет желать лучшего.

Технологии искусственного интеллекта обеспечивают возможность немедленного сокращения операционных издержек без негативного влияния на эффективность путем внедрения машинного обучения на различных стадиях процессов транзакционного мониторинга. Кроме того, обширные возможности для применения ИИ имеются и в комплексных проверках клиентов, и в скрининге – благодаря технологиям интеллектуального анализа текстов и речи.

“Знай своего клиента”

Изучение того, как можно применять ИИ и интегрировать его с деятельностью человека – основное на сегодня направление мышления в антиотмывочной деятельности. Это способно привести к фундаментальным изменениям в применении ключевой концепции “Знай Своего Клиента” (“Know Your Customer” – KYC).

Очень вероятно, что на следующей стадии трансформации мы увидим более полную интеграцию оценки, мониторинга, процедур всесторонней проверки и расследований, а искусственный интеллект в этом поможет более целостным подходом и более контекстуальным базисом для определения подозрительной активности и выявления угроз.

В будущем ИИ могут предоставить возможности для более широкого, масштабного, частого, но при этом более целостного анализа в соответствии с концепцией “Знай своего клиента”.

Модели обнаружения и анализа рисков будут строиться на основе широкого набора данных и обеспечивать точные результаты в контексте профиля и поведения клиента.

Совмещение способности ИИ к динамическому обучению с навыками опытных аналитиков позволит расширять операции, обеспечивать эффективный контроль качества, и даже сможет использоваться для обучения новых кадров.

Построение доверия

Финансовые институты находятся сегодня в самой выгодной позиции для изучения возможностей ИИ и построения доверия к системам искусственного интеллекта в области противодействия финансовому отмыванию.

Однако многие из них находятся лишь в начале своего пути и, как следствие, могут еще быть неподготовленными для управления новыми рисками, возникающими вследствие применения новых технологий.

Каковые же основные составляющие построения этого доверия?

Качественная система управления

Необходима надежная система управления и контроля за созданием, развитием и внедрением решений на основе ИИ – без этого невозможно гарантировать безопасность и эффективность “антиотмывочного” комплайенса.

Качественное управление обеспечивает инструментами оценки и управления рисками, необходимым уровнем понимания процессов и документацией, на основе которых будут приниматься решения по ходу всего жизненного цикла решения на основе ИИ.

Совет

Хорошей стартовой точкой для разработки новой системы управления и контроля являются уже действующие модели управления рисками, которые применялись для противодействия отмыванию все последние годы и, следовательно, выдержали испытание временем.

Этот тот базис, на основе которого компании могут спроектировать рациональный подход к внедрению ИИ, и который, в свою очередь, будет отвечать ожиданиям риск-менеджеров и высшего руководства.

Определение масштаба, целей и критериев успешности

Разработка ИИ-решения должна начинаться с четкой формулировки целей, чтобы дизайн и само внедрение решения отвечали основной задаче и эффективно интегрировались в бизнес-процессы.

Иногда весьма непросто определить, что представляет собой успех в области противодействия отмыванию, ведь здесь исходы и наборы данных могут быть весьма субъективными.

Может оказаться, что без улучшения некоторых составляющих (аналитики, расследования) сами по себе системы на основе искусственного интеллекта не принесут значительной пользы, лишь нагрузят компанию дополнительными инструментами контроля.

Поэтому очень важно (с учетом склонности организации к риску) четко определить индикаторы и параметры, способные определить, насколько результаты использования систем ИИ отвечают поставленным целям. Второй важный фактор – это определение масштаба, и руководствоваться здесь необходимо политикой в отношении сохранности персональных данных и правами владельцев персональных данных, гарантированными им законодательством.

Прозрачность дизайна систем и их алгоритмов

Очень важная составляющая, в том числе с точки зрения аудиторов. Машинное обучение и ИИ – это очень обширная область с разными степенями сложности и прозрачности.

Если брать самые сложные нейронные сети и технологии на основе глубокого обучения (deep learning), то обеспечить доверие к этим областям будет труднее всего по сравнению с теми технологиями, что уже применяются, однако справедливости ради надо отметить, что очень немногие передовые “антиотмывочные” решения из тех, что уже используются банками, зашли дальше построение регрессий и дерева решений. Дизайн процесса должен учитывать различные особенности и возможности ИИ-систем в плане их применимости согласно заданным целям. Необходимо детально документировать технические спецификации вместе с известными ограничениями, чтобы эта информация была известна ключевым группам стейкхолдеров в целях осуществления руководства.

Сотрудничество ради определения передовых практик

Успешное внедрение искусственного интеллекта в экосистему “антиотмывочного” комплайенса требует определенной отдачи и сотрудничества различных участников – компаний, поставщиков решений, регуляторов и даже правительств.

Сотрудничество может стать основой более широкого внедрения и более четкого определения преимуществ, но вместе с тем – разработки стандартов и рычагов контроля для безопасного создания и внедрения решений на основе ИИ.

В свою очередь, более широкое внедрение будет способствовать дальнейшим инновациям в области технологий искусственного интеллекта, а также общей конвергенции регулирования в этой области, в отсутствие которой могут возникать перекосы в эффективности, приводящие к неэффективному распределению активности.

Акцент на вводных данных и этических последствиях

Вводные данные, использующиеся для обучения и управления системами искусственного интеллекта, очень важны. Качество данных – существенная проблема для многих финансовых институтов, напрямую влияющая на эффективность и качество контроля.

Проекты обязаны еще на стадии дизайна и разработки уметь оценивать качество данных, то, насколько они подходят для использования ИИ. Кроме того, должны быть введены в действие рычаги, обеспечивающие контроль качества данных в ходе всего операционного цикла.

Другая проблема – это этические соображения как с точки зрения целевого использования, так и самой природы обученного ИИ.

Жесткое тестирование и проверка

Чем выше уровень тестирования и обеспечения независимости, тем более эффективным по итогу окажется решение, и тем меньшим будет операционный риск. Распространенные модели управления рисками предполагают использование независимой оценки.

Можно также использовать стресс-тестирование и сценарный анализ.

Постепенно возникает все больше новаторских техник проверки приложений на основе искусственного интеллекта, причем их начинают применять в смежных областях – таких как использование “красных команд” (команд экспертов, симулирующих хакерские атаки) или “анонимных покупателей”.

Ключевой принцип: приступать пораньше, внедрять постепенно, проверять регулярно

Искусственный интеллект способен внести значительные перестановки в систему комплайенса и операционные модели. Контакт со стейкхолдерами необходимо обеспечивать на как можно более ранних стадиях, чтобы иметь наготове общее видение.

Читайте также:  Бактерии могут быть запрограммированы на создание структур из золотых частиц

Постепенное внедрение способно сделать изменения более эффективными, дать возможность для конструктивного отклика и, в конечном итоге, доверия. Внедрение ИИ в производственный цикл предполагает четкое понимание операционных рисков, которые потребуют постоянного мониторинга и контроля.

Обратите внимание

Одним из самых значительных беспокойств вокруг внедрения искусственного интеллекта в каждодневное использование являются опасения по поводу возможности недобросовестного манипулирования или его неправомерного использования. Регулярный анализ принятых ИИ решений и другие периодические проверки помогут снизить этот риск до минимума.

В то же время основанные на жестких правилах экспертные системы способны обеспечить постоянную основу для сравнения и выявления случаев, где принятые ИИ решения отклоняются от ожидаемых норм.

Сегодняшние подходы к борьбе с отмыванием устарели и не справляются с современным масштабом незаконной деятельности. Есть реальная возможность использовать технологии искусственного интеллекта не только для обеспечения эффективности, но и для определения новых креативных способов противодействия отмыванию денежных средств.

Конечно, ИИ продолжает оставаться вызовом для способности организаций принимать на себя риски, но время задать вопрос: готовы ли они позволить себе и дальше не применять ИИ в борьбе с отмыванием? При условии интегрирования с правильной стратегией и правильным фокусом на построении доверия, искусственный интеллект – это тот риск, который стоит того, чтобы принять его на себя.

Источник: https://gaap.ru/articles/Iskusstvennyy_intellekt_protiv_finansovykh_prestupleniy/

Война роботов: как искусственный интеллект изменит поле боя будущего | ПОЛИТИКА для АДЕКВАТНЫХ

Новости о внедрении искусственного интеллекта в последнее время приходят все чаще. Возможности его использования безграничны как в быту, так и в военной сфере.

Управление системами без участия человека кардинально изменит ситуацию на поле боя в случае войны. И поэтому конкуренция между странами обостряется. Гонка обещает быть захватывающей.

Илья Плеханов – о том, как Россия, США и Китай развивают технологии будущего и какие у стран шансы выиграть битву за интеллект. 

Что может ИИ

Буквально на днях Воздушно-космические силы России впервые испытали автоматизированную систему управления средствами противовоздушной обороны с элементами искусственного интеллекта.

Новая система позволяет интегрировать работу комплексов С-300 и С-400, зенитных ракетно-пушечных комплексов “Панцирь” и радиолокационных станций.

Система сама анализирует воздушную обстановку и выдает рекомендации на применение тех или иных вооружений, что позволяет средствам ПВО реагировать быстрее на угрозы в режиме реального времени. 

В начале года аналитический ресурс MarketForecast.com опубликовал прогноз, согласно которому мировой рынок военной робототехники и искусственного интеллекта к 2027 году достигнет $61 миллиарда. В 2018 году он оценивается в $39,2 миллиарда. За 9 лет страны потратят на развитие этих технологий в оборонке $487 миллиардов.

 Рост рынка будет обусловлен большими инвестициями со стороны США, Китая, России и Израиля в технологии нового поколения, а также масштабными закупками Индии, Саудовской Аравии, Южной Кореи и Японии.

Важно

Большая часть рынка придется на военных роботов, на компьютерное зрение, обработку естественного языка, распознавание речи и анализ социальных сетей. 

  Один из роботов американской компании Boston Dynamics Spot mini 

Индустрия искусственного интеллекта (ИИ) и машинного обучения сегодня стремительно растет. Искусственный интеллект дает три главных преимущества военным: работу с большим объемом данных, скорость обработки и автономность действий.

Проще говоря, искусственный интеллект позволит быстрее и точнее определять цели без участия человека, выдавать варианты и сценарии действий, гибко реагировать на изменяющуюся ситуацию в режиме реального времени и, если это допускает человек, самому принимать решение. Это если говорить о непосредственном ведении боевых действий. 

Другие сферы военного применения – это взлом шифров противника, использование ИИ в военной промышленности, мониторинг психического и физического состояния военнослужащих и, что важно в стратегическом плане, прогнозирование. 

Сегодня решение о ликвидации целей принимает человек, но на горизонте уже создание систем, которые будут вести боевые действия автономно. На поле боя будущего будет побеждать та система, которая принимает решения быстрее. Человек становится слабым и медленным звеном в цепочке командования — соответственно, у противника всегда будет искушение создать полностью автономную систему.

Патрик Такер, один из авторов ресурса Defense One, и профессор Денверского университета Хизер Рофф отмечают, что ИИ-системы сегодня используются, чтобы полностью исключить человека из принятия решений.

Амир Хусейн, основатель и главный исполнительный директор SparkCognition, одной из ведущих компаний США по разработке искусственного интеллекта, считает тех, кто говорит о необходимости сохранить человека в цепочке принятия решений или полуавтоматических системах, “мягкотелыми” людьми, которые даже не понимают, что происходит.

Сама суть автономности — это исключение человека из цепочки, когда решение надо принимать за кратчайшее время и у системы нет этого запаса долей секунд, чтобы советоваться с человеком, уничтожать, например, стремительно приближающуюся угрозу или нет. На поле боя выиграет тот, кто быстрее примет решение. Здесь нет равных машинам.

Совет

Хусейн считает, что не надо концентрироваться на ограничениях действий автономных систем человеком, а необходимо уже изначально программировать “моральные опции” в искусственный интеллект.

Более того, если вдруг одна часть военной системы, один робот начинает принимать неэтичные решения из-за ошибки в программном обеспечении или из-за хакеров, то другая часть системы должна быть способна выключить или уничтожить “плохого” робота.

Боевой робот на вооружении армии США

Хусейн уверен, что военные системы будущего на основе ИИ будут более точными, чем сегодня. Это будут рои “умных пуль”, которые будут убивать врага с фантастической точностью.

С другой стороны, в небе и на море человек будет определять “сектора смерти”, в которых, по его мнению, нет гражданских лиц, и уже внутри сектора давать полную автономию на поражение и свободу действий военным системам.

Большие данные и прогресс в распознании объектов машинами позволят им выполнять задачи эффективно и с минимальным количеством ошибок. 

По данным Пола Скарра, директора программы исследований войн будущего вашингтонского Центра новой американской безопасности, уже около 30 стран имеют на вооружении оборонительные автономные системы, которые пока еще работают под наблюдением человека. Сегодня в мире наблюдается гонка за создание наступательного автономного вооружения. Военных подталкивает развитие беспилотных автомобилей, машинного зрения и повышение точности в распознавании изображений нейронными сетями. 

Эксперт, говоря о применении искусственного интеллекта на войне, активно использует термин “бойцы-кентавры” – на поле боя будущего вместе будут работать и человеческий, и искусственный интеллект.

По мнению Скарра, необходимо перестать думать только в рамках дилеммы “или люди, или роботы” и стараться найти применение технологиям, когда человек и искусственный интеллект работают вместе.

Наглядный пример — это испытания работы американских вертолетов “Апач” и беспилотников, когда пилоты вертолета вместе с компьютером контролируют полуавтономную деятельность дронов.

Американский ударный беспилотный вертолет MQ-8B Firescout

Обратите внимание

Один из самых очевидных способов использования искусственного интеллекта в будущем — это управление роями дронов. При выбранном алгоритме рои дронов из сотен или тысяч единиц могут обезвредить или парализовать работу даже танков или самолетов. Подводные и надводные дроны смогут помешать подводным лодкам и кораблям. 

Особый интерес сегодня вызывают даже не автономные боевые действия собственных ИИ-систем, а так называемый концепт “контравтономности”, когда подвергнувшаяся нападению ИИ-система противника учится, делает выводы из случившегося и сама выбирает способы противодействия. То есть каждая атака нападающего автоматически делает его врага все более опасным, если не уничтожает сразу.

Любопытно, что автономные ИИ-системы, возможно, будут внедряться на флоте быстрее, чем в воздушных силах.

Тем же ВВС США приходится сегодня напоминать и оправдываться, что удары с беспилотников производят операторы, а не сами машины, и операторы иногда ошибаются.

Из-за этих реальных ударов, ошибок и жертв среди мирного населения тема дронов в ВВС постоянно муссируется в СМИ. Флот же без лишней шумихи и внимания общественности — по крайней мере пока — может спокойно сосредоточиться на создании своих систем. 

Автоматизация киберопераций и ведения пропаганды и контрпропаганды в сети – тоже перспективная тема, когда искусственный интеллект подбирает нужную информационную тактику работы в тех же социальных сетях.

В США, например, пытаются создать программное обеспечение, которое может определять ботов, занимающихся дезинформацией, выявлять антиамериканские информационные кампании в социальных сетях и оценивать их эффективность.

Искусственный интеллект также обещает не только “умное управление”, но и ту скорость, для которой необходимы вычислительные мощности. Надежда военных – это появление квантовых компьютеров, которые обеспечат работу ИИ.

Важно

Первые и самые очевидные последствия создания одной из стран действительно работающего квантового компьютера — это почти мгновенный взлом военных и инфраструктурных систем шифрования вероятного противника, что в случае военного конфликта дает огромное преимущество.

Квантовый компьютер D-Wave

Более того, по мнению американских аналитиков другие страны уже сейчас активно воруют зашифрованные данные у США. Они пока просто хранят их, ничего с ними не делая, так как ожидают, что где-то через 10 лет квантовый компьютер будет создан — и вот тогда-то они получат доступ к секретной американской информации.

Скорость вычисления и обработки данных позволит значительно усовершенствовать работу беспилотных и роботизированных военных автономных машин, на которые и будет возложена миссия непосредственного ведения боевых действий в уже обозримом будущем.

Упрощенно говоря, военные роботы страны, первой создавшей квантовый компьютер, будут принимать решения быстрее, действовать точнее, “работать” по большему числу целей, лучше “видеть” все поле боя и просчитывать “ходы” дальше, чем роботы противника.

 

Квантовые компьютеры и ИИ могут быть использованы в проектировании новых видов оружия, новых материалов, новых конструкций и даже в разработке новых стратегий ведения войны. 

В Белом доме в США заявляли, что превосходство Вашингтона в вычислительных технологиях находится “под осадой” и надо инвестировать больше в квантовые технологии. Если Китаю удастся стать лидером “квантовой революции”, то кардинально изменится геополитическая и военная картина мира.

США

Роберт (Боб) Уорк — бывший заместитель министра обороны США и один из главных в Пентагоне стратегов ведения войны в будущем. 

Роберт Уорк

Его конек — это внедрение искусственного интеллекта и роботизированных систем в вооруженные силы, разработка стратегии войны в космосе и ведения комбинированного боя (на суше, море, в воздухе, космосе, киберпространстве и электромагнитном спектре) в условиях “системы ограничения доступа”.

Разработка масштабной стратегии “Третьего противовеса” (Third Offset Strategy), призванной обеспечить военно-технологическое преимущество США перед Россией и Китаем, — это тоже детище Уорка.

В 2014 году Боб Уорк опубликовал написанную в соавторстве монографию “20YY: подготовка к войне в эпоху роботов”, которая стала настольной книгой аналитиков войны будущего.

Совет

В апреле 2017 года на крупнейшей базе Корпуса морской пехоты США Западного побережья Кэмп-Пендлтон прошли первые в истории учения S2ME2 ANTX, на которых были протестированы около 50 новых военных технологий. В том числе и беспилотные наземные роботизированные платформы, ведущие огонь по противнику, автоматически доставляющие боеприпасы и отвечающие за материальное обеспечение десантирования морпехов.

https://youtu.be/Y1A0HVx12vA Учения S2ME2 ANTX

26 апреля прошлого года Боб Уорк создал специальное подразделение по ведению “алгоритмических боевых действий” (Project Maven), которое должно ускорить внедрение искусственного интеллекта и машинного обучения в вооруженных силах.

Уорк торопится. По его мнению, тем же самым занимаются вероятные противники (Россия и Китай) и союзный Израиль, действия которого могут привести к дестабилизации всего Ближнего Востока.

Сегодня в мире, по оценкам американского онлайн-издания Defense One, существует 284 военные системы, которые в той или иной мере уже включают в себя искусственный интеллект.

И нет гарантий, что США в этой новой гонке победят.

Первая задача нового подразделения Пентагона (Project Maven) — это использование ИИ для анализа данных и видеоизображений, получаемых в Сирии и Ираке. Сегодня до 95% всех данных, поступающих в аналитические военные центры США c беспилотников, идут именно из этих двух стран.

Люди в прямом смысле слова не справляются с обработкой и анализом таких огромных массивов информации. До 80% их рабочего времени занимает просто просмотр кадров.

Читайте также:  Socibot-mini: многоликий интерактивный робот

Основные разработки сегодня ведутся в области создания систем, которые бы автономно определяли противника, сверяясь с “библиотекой целей”.

Искусственный интеллект в теории должен помочь им определять объекты, выявлять ненормальные последовательности действий на земле и т.п. Он не будет определять цели для уничтожения, но поможет сделать это людям.

Обратите внимание

Весной прошлого года прошли две интересных конференции по применению искусственного интеллекта в будущих боевых действиях.

Одна из них была посвящена ускорению процессов симбиоза человека и машины в рамках военной стратегии “Третьего противовеса”, а на второй Исследовательская лаборатории армии США представила доклад, в котором рассказывается, что в обучающиеся нейронные сети загружают данные об активности мозга человека, когда он определяет цель и решает навести на нее оружие.

В идеале изучение сигналов мозга лучших солдат, делающих свою работу в критических ситуациях, позволит в итоге постоянно обучающемуся искусственному интеллекту самому в режиме реального времени определять цели без участия человека.

В ВВС США хотели бы видеть связку военно-воздушных сил, космических войск и кибервойск, работающих как единое целое при помощи искусственного интеллекта. Пилот самолета и командование не должны будут в 2030 году отвлекаться на анализ информации.

На электронные карты и дисплеи автоматически выводится вся информация от всех родов войск по ситуации на поле боя и целям. Цели находятся автоматически, аппаратура сама противодействует средствам радиоэлектронной борьбы, сама восстанавливает подавленные каналы связи и ищет альтернативы и так далее.

Особое внимание будет уделяться скорости и безопасности передачи информации. По данным издания, компания Lockheed Martin уже работает над созданием такой системы и проводит учения с прототипом.

Компания Raytheon создает прототип симулятора, на котором можно проигрывать тысячи сценариев совместной работы кибервойск, средств радиоэлектронной борьбы и непосредственного применения ракет и бомб авиацией.

Генерал-майор армии США Уильям Хикс, активно интересующийся искусственным интеллектом, роботами и отвечающий за разработку военных стратегий и планирование, также стоял у истоков разработки и внедрения компьютерной игры Operation Overmatch.

Важно

Она призвана протестировать ведения боевых действий и применение новых военных технологий в будущем. В игру играют военные с реальным боевым опытом и смотрят, что они могут применять и как.

Всего в игре уже участвует около тысячи человек, а в планах задействовать десятки тысяч солдат. Все клики мышки и удары по клавишам солдатами будут учтены и трансформированы в информацию, позволяющую после анализа ИИ лучше понимать действия людей на поле боя.

Разработчики подчеркивают, что при отработке игровых сценариев в первую очередь речь идет о применении военных роботов в ходе боевых действий.

Кадр из игры Operation Overmatch

Есть и другие проекты.

В США разрабатывают портативное устройство CARACaS (Контрольная архитектура для робокоманд и воспринимания), которое может быть установлено практически на любой катер. С помощью устройств размером с ладонь в будущем практически любое существующее военное средство (катер, машина, самолет) можно будет дешево и быстро превращать в члена автоматизированного боя.

В ВВС США тем временем разрабатывается система ALPHA, которая за 6,5 миллисекунд снимает данные с датчиков, структурирует и анализирует информацию и способна выдать оптимальные сценарии действия для четырех самолетов. 

Директор Управления перспективных исследовательских проектов Министерства обороны США DARPA доктор Арати Прабхакар в прошлом году рассказала о проекте по борьбе с программируемыми радарами России (упоминается “Небо-М”) и Китая: 

Источник: http://maxpark.com/community/7149/content/6331788

Антифрод-системы нового поколения – искусственный интеллект против мошенников

Мир все больше погружается в цифровую эпоху, и те платежные технологии и сервисы, которые еще вчера представлялись фантастическими реалиями будущего, становятся неотъемлемой частью нашей повседневной жизни.

Безусловно, на фоне увеличивающейся популярности новых платежных технологий и развития платежных инструментов растет и мошенническая активность в дистанционных каналах.

В этом нетрудно убедиться – вы можете найти в кругу своих знакомых человека, который в той или иной форме сталкивался с попытками такого рода преступной деятельности.

Елена Воробьева,вице-президент, заместитель директора Операционного департамента ВТБ 24 (ПАО)

Технологии и средства мошенников постоянно развиваются, а банки стараются выставить эффективные барьеры против действий мошенников, учитывая при этом, что данные меры не должны оказаться преградой для добросовестных клиентов на пути к получению банковских сервисов.

В существующих реалиях вопрос безопасности клиентских операций – один из ключевых аспектов деловой репутации самого банка. Своевременное выявление актуальных мошеннических схем, построение эффективной системы противодействия, работа на опережение и предотвращение мошеннических действий являются залогом стабильного и успешного развития банковского бизнеса.

В современном противостоянии участников платежного рынка и мошенников одну из ключевых ролей играют анти-фрод-системы, которые, как и платежные технологии, за последнее десятилетие претерпели кардинальные изменения.

Если еще недавно многие банки использовали «самописные» системы отчетов и топорных ограничителей, то сейчас все чаще можно услышать о планах того или иного финансового института по внедрению систем мониторинга с использованием моделей машинного обучения, которые являются базовой компонентой технологий искусственного интеллекта.

Совет

Одной из первых – не только в России, но и в мире – полноценную комплексную защиту клиентских операций по множеству каналов с использованием самообучающейся модели, которая работает в режиме реального времени, стала осуществлять группа ВТБ.

Антифрод-система группы ВТБ использует модель машинного обучения – одну из наиболее перспективных технологий

Лидирующая позиция нашего банка в этом направлении не случайна. Мы – один из крупнейших банков России. Каждую секунду в системах банка совершается огромное количество клиентских операций, по каждой из которых мгновенно нужно принять решение о ее правомерности. Это в свою очередь формирует особые требования к производительности и надежности ИТ и антифрод-систем.

В этой связи хотелось бы рассказать о реализации проекта внедрения комплексной системы противодействия мошенничеству, успешно завершенной банком в 2017 году. Основными компонентами этой системы стали платформы RSA Transaction Monitoring & Adaptive Authentication и SAS.

Проект уникален для российского финансового сектора по целому ряду характеристик.

Внедренные технологии повышают степень защищенности операций в дистанционных каналах как для клиентов корпоративного бизнеса, так и для розничных клиентов – пользователей интернет-банка и мобильных приложений.

Многокомпонентная система позволяет обеспечивать активное противодействие мошеннической активности при обнаружении подозрительных транзакций уже на этапе их совершения, при этом сохраняя высокую степень эффективности проведения операций клиентами.

В чем уникальность нашей системы мониторинга?

Во-первых, это полноценная кросс-канальная система онлайн-мониторинга.

При оценке правомерности операции модель учитывает не только детали конкретного платежа, сессионного события или последовательность операций по конкретному каналу (например, по карте), но и активность клиента в других платежных каналах.

Для примера – если мы увидим, что за пять минут до проведения операции по карте в Испании клиент совершил операцию по своему мобильному устройству (с полной аутентификацией) с территории России, то данная операция будет отклонена.

Это обеспечивается за счет того, что RSA Risk Engine, ядро системы RSA Trans-ac-tion Monitoring, в режиме реального времени оценивает любую онлайн-активность пользователей, отслеживая свыше ста индикаторов для надежного обнаружения факта мошенничества. Risk Engine разработан специально для решения задач, возникающих в быстроменяющейся онлайн-среде, и способен предоставлять результаты непосредственно с момента ввода его в эксплуатацию.

Система проверяет как заранее заданные, так и зависящие от профиля пользователя индикаторы риска.

Они используются для уведомления Risk Engine о специфичных для конкретного действия параметрах, которые несут информацию о степени риска.

Обратите внимание

Список предопределенных индикаторов регулярно обновляется с учетом громадного объема информации, получаемой системой Risk Engine, интегрированной с различными ИТ-системами банка, и результатов изучения схем мошенничества.

Во-вторых, система использует модель машинного обучения – одну из наиболее перспективных сегодня технологий искусственного интеллекта.

При проведении операций модель в режиме онлайн проводит оценку вероятности мошеннического события.

При этом модель постоянно переобучается, учитывая историю предыдущих операций (в том числе мошеннических), что позволяет в доли секунды провести анализ и принять соответствующее решение по операции.

Помимо собранных из информационных систем банка данных о транзакционной и мошеннической активности, модель машинного обучения также использует информацию о существующих на рынке угрозах через сервис RSA E-fraud network, что является еще одной уникальной отличительной особенностью внедренной в банке системы.

Уникальность нашего комплекса также в том, что мы осуществляем глубокую клиентскую аналитику, используя для этого передовой аналитический инструмент (на платформе SAS), позволяющий в автоматическом режиме с помощью методов data mining генерировать правила и строить модели выявления мошенничества.

Это позволяет существенно сократить трудозатраты на разработку правил и их тестирование, а также повысить точность за счет выявления скрытых от человека закономерностей в огромных объемах данных. Также аналитический инструментарий дает возможность оперативно получить необходимую информацию при расследовании инцидентов.

Развитие аналитической практики позволяет оперативно реагировать на действия мошенников и меняющуюся среду без ущерба для клиентов.

Важно

Мы должны противостоять новым вызовам мошенников не только успешно, но и максимально бесшовно для клиентов

Стоит отметить, что внедренная нашим банком система нового поколения позволяет не только решать задачи противодействия мошеннической активности, но и успешно выявлять операции в рамках процессов по ПОД/ФТ (противодействие отмыванию доходов и финансированию терроризма), а также сопровождать операционные процессы по повышению качества клиентских сервисов. И, как уже отмечалось, сейчас перед нами стоит задача не только противостоять новым вызовам мошеннической активности, но и осуществ-лять это максимально незаметно для наших клиентов – мы стремимся разрешать клиенту любые легальные операции любым удобным для него способом (без дополнительных подтверждений паролями).

Мы не планируем останавливаться на достигнутом. Перед нами стоит задача развивать функциональность комплекса, увеличивать количество каналов совершения операций, мониторинг которых осуществляет система, а также адаптировать и оптимизировать систему в рамках предстоящего присоединения ВТБ 24 (ПАО) к ВТБ, повышая ее эффективность и эксплуатационные характеристики.

Наш банк всегда уделял, уделяет и будет уделять повышенное внимание безопасности совершения клиентских операций. Занимая лидирующие позиции в части внедрения современных механизмов противодействия мошеннической активности, банк с уверенностью может декларировать, что его клиенты всегда могут быть уверены в получении лучшего и, главное, надежно защищенного банковского сервиса!

На правах рекламы. ВТБ 24 (ПАО). Генеральная лицензия № 1623 от 29.10.2014

Источник: https://www.plusworld.ru/journal/section_1817/plus-10-2017/antifrod-sistemy-novogo-pokoleniya-iskusstvennyj-intellekt-protiv-moshennikov/

Как искусственный интеллект устраивает революцию в финансовом мире

Искусственный интеллект не только умеет обнаруживать ошибки, которые могли бы привести к катастрофе, но и способен каждого сделать инвестором уровня Уоррена Баффетта. Рассказываем, как.

За десятилетие, миновавшее с кризиса ипотечного кредитования в США, набрала силу идея о том, что компьютеры превосходят людей при выдаче ипотечных кредитов.

Новый опрос, проведенный Fannie Mae, показал, что 40% ипотечных банков уже развернули системы искусственного интеллекта (ИИ). Их используют для автоматизации процесса подачи документов, выявления мошенничеств и оценки риска дефолта заемщика.

Компания Blend поставляет онлайн-приложение для ипотечного кредитования 114 организациям, включая гиганта Wells Fargo. Его применение позволяет на неделю сократить сроки рассмотрения заявок. Смог бы ИИ предотвратить ипотечный кризис?

Возможно не полностью, но он мог бы снизить его размах, поскольку машины заметили бы признаки надвигающейся опасности гораздо раньше людей. Гендиректор и соучредитель Blend Нима Гамсари говорит:

Банки пока не полагаются на ИИ при принятии окончательных решений, однако отрасль выиграла даже от частичной автоматизации процесса, сделав ипотечные займы более доступными.

Читайте также:  Новый универсальный помощник от канадских производителей

Потребители с самым низким уровнем дохода традиционно уклонялись от подачи очных заявок на кредиты. Теперь они могут пройти всю процедуру в мобильном приложении.

Мэри Мак, глава отдела потребительского банкинга Wells Fargo, говорит:

Новая парадигма для профессиональных инвесторов

За последнее десятилетие объемы данных в финансовом мире настолько возросли, что их не смогут обработать все аналитики мира, вместе взятые. Однако машинам это по силам.

Bloomberg, FactSet Research Systems и Thomson Reuters разработали целый массив инструментов и технологий для научных исследований, включая машинное и глубокое обучение, обработку естественного языка (NLP). Они позволяют собирать ценные знания по крупицам и предоставлять их финансовым профессионалам.

Агентство Bloomberg стало пионером в анализе настроений (разновидность NLP). Соответствующая технология разрабатывалась около десяти лет. Теперь система на основе машинного обучения анализирует, относится ли статья или твит к той или иной компании, и присваивает ей соответствующую оценку.

Совет

ИИ стремительно распространяется и на управление капиталом. За последние пять лет инвестиционные компании увеличили число аналитиков «альтернативных данных» более чем в четыре раза, стремясь выявить и собрать все возможные торговые сигналы, содержащиеся на сайтах, в языковой информации, данных о покупках по кредитным картам и сведениях со спутников.

Системами на основе ИИ уже пользуются BlackRock, Fidelity, Invesco, Schroders и T. Rowe Price. Лидирует на этом поприще BlackRock — крупнейшая в мире управляющая компания. В начале этого года она организовала специализированную BlackRock Lab for Artificial Intelligence.

И для инвесторов-любителей

Робо-советники, предлагаемые стартапами вроде Betterment и традиционными брокерскими компаниями, такими как Charles Schwab, уже используют ИИ для обслуживания инвесторов. Доступные инструменты помогают рассчитать оптимальное распределение активов в портфеле в зависимости от отношения к риску и предпочтений.

Системы на основе ИИ способны автоматически ребалансировать портфель или обращаться к обычному консультанту за помощью в вопросах, касающихся налогов и планирования наследства.

Следующий рубеж — искусственный интеллект, достаточно умный, чтобы помогать инвесторам в долгосрочных решениях. Bank of America Merrill Lynch и Morgan Stanley — крупнейшие игроки в новой дисциплине, неудачно названной «квантоментальным анализом».

Она объединяет количественную обработку, для которой прекрасно подходит ИИ (по сути это поиск тенденций в огромных объемах данных), с дополнительные алгоритмами, предназначенными для сложного анализа, который обычно проводят эксперты — например, оценки потенциала роста отрасли или стратегической проницательности руководства компании.

В конечном итоге машинное обучение позволит квантаментальной системе учиться на собственных ошибках. Конечная цель — создать не уступающий Уоррену Баффетту алгоритм отбора акций по выгодным ценам и, пожалуй, подобрать более удачное название.

Подписывайтесь на наш канал в Яндекс.Дзен. Много эксклюзивных историй, полезных материалов и красивых фото.

Источник: https://ru.ihodl.com/investment/2018-11-07/kak-iskusstvennyj-intellekt-ustraivaet-revolyuciyu-v-finansovom-mire/

Искусственный интеллект против киберпреступлений

Шандор Балинт – руководитель отдела защиты прикладных задач компании Balabit

Только когда компания сталкивается с тяжелыми последствиями киберпреступлений, топ-менеджеры задумываются, что для борьбы против продвинутых методов взлома требуется нечто большее, чем человеческая интуиция.

Могут ли новые достижения в области машинного обучения и искусственного интеллекта (ИИ) заменить необходимость человеческого вмешательства в процесс идентификации продвинутых угроз? Смогут ли автономные машины бороться с угрозами сами по себе, без человеческого участия?

С помощью ИИ увеличится скорость обнаружения угроз, выявления проблем, атак, алгоритмов и аномалий, на поиск которых он изначально не запрограммирован. Машины можно запрограммировать на обнаружение «неизвестного неизвестного», и это позволит службам безопасности быть на шаг впереди.

Когда дело касается обнаружения реальных угроз, контекст имеет решающее значение: нужно человеческое вмешательство, чтобы прочесть скрытые коммуникации, намерения, причины и мотивы.

Этот симбиоз человеческого понимания и возможностей компьютера по обработке и сопоставлению данных дает наилучший эффект, чтобы пролить свет на ранее неизвестные угрозы и на те слабые стороны, которым не придавали значения.

Путь в неизвестное

Управление безопасностью прежде всего подразумевает управление рисками. Нельзя остановить каждую угрозу, но с помощью информации и интеллекта возможно удерживать риски на допустимом уровне.

Чтобы этого достичь, нужно выяснить, что происходит в сетевом окружении, происходит ли что-то необычное – и если есть, то что именно, и почему оно не было ранее проанализировано, и несет ли оно риски (и если да, то что с этим делать).

В вопросах безопасности управление рисками – это обработка исходных данных в применимые знания, ссылаясь на которые, можно совершить правильные действия. Только обладая информацией, мы можем узнать, что нам на самом деле угрожает.

Обратите внимание

С одной стороны, можно столкнуться с явными угрозами, например, определенные действиями, которые несут потенциальную опасность (уведомления вируса-вымогателя или известные паттерны вредоносного ПО).

Но, с другой стороны, существуют и слепые зоны: с ними мы сталкиваемся, если нет всех необходимых данных, либо эти данные есть, но нет инструментов для анализа и нельзя выявить значимые корреляции.

Большая часть вопроса борьбы против киберпреступности – понимание ранее неизвестного, например, непредвиденных изменений, угроз или рисков, которые, как казалось, нас не касаются.

Здесь мы попадаем в мир «неизвестных». Как нам управлять рисками, когда мы не знаем, что собой представляет угроза?

Кроме того, администраторы часто страдают от перегрузки информацией.

Площадь атак увеличивается, все больше устройств нуждаются в защите, все больше становится локальных и облачных данных, и мы начинаем использовать больше инструментов безопасности и приложений для сбора информации.

ИБ-специалисты могут запутаться в таком объеме данных и сделать неверные выводы, тем самым, порой даже не осознавая этого, они идут на риск.

Человеческий фактор

Прогресс в машинном обучении помогает идентифицировать неизвестные ранее риски и отклонения от нормы. Искусственный интеллект с большей скоростью обрабатывает массивы данных и обнаруживает продвинутые угрозы, используя алгоритмы для прогнозирования поведения.

Компьютерные способности больше подходят для выполнения рутинных задач, поскольку люди обладают различным набором навыков, пониманием и эмпатией, могут различать намерения и предвидеть последствия, на что компьютер попросту не способен.

Человеческий разум лучше справляется в нестандартных ситуациях.

В этом заключается ключевая разница между компьютером и человеком. Компьютер действует по алгоритмам и способен выявлять причины, только если получил команду. Обладающие навыками люди могут распознать причины и намерения, даже если никогда ранее не сталкивались с алгоритмом, который указывает на злоумышленное поведение.

Важно

Как сказал Ли Хэдлингтон, профессор, киберпсихолог университета Де Монтфорт, человеческий элемент незаменим в любой компьютерной системе, особенно когда дело касается окончательного решения. Люди чувствуют себя некомфортно, когда решения за них принимает компьютер.

Вовсе не обязательно, что люди думают лучше компьютера, но большинство людей все еще тем не доверяет.

Нам предстоит как следует поработать над усилением своих слабых сторон и понять предел возможностей людей и компьютеров.

Важные решения должны принимать конкретные сотрудники, в большей степени это касается инцидентов безопасности, значит, компаниям следует инвестировать в навыки персонала, чтобы они лучше справлялись с интерпретацией данных. Нужно использовать изобретательность человека, чтобы улучшить системы и процессы.

С помощью креативности людей мы можем более критически относиться к данным, предварительно обработанным компьютером. Нам следует инвестировать в лучшие из доступных инструментов безопасности и автоматизировать то, что должно быть автоматизировано.

В конце концов, компьютер не способен заменить человека в вопросах кибербезопасности, но искусственный интеллект дает возможность сфокусировать ресурсы на действиях, которые имеют значение в борьбе с киберпреступностью.

Источник: https://www.if24.ru/iskin-protiv-kiberprestuplenij/

Искусственный интеллект мыслит как преступник

Распространение технологии искусственного интеллекта (AI) может привести к росту киберпреступности и появлению ее новых форм, манипулированию общественным мнением и повреждению физической инфраструктуры уже в течение ближайших пяти лет, считают авторы доклада «Преступное использование AI: прогноз, профилактика и предотвращение».

100-страничный доклад написан 26 экспертами в сфере кибербезопасности. Среди них ученые из Оксфордского, Кембриджского и Стэнфордского университетов, аналитики некоммерческих организаций Electronic Frontier Foundation и OpenAI и представители других авторитетных организаций.

Авторы доклада сравнивают искусственный интеллект с ядерной энергией и взрывчатыми веществами, которые можно использовать как в мирных, так и в военных целях. «Когда возможности искусственного интеллекта станут более мощными и повсеместными, мы ожидаем, что это приведет к расширению существующих угроз, возникновению новых угроз и изменению типа угроз»,— предупреждают авторы.

«Многие из нас поражены масштабами того, что произошло за последние пять лет. Если это продолжится, вы увидите появление действительно опасных вещей»,— отмечает глава OpenAL Джек Кларк.

Совет

Разработчики должны на ранних этапах предусматривать возможность преступного использования искусственного интеллекта и создавать соответствующие ограничения, советуют авторы. Если это не будет сделано, искусственный интеллект станет мощным оружием в руках людей с преступными намерениями.

Авторы выделяют три главных направления угроз. Первая — искусственный интеллект поможет устраивать хакерские атаки. Технологии облегчат обнаружение уязвимостей ПО или выбор потенциальных жертв преступлений.

Также искусственный интеллект позволит использовать уязвимости человека.

Например использовать синтез речи или создавать «контекстное» вредоносное ПО. Благодаря ему вероятность того, что пользователь нажмет на ссылку, запускающую вирус, или скачает нужное злоумышленникам приложение, резко вырастет.

Хакерские атаки с применением подобных технологий будут намного масштабнее и эффективнее, чем сейчас.

Недобросовестное применение искусственного интеллекта в политической сфере также весьма вероятно. С его помощью власти создадут более мощные системы наблюдения за инакомыслящими.

Политические силы смогут проводить «автоматизированные, гиперперсонализированные кампании дезинформации».

Искусственный интеллект сможет генерировать фейковые новости в таких количествах, что пользователю будет почти невозможно вычленить среди них настоящие.

Повысится эффективность и адресность пропаганды, манипулировать общественным мнением станет проще, предупреждают авторы. Особенно опасным это становится с учетом того, что с помощью искусственного интеллекта может быть сделан шаг вперед в изучении основ психологии поведения человека.

Третья группа угроз — возможность атак на физические объекты. Речь идет, например, о массовом управлении беспилотниками и другими автоматизированными боевыми комплексами.

Кроме того, искусственный интеллект будет способствовать злонамеренному внедрению в системы беспилотных автомобилей, с дальнейшими авариями или нападениями с их участием.

«Искусственный интеллект, цифровая безопасность, физическая безопасность и политическая безопасность прочно связаны, и их связь будет только укрепляться… Хотя конкретные риски бесчисленны, мы считаем, что понимание общих закономерностей поможет пролить свет на будущее и улучшить информирование для предотвращения и смягчения последствий»,— говорится в докладе.

Обратите внимание

Впрочем, некоторые эксперты отмечают, что масштаб проблемы может быть преувеличен. «Улучшения идут с обеих сторон — это постоянная гонка вооружений. Искусственный интеллект уже сейчас крайне полезен для кибербезопасности. Пока неясно, какая сторона извлечет больше выгоды», — считает сооснователь компании в сфере кибербезопасности CrowdStrike Дмитрий Альперович.

Главные тренды по версии Массачусетского технологического института

Читать далее<\p>

Яна Рождественская

Источник: https://www.kommersant.ru/doc/3557537

Ссылка на основную публикацию
Adblock
detector