Искусственный интеллект (ИИ) — быстроразвивающаяся технология, применяемая, например, в поисковых движках, сложном моделировании, некоторые компании пытаются приспособить её для решения логистических задач. ИИ делает большие успехи в играх — в этом году суперкомпьютер Google DeepMind победил сильнейшего в мере игрока в настольной игре Го; суперкомпьютер IBM Watson, сопоставляя огромные массивы научной информации, исправляет врачебные ошибки и ставит точные диагнозы. В общем, уже сейчас имеется предостаточно областей применения таких прорывных технологий, как ИИ, нейронные сети и машинное обучение.

Наряду с развитием этих технологий вырабатываются и этические нормы, чтобы обуздать разрушительную силу ИИ, направив её на служение общему благу человечества. Ранее такие видные деятели науки и бизнеса, как Стивен Хокинг, Билл Гейтс и Элон Маск выразили обеспокоенность по поводу ИИ, их основная мысль сводится к следующему: следуя гипотетическому сценарию, дальнейшее развитие ИИ-технологий может приоткрыть ящик Пандоры — и ИИ станет доминирующей формой жизни на Земле.

Пока исследователи гадают о последствиях применения ИИ, издание The New York Times припасло для любителей конспирологии ещё одну малопривлекательную сферу деятельности, где будет востребован ИИ — криминальную. Выглядеть это будет примерно так. На ваш телефон поступит звонок, где голос, один в один голос вашего родственника (например, брата или сестры), попросит вашей помощи. Возможно, он выманит ваши банковские данные, или, что ещё хуже, утянет вас в какую-то западню. Пока что такой «розыгрыш» напоминает сцены из научной фантастики, но не обольщайтесь, ключевое слово здесь «пока».

В сентябре разработчики DeepMind сообщили о создании новой системы под названием WaveNet, которая способна подражать человеческому голосу. Большая часть компьютерных синтезаторов, как правило, используют заранее составленную базу данных коротких фрагментов речи, записанных человеком. Из отрывков составляются новые слова — так работают, в частности, голосовые помощники Siri или Alexa. Недостаток этого метода заключается в том, что впоследствии изменить звучание голоса очень сложно. Другие синтезаторы используют более гибкий подход, генерируя речь прямо на компьютере, однако возникает ощущение, что текст произносит робот, а не человек.

WaveNet — это разработка совершенно иного типа. Она учится на отдельных звуковых волнах, что позволяет ей имитировать голос на 50% лучше нынешних технологий. Как подтвердила фокус-группа, синтезированная WaveNet речь на английском и китайском языках звучит естественнее, чем в любой из существующих программ Google для преобразования текста в речь. Интересно, что образцы могут быть не только речью — система с таким же успехом справилась с образцами звучания фортепиано, выделив информацию, позволяющую имитировать инструмент.

На этом фоне несколько иронично звучит заявление представителей ИБ-индустрии о том, какие же улучшения привнесёт в нашу повседневную жизнь машинное обучение и ИИ. «Люди не понимают, что киберпреступность становится автоматизированной, и она растёт по экспоненте», — говорит автор книги «Преступления будущего» Марк Гудмен.

Он добавил, что речь идёт не о банальном взломе, который позволил герою фильма «Военные игры» (снятого в 1983 г.) Мэтью Бродерику выбраться из подвала, а о системных недостатках онлайн-мира. Эту же мысль в своём ежегодном докладе выразил директор Национальной разведки США Джеймс Клеппер, заявив, что ИИ-системы упростят решение многих задач, но также станут причиной появления многих ранее не известных уязвимостей в Интернете.

Как пример изощрённости преступников он навёл вредоносную программу Blackshades. С её помощью преступники получали полный доступ к компьютерам жертв, используя вредоносный код для шпионажа за пользователями через веб-камеру, захватывали скриншоты, записывали видео, получали файлы. Правоохранительные органы привлек факт масштабной эксплуатации бэкдора злоумышленниками с целью получения различных конфиденциальных данных пользователей всего мира.

Но наиболее неожиданной оказалась схема распространения Blackshades — вредонос можно было купить и использовать прямо «из коробки», для этого не требовалось особых технических навыков. Итогом преступной деятельности сети Blackshades стало задержание 80 человек, некоторые из них отбывают наказание. Новую главу в области вредоносных программ откроют решения, которые получат задатки машинного обучения. Эта технология применяется для обучения ИИ машинному зрению, навыкам синтеза речи и пониманию человеческого языка. Некоторые исследователи в области ИБ считают, что киберкриминал уже продолжительное время экспериментируют с ИИ-технологиями.

Для наглядности можно привести ещё один пример, который говорит о достижениях ИИ. Американская компания Vicarious, специализирующаяся на разработке программного обеспечения для систем искусственного интеллекта, ещё в 2013 г. разработала алгоритм, который позволяет в 90% случаев правильно определить код защиты CAPTCHA. Это автоматизированный тест, с которым сталкивается почти каждый день любой пользователь Интернета, в большинстве случаев этот код защиты выглядит в виде последовательности искаженных или закамуфлированных букв и цифр, и используется для дифференцирования живых людей, сидящих за компьютером, от компьютерных программ.

Алгоритм Vicarious создан на основе технологии рекурсивных кортикальных сетей (Recursive Cortical Network). По сути, это система визуального восприятия, которая интерпретирует обрабатываемое изображение в манере, в которой обрабатывает поступающую визуальную информацию человеческий мозг. Исследователь Калифорнийского университета Стефан Севидж сказал, что защита на основе кодов CAPTCHA взламывалась неоднократно, отличились этим и киберпреступники. «Если вы два года не меняли код CAPTCHA — это значит, что вы под прицелом какого-либо алгоритма машинного зрения», — сказал он.

Удивительно другое, пишет издание, развитие ИИ замедлила дешёвая рабочая сила. То есть преступникам целесообразнее было платить небольшие деньги за взлом CAPTCHA наёмным работникам, чем изобретать сложные ИИ-алгоритмы или платить за их разработку высококвалифицированным специалистам.

Внимание преступников привлекают и другие технологии, базирующиеся на ИИ. В их число входят Apple Siri и Microsoft Cortana (технологии распознавания голоса), которые используются для взаимодействия с компьютерами; Amazon Echo (динамик с голосовым управлением) и Facebook Messenger (платформа позволяет общаться с чат-ботами). Всё это коммуникации нового типа, по мере возрастания их популярности они становятся каналами для интернет-коммерции и поддержки клиентов. Естественно, именно они вскоре могут стать мишенями современных Мориарти.

Автор многих репортёрских расследований Браян Кребс утверждает, что те компании, которые предлагают своим клиентам техподдержку посредством чат-платформ, используют методы социальной инженерии по умолчанию. Последняя рассматривается наукой как практика манипулирования действиями людей и может стать самым уязвимым звеном компьютерной безопасности. Уже сейчас киберпреступники эксплуатируют лучшие человеческие качества — доверие и готовность помогать другим людям — в своих низменных целях. Создание аватаров, управляемых ИИ и обученных манипулировать поведением людей, ещё больше усугубит проблему.

Неоднократно фиксировались действия некоторых государств, которые используют чат-боты в целях политической пропаганды. Исследователи даже придумали термин для её обозначения — «вычислительная пропаганда». Для её проведения используются социальные медиа, например, Facebook или Twitter. Наилучшей иллюстрацией для понимания того, какое воздействие пропаганда оказывает на массу людей, может служить недавнее исследование, проведённое Филиппом Ховардом (Оксфордский институт Интернета) и Бенсом Коляны (Университет Корвинуса, Румыния). В нём говорится, что чат-боты оказали «небольшое, но стратегически важное влияние» на выход Великобритании из Европейского союза.

Наладить разработку и поставки чат-ботов — это всего лишь вопрос времени. Ещё большую достоверность их общению, а значит влиянию на умы придаст глубинное обучение. Несколько дней назад команда научно-исследовательского проекта Google Brain, сфокусированного на глубинном обучении (алгоритмах, которые учат нейросети «думать» и выстраивать логические цепочки), позволила ИИ придумать собственную криптографическую систему. В результате компьютерный «разум» научился обмениваться между собой тайными сообщениями, недоступными третьему лицу — даже человеку.

Независимый ИБ-специалист Марк Сейден говорит, что пока рано бить в набат: машинное обучение и ИИ в том виде, в котором они сейчас существует, находит лишь ограниченное применение в криминальной среде. Но думать о том, как защититься от них в будущем, нужно уже сейчас.

Версия для печати (без изображений)