Благодаря генеративному искусственному интеллекту кибератаки станут намного «умнее». Таков главный вывод нового отчета Google «Cloud Cybersecurity Forecast 2024», сообщает портал ZDNet.

Технологии становятся все более «умными» благодаря таким разработкам, как генеративный ИИ, и это в полной мере относится и к атакам на системы кибербезопасности. Новый прогноз Google по кибербезопасности показывает, что развитие искусственного ИИ приведет к появлению новых угроз, о которых необходимо знать.

В отчете говорится, что генеративный ИИ и большие языковые модели (LLM) будут использоваться в различных кибератаках, таких как фишинг, SMS-рассылки и другие операции социальной инженерии, с целью придания контенту и материалам, таким как голос и видео, более легитимного вида.

Например, при использовании генеративного ИИ будет сложнее обнаружить неопровержимые доказательства фишинговых атак, такие как опечатки, грамматические ошибки и отсутствие культурного контекста, поскольку он отлично имитирует естественный язык.

В других случаях злоумышленники могут предоставить LLM легитимный контент и сгенерировать модифицированную версию, отвечающую их целям, но сохраняющую стиль исходного материала.

В отчете также прогнозируется дальнейшее развитие LLM и других инструментов генеративного ИИ, предлагаемых в качестве платного сервиса и помогающих злоумышленникам проводить свои атаки более эффективно и с меньшими затратами.

Однако прямое применение вредоносного ИИ или LLM будут не так уж необходимо: использование генеративного ИИ для создания контента, например, напоминания о счете, само по себе не является вредоносным, но такой контент может быть использован злоумышленниками в своих целях. Так, известны случаи, когда мошенники применяли ИИ для выдачи себя за нуждающихся членов семьи или друзей, чтобы выманить у них деньги.

Еще одна потенциальная угроза генеративного ИИ связана с информационными операциями. Просто используя подсказки ИИ, злоумышленники могут применять модели для создания фальшивых новостей, фальшивых телефонных звонков, поддельных фотографий и видео.

Согласно отчету, эти операции могут попасть в основной поток новостей. А их масштабирование может привести к снижению доверия населения к новостям и сетевой информации, вплоть до того, что все станут более скептичными или перестанут доверять новостям, которые они потребляют.

«Это может привести к тому, что в ближайшем будущем предприятиям и правительствам будет все труднее взаимодействовать со своей аудиторией», — говорится в отчете.

Если злоумышленники используют ИИ для усиления своих атак, то киберзащитники также могут использовать эту технологию для создания более совершенных средств противодействия.

«ИИ уже дает огромные преимущества нашим киберзащитникам, позволяя им улучшать возможности, сокращать трудозатраты и лучше защищать от угроз, — заявил Фил Венаблс, CISO Google Cloud on AI. — Мы ожидаем, что в 2024 г. эти возможности и преимущества возрастут, поскольку защитники будут лучше владеть технологией и, таким образом, направлять ее развитие с учетом конкретных сценариев использования».

Некоторые варианты использования генеративного ИИ для обеспечения безопасности включают его применение для синтеза больших объемов данных, получения действенных обнаружений и принятия мер с более высокой скоростью.