Генеративный искусственный интеллект обладает огромным потенциалом, однако к нему следует подходить с осторожностью и соблюдать этические нормы, чтобы обеспечить его использование только в легальных целях, пишет на портале eWeek Дэвид Линтикум, директор по облачной стратегии компании Deloitte Consulting.

Генеративный ИИ — это мощный инструмент, имеющий множество применений в различных областях, включая кибербезопасность. Это тип ИИ, который может создавать новые данные, изображения или текст на основе шаблонов и данных, на которых он был обучен. Он также может изменить наши методы обнаружения и реагирования на угрозы, но только если мы понимаем, как его правильно использовать.

Большинство специалистов по кибербезопасности еще не изучили потенциал ИИ в этой области. Ниже мы рассмотрим, что такое генеративный ИИ и как мы можем добиться успеха в кибербезопасности с его помощью, а также связанные с этим проблемы.

ИИ и эволюционирующие угрозы кибербезопасности

Одна из наиболее серьезных проблем в области кибербезопасности заключается в том, чтобы идти в ногу с постоянно меняющимся характером угроз. Традиционные меры безопасности, такие как брандмауэры и антивирусные программы, являются реактивными и могут защитить только от известных угроз. Так было с самого начала существования ИТ-безопасности.

Специалисты быстро поняли, что хорошая безопасность означает постоянное понимание угроз, а не просто сосредоточенность на механизмах защиты системы и данных.

Интеграция ИИ и безопасности развивалась в течение многих лет, по крайней мере, концептуально. Сейчас у нас есть инструменты ИИ, которые стали гораздо более полезны — например, генеративный ИИ — и более экономически эффективны благодаря облачным вычислениям.

С помощью генеративного ИИ специалисты по безопасности теперь могут создавать прогностические модели для выявления новых угроз еще до их появления.

Генеративный ИИ и кибербезопасность: большие преимущества

Генеративный ИИ и кибербезопасность могут быть использованы вместе несколькими способами, от обучения до автоматизированного стресс-тестирования.

Моделирование атак

Например, генеративный ИИ может создавать реалистичные фишинговые письма или другие атаки, которые можно использовать для обучения сотрудников и систем безопасности с поддержкой ИИ распознавать и предотвращать такие атаки. Это может помочь предотвратить успешные атаки и повысить общий уровень безопасности.

Генеративный ИИ также может перевести нас с оборонительной позиции, когда мы реагируем на угрозы, на проактивную позицию, когда мы предсказываем угрозы, которые еще не произошли. Тогда мы будем реагировать на прогнозы, чтобы избежать угроз, которые они выявляют, или, если угроза прорвется через передний край обороны, генеративный ИИ сможет справиться с ней лицом к лицу.

Эта возможность должна улучшить показатели безопасности ИТ и значительно снизить или даже устранить риск взлома.

Моделирование сред

Еще одной особенностью генеративного ИИ является его способность моделировать среду, имитирующую реальные сценарии, что позволяет тестировать и оценивать средства контроля безопасности и ответные меры. Это может помочь выявить слабые места и повысить общую готовность системы безопасности.

Такая форма автоматизированного и интеллектуального стресс-тестирования приводит к повышению уровня защищенности, поскольку злоумышленники часто выбирают более доступные жертвы. Сюда относятся обычные утечки данных, а также атаки вымогательского ПО.

Однако возможность создания такой системы безопасности, которая перенаправляет злоумышленников в организации, которые не могут позволить себе безопасность на основе генеративного ИИ, сама по себе становится этической проблемой.

Разведка угроз

Еще одним ценным применением генеративного ИИ в кибербезопасности является разведка угроз. Анализируя большие объемы данных, генеративный ИИ может выявлять закономерности и индикаторы компрометации, которые можно использовать для обнаружения угроз и реагирования на них в режиме реального времени. Это может помочь командам безопасности быть на шаг впереди возникающих угроз и быстро реагировать на атаки.

Это несколько отличается от проактивной концепции безопасности, которую мы определили выше; речь идет о взгляде на угрозы в целом, чтобы определить, какие имеют отношение к конкретной организации или бизнесу. Эта способность понимать угрозы в «широком» и «узком» смысле является оборонительным оружием, когда оба взгляда используются для интерпретации существующих и будущих угроз и способов защиты от них.

В некоторых случаях генеративный ИИ может даже предсказать другие технологии безопасности, которые могут потребоваться.

Генеративный ИИ и кибербезопасность: проблемы

Важно помнить, что генеративный ИИ не является серебряной пулей для кибербезопасности. Для обучения и поддержания моделей требуются значительные ресурсы и опыт. Кроме того, существуют этические проблемы, связанные с использованием генеративного ИИ в кибербезопасности, в частности, потенциальное злоупотребление им в наступательных целях, например, для перенаправления субъектов угроз на более уязвимые цели.

Затраты

Стоимость — это самый важный аспект. Генеративный ИИ не является бесплатным, его использование в системах безопасности может быть чрезвычайно дорогостоящим. Обеспечить безопасность, необходимую для защиты своих данных и критически важных систем смогут только те компании, которые могут позволить себе высокую цену генеративного ИИ и умственные способности, необходимые для создания и обслуживания этих систем. Это может привести к разделению на «имущих» и «неимущих» применительно к надежной защите от угроз безопасности.

Этика

Этическая проблема может привести к тому, что некоторым компаниям и организациям потребуются субсидии, связанные с генеративным ИИ. Безусловно, некоммерческим организациям, работающим с персональными данными, понадобится помощь, если мы выведем нашу игру в безопасность и ее стоимость на новый уровень.

Злоумышленники

Конечно, есть еще одна очевидная вещь. Представьте себе, что произойдет, если злоумышленники обратят мощь генеративного ИИ на других, чтобы быстро определять векторы атак и выявлять точки несанкционированного доступа. Это тот сценарий, когда генеративный ИИ используется в наступательных целях, потому что он может быть весьма эффективным при взломе систем.

Заключение

Генеративный ИИ обладает огромным потенциалом для преобразования сферы кибербезопасности, включая облака, устройства и даже домашние системы безопасности. Создавая прогностические модели, генерируя симулированные среды и анализируя большие объемы данных, генеративный ИИ может помочь выявлять угрозы и реагировать на них до того, как они нанесут ущерб.

Однако к его использованию следует подходить с осторожностью и соблюдать этические нормы, чтобы убедиться, что он используется только в оборонительных целях. При этом некоторые злоумышленники неизбежно будут использовать генеративный ИИ в плохих целях. Будьте готовы.