Предприятиям необходимо четко понимать, как правильно применять данные и кого затронут принятые на их основе решения, пишет на портале InformationWeek вице-президент консалтинговой компании Pariveda Solutions Шон Берд.

Потоки новых данных, информационных сообщений и историй окружают нас со всех сторон — ими делятся в соцсетях, транслируют по телевизору, обсуждают с друзьями в Zoom или в ходе удаленных собраний. И без того перенасыщенная среда продолжает наводняться новостями и сообщениями, которые касаются эпидемиологической ситуации с коронавирусом, что еще больше усложняет понимание, что из всего этого является достоверным источником информации, а что — нет. Разобрать эту головоломку людям помогут машины. В отличие от среднестатистического человека искусственный интеллект может анализировать миллионы точек данных, чтобы затем выявлять закономерности и тенденции. При правильном управлении и контроле ИИ позволит нам «автоматизировать доверие», быстрее определяя точность и благонадежность информации.

Как будет работать автоматизация доверия

Как уже было сказано, чтобы автоматизировать доверие, будут применяться ИИ и некоторые другие технологии. Они помогут потребителям оценить точность информации, что особенно важно в такие сложные времена, как сейчас, когда людям угрожает пандемия. Технология позволяет просеять шквал информации множеством способов. Машинный интеллект может остановить передачу ложной информации благодаря своей уникальной способности анализировать огромные массивы данных, причем с беспрецедентной скоростью. Применив эти возможности с целью фильтрации новостей, бизнес-информации и другого актуального контента, который имеет отношение к COVID-19, ИИ сможет выявить ложные сведения и остановить распространение дезинформации.

ИИ и связанные с ним технологии могут также применяться для расчета коэффициента доверия: быстро анализируя метаданные, относящиеся к определенной теме или источнику, он поможет потребителям определить надежность фрагмента контента, присвоив ему рейтинг доверия исходя из его происхождения, истории автора и других факторов. В определенной степени автоматизация доверия всегда будет требовать частичного человеческого контроля.

Машины позволят ускорить вычисление коэффициента доверия за счет поддержки краудсорсинга слепых опросов, анализа настроения речи или предоставляя информацию о шаблонах в наборах данных. В некотором смысле автоматизированное доверие уже существует. Например, когда мы обращаемся к врачу, мы автоматически предполагаем, что этот врач будет хранить нашу личную информацию в безопасности. Тем не менее, применение автоматического доверия для проверки фактов и сокращения распространения ложной информации в масштабе возможно лишь тогда, когда люди будут уверены, что информация, которую они потребляют, является беспристрастной и защищенной.

Проблемы автоматизации доверия

Самая большая проблема автоматизации доверия заключается в том, что правда — не одна, это разные точки зрения, которые сами по себе могут быть очень субъективными. Например, конкретная точка зрения по любому вопросу зависит от личного опыта без учета каких-либо количественных факторов или данных. Помимо того, что автоматизации доверия препятствует субъективность, существует и другая проблема, которая носит технический характер, — это предвзятость данных, что приводит к необъективным алгоритмам. В итоге ИИ-системы и другие автоматизированные машины превращаются в носителей интеллекта, который искажает результаты.

Это может навредить сообществам, которым должны служить машины. В качестве примера можно привести модель Питтсбурга — систему, которая предназначена для выявления ситуаций с повышенными рисками при воспитании приемных детей. Как оказалось, в нее были заложены алгоритмы со скрытыми расовыми предрассудками. Если мы не решим проблему с предвзятостью данных, благие намерения могут только ухудшить ситуацию.

Как автоматизировать доверие и сделать это безопасно

Чтобы автоматизировать входной/выходной поток данных, предприятиям необходимо четко понимать, как они будут использоваться, на кого будут влиять решения, принятые с использованием данных, и какой потенциальный вред они могут нанести, чтобы противопоставить ему стратегии для устранения последствий. Для начала команде разработчиков нужно иметь «выключатель» — виртуальный рычаг, который можно нажать, если, проблема с предвзятостью данных обнаружена на любом уровне организации. Предоставление командам такого плана автономии поможет устранить проблемы, которые в противном случае могут остаться незамеченными, если решения по поводу предвзятости данных принимаются высшим руководством организации.

Следующий этап решения проблемы предвзятости должен включать адаптацию с проведением тренингов — их должны проходить не только разработчики, но и все новые сотрудники. Безопасность данных и управление ими — еще один важный элемент безопасной автоматизации доверия. Этого невозможно достичь без переосмысления методов управления данными. Оно как правило рассматривается многими организациями как проект или же его осуществляет команда, полномочия которой не пересекаются ни с разработчиками, ни с аналитиками.

Кроме того, предприятия должны ограничить независимость разработчиков, которые иногда выступают как автономные команды, что позволит им лучше выполнять свою работу. Сделав процесс разработки управляемым, компания избавится от нездоровой конкуренции, которая часто бывает между командами по обеспечению безопасности/комплаенсу и разработчиками. Заодно она избежит избыточного скремблирования и изменений, которые требуется внести в последний момент. Применение ИИ, машинного обучения и других новых технологий в мире, где царят дипфейки и массовая дезинформация, поможет клиентам быстрее понять, какой информации доверять, чтобы руководители могли принимать решения, исходя из точных данных.