Причинный искусственный интеллект (casual AI) сосредоточен на понимании причинно-следственных связей, а не на распознавании закономерностей данных, отмечают опрошенные порталом InformationWeek эксперты.

Святой Грааль в разработке ИИ — это объяснимый ИИ, который позволяет раскрыть процессы принятия решений, использованные моделью ИИ для получения результатов. Другими словами, мы, люди, хотим знать, почему ИИ сделал то, что сделал, прежде чем ставить на его результаты свою карьеру, жизнь или бизнес.

«Причинный ИИ требует, чтобы модели объясняли свои предсказания. В простейшей форме это объяснение представляет собой граф, отражающий причинно-следственную цепочку, — говорит Джордж Уильямс, директор GSI Technology по MО, науке о данных и встроенному ИИ. — В современной форме это понятное человеку объяснение в виде текста».

Как правило, в моделях ИИ отсутствуют проверяемые пути принятия решений, механизмы самоотчета и возможность заглянуть за занавес все более сложных алгоритмов.

«Традиционный прогностический ИИ можно сравнить с черным ящиком, в котором практически невозможно определить, что послужило причиной того или иного результата», — говорит Фил Джонсон, вице-президент по решениям в области данных компании mPulse. В результате люди не могут доверять почти ничему, что выдает модель ИИ. Полученный результат может оказаться галлюцинацией — ложью, выдумкой, просчетом или сказкой, в зависимости от того, как вы хотите обозначить подобные ошибки и какой тип модели ИИ используется.

«Модели генеративного ИИ (GenAI) все еще имеют досадный побочный эффект: они иногда галлюцинируют или выдумывают факты. Это означает, что они также могут галлюцинировать в своих объяснениях. Устранение галлюцинаций — быстро развивающаяся область исследований, и организациям может быть сложно следить за последними исследованиями/технологиями», — говорит Уильямс.

С другой стороны, та же самая модель ИИ может открыть глубокую истину, которую люди не могут увидеть, потому что их взгляд заслоняют огромные объемы данных. Как пресловутая армия обезьян, стучащих по клавиатуре, может однажды создать великий роман, так и толпы людей могут однажды наткнуться на важную истину, погребенную в гигантских хранилищах данных. Или мы можем положиться на скорость ИИ, чтобы найти полезный ответ прямо сейчас, и сосредоточиться на обучении его раскрытию того, как он пришел к этому выводу. Последний вариант гораздо более управляем, чем первый.

Взлом «черного ящика» ИИ

Если кто-то и получит что-то из опыта работы с ИИ, то это будет повторное открытие чуда, коим является человеческий мозг. Чем больше мы подстраиваем ИИ под свой собственный мозг, тем чаще он оказывается лишь тенью наших поразительных возможностей. Это не порицание ИИ, который является поистине удивительным изобретением и сам по себе свидетельствует о человеческих возможностях. Тем не менее, создатели действительно хотят знать, чем на самом деле занимается их творение.

«Природа большинства ИИ/МО носит корреляционный, а не причинный характер, — объясняет Дэвид Гуаррера, руководитель направления генеративного ИИ компании EY Americas. — То есть вы не знаете о направлении эффекта. Если возраст и зарплата коррелируют, то технически вы не знаете, является ли возраст причиной того, что у вас больше денег, или деньги заставляют вас стареть», — говорит он.

Большинство из нас интуитивно согласится с тем, что скорее отсутствие денег вызывает старение, но мы не можем достоверно полагаться на свою интуицию при оценке результатов работы ИИ. Мы также не можем рассчитывать на то, что ИИ объяснит сам себя — в основном потому, что он не был создан для этого.

«Во многих продвинутых моделях МО, таких как глубокое обучение, для создания модели используются огромные объемы данных, — говорит Джудит Гурвиц, главный евангелист Geminos Software. — Одна из ключевых проблем такого подхода к ИИ заключается в том, что модели, созданные на основе данных, не могут быть легко поняты бизнесом. И они не поддаются объяснению. Кроме того, можно легко получить необъективный результат в зависимости от качества данных, использованных для создания модели».

Эту проблему принято называть «черным ящиком» ИИ. Взломать внутренности модели ИИ, чтобы узнать подробности принятия ею решений, — задача не из легких, если говорить техническим языком.

«Это предполагает использование теорий причинно-следственных выводов и графических моделей, таких как направленные ациклические графы (DAG), которые помогают выявить и понять причинно-следственные связи между переменными, — говорит Райан Гросс, руководитель отдела данных и приложений компании Caylent. — Манипулируя одной переменной, причинный ИИ может наблюдать и предсказывать, как это изменение влияет на другие переменные, тем самым выявляя причинно-следственные связи».

Как работает причинный ИИ

Традиционные модели ИИ фиксированы во времени и ничего не понимают. Причинный ИИ — это совершенно другое создание.

«Причинный ИИ динамичен, в то время как аналогичные инструменты статичны. Причинный ИИ представляет, как то или иное событие повлияет на мир в дальнейшем. Такую модель можно запросить, чтобы выяснить, как все может работать, — говорит Брент Филд, директор по бизнес-консалтингу, практике ИИ и автоматизации Infosys Consulting. — С другой стороны, традиционные модели МО строят статичное представление того, что с чем коррелирует».

По его словам, они, как правило, плохо работают, когда мир меняется, что статистики называют неэргодичностью. Важно понять, почему именно эта неэргодичность является таким важным отличием почти для всего, что мы делаем.

«Неэргодичность присутствует повсюду. Это одна из причин, по которой финансовые управляющие обычно отстают от индексных фондов S&P500. Именно поэтому предвыборные опросы часто ошибаются на много процентных пунктов. Модели коммерческой недвижимости и глобальной логистики перестали работать примерно в марте 2020 г., потому что COVID вызвал масштабный экономический шок со стороны предложения, который до сих пор отражается на мировой экономике», — объясняет Филд.

Не зная причины события или потенциального результата, знания, которые мы извлекаем из ИИ, в значительной степени обращены назад, даже если они прогнозируют вперед. Выводы, основанные только на исторических данных и событиях, по своей природе неполноценны, а иногда и бесполезны. Причинный ИИ стремится исправить эту ситуацию.

«Причинные модели позволяют человеку быть гораздо более вовлеченным в процесс принятия решений. Они по умолчанию объяснимы и отлаживаемы, а значит, люди могут доверять и проверять результаты, что ведет к повышению доверия, — говорит Джозеф Рив, менеджер по разработке ПО компании Amplitude. — Причинные модели также позволяют использовать опыт человека в разработке и обучении модели, в отличие от традиционных моделей, которые нужно обучать с нуля, без руководства человека».

Можно ли применять причинный ИИ даже к моделям GenAI? Коротко говоря, да.

«Мы можем использовать причинный ИИ для анализа большого количества данных и в паре с GenAI визуализировать анализ с помощью графиков или пояснений, — говорит Мохамед Абдельсадек, старший вице-президент по данным, аналитике и анализу Mastercard. — Или, наоборот, GenAI может быть привлечен на начальном этапе для определения общих вопросов анализа, таких как анализ изображений повреждений, причиненных природным событием, а причинный ИИ будет привлечен для обработки и анализа данных».

Есть и другие способы совместной работы причинного ИИ и генеративного ИИ.

«GenAI может стать эффективным инструментом для поддержки причинного ИИ. Однако следует помнить, что GenAI — это инструмент, а не решение, — говорит Гурвиц. — Один из новых способов, с помощью которого GenAI может принести огромную пользу причинному ИИ, — это его использование для анализа информации о предмете, хранящейся как в структурированном, так и в инструктивном форматах. Одной из важнейших областей, необходимых для создания эффективного решения в области причинного ИИ, является обнаружение причин — определение того, какие данные необходимы для понимания причинно-следственных связей».

Значит ли это, что причинный ИИ — панацея для всего ИИ или что это непогрешимая технология?

«Причинный ИИ — это только зарождающаяся область. Поскольку технология еще не до конца разработана, процент ошибок, как правило, пока выше, чем ожидалось, особенно в тех областях, где система ИИ не имеет достаточной подготовки, — говорит Флавио Вилланустре, директор по информационной безопасности LexisNexis Risk Solutions. — Однако следует ожидать, что со временем ситуация значительно улучшится».

Так где же находится причинный ИИ в общей схеме?

«В 2022 г. в „цикле шумихи“ Gartner причинный ИИ считался более зрелым и опережал генеративный ИИ, — говорит Эд Ватал, основатель и директор компании Intellibus. — Однако причинный ИИ еще не нашел широкого применения и принятия — в отличие от генеративного ИИ, принятие моделей которого, таких как GPT, обеспечили такие инструменты, как ChatGPT».