Искусственный интеллект призван сделать работу более точной и эффективной, но, как показывают исследования, вместо этого он зачастую лишь усложняет ее, сообщает портал eWeek.
В корпоративный словарь вошел новый термин — «воркслоп» («workslop»). Согласно исследователям из Harvard Business Review (HBR), он обозначает выполненную ИИ работу, которая «маскируется под хорошую работу, но которой не хватает сути для значимого решения поставленной задачи».
Идея обсудить тему ИИ-халтуры возникла в результате совместного исследования Стэнфордской лаборатории социальных сетей и BetterUp Labs, которое показало, что почти 40% штатных сотрудников в США сталкивались в «воркслопрм» в сентябре. Исследователи предупреждают, что эти халтурные отчеты, слайды и электронные письма незаметно подрывают производительность и доверие к работникам.
Скрытая цена ИИ-халтуры
Согласно исследованию HBR, каждый раз, когда сотрудники сталкиваются с «воркслопом», они тратят в среднем 1 час и 56 минут, пытаясь разобраться в нем или полностью его переделать. Это время суммируется. Для компании с 10 тыс. сотрудников потери могут составить более 9 млн. долл. в год.
Помимо потерянного времени, исследователи обнаружили, что сотрудники, сталкивающиеся с ИИ-халтурой, часто испытывают раздражение (53%), растерянность (38%) и обиду (22%).
Эти эмоциональные реакции начинают влиять на отношения в коллективе. Примерно 42% респондентов заявили, что теперь считают коллег, отправляющих «воркслоп», менее надежными, а 32% заявили, что с меньшей вероятностью будут работать с такими коллегами снова.
Пример из практики
Последствия злоупотребления ИИ недавно оказались в центре внимания в Австралии.
Агентство Bloomberg сообщило, что консалтинговый гигант Deloitte Australia столкнулся с негативной реакцией после представления правительственного отчета, содержащего «явные ошибки, сгенерированные ИИ». В документе, финансируемом за счет налогоплательщиков, стоимостью 289 тыс. долл., предположительно, содержались неверные цитаты судьи и несуществующие ссылки. Австралийский сенатор Барбара Покок заявила, что «из-за таких ошибок у студента-первокурсника возникли бы серьезные проблемы».
Позже Deloitte сообщила, что «вопрос был решен напрямую с клиентом», но инцидент вновь разжег глобальные дебаты об ограничениях применения ИИ и ответственности на рабочем месте.
Когда ИИ создает работы больше, а не меньше
Ирония, по словам исследователей, заключается в том, что сотрудники просто выполняют указания. Многие компании поощряют сотрудников интегрировать ИИ в свои повседневные рабочие процессы. Тем не менее, исследование McKinsey показывает, что до 80% компаний, использующих генеративный ИИ, не увидели «значительного влияния на конечный результат». В некоторых случаях 42% даже полностью отказались от проектов с использованием ИИ.
Почему? Потому что, как отмечает команда Гарварда, некоторые сотрудники используют инструменты ИИ не для того, чтобы улучшить свою работу, а чтобы ее избежать, быстро создавая впечатляющий контент, который оказывается пустым внутри.
Кто на самом деле виноват?
Обозреватель The Guardian Джин Маркс утверждает, что, хотя компании, занимающиеся разработкой ИИ, заслуживают пристального внимания, реальная ответственность лежит на руководителях. «На рабочем месте ответственность всегда лежит на руководителе», — пишет он, подчеркивая, что многие работодатели внедряют ИИ без надлежащего обучения и инструкций. Маркс добавляет, что «в большинстве случаев проблема не в ПО. Проблема в отсутствии инвестиций в людей, которые его используют».
Многие компании продвигают инструменты ИИ, не предоставляя адекватного обучения, четких правил их использования или инструкций о том, когда ИИ уместен, а когда нет. Это заставляет сотрудников разбираться в этом самостоятельно, что приводит к «беспределу», где самый простой путь — копирование и вставка результатов ИИ — становится нормой.
Предлагаемое исследователями решение проблемы заключается не в отказе от ИИ, а в более продуманном его внедрении. Это включает в себя обучение персонала тому, как использовать инструменты, и их ограничениям, разработку четких инструкций и напоминание всем, что ИИ — это инструмент, дополняющий человеческий труд, а не заменяющий человеческое суждение.
В конце концов, «вылизанный» отчет имеет ценность только в том случае, если содержащаяся в нем информация достоверна.