Стоит дважды подумать, прежде чем обращаться к ChatGPT. Оказалось, что эта технология искусственного интеллекта не очень хороша во многих вещах, утверждают опрошенные порталом InformationWeek эксперты.

На прошлой неделе ведущие лидеры в области технологий и ИИ потребовали приостановить стремительные темпы разработки и внедрения чатботов на базе ИИ. Они призвали к регулированию развивающихся технологий ИИ, поскольку опасаются рисков для общества и человечества.

Между тем, все, кажется, очарованы ChatGPT и стремятся понять, как его применить. Но первый опыт показывает, что чатботы и другие технологии генеративного ИИ испытывают трудности в нескольких областях. Вот пять примеров.

Инновационное мышление

ChatGPT часто не справляется с задачами, требующими создания новых идей. Большие языковые модели, такие как ChatGPT, опираются на существующую информацию или обобщают ее. Однако они не способны добавить какие-либо знания, например, разработать новые лекарства, вакцины или бизнес-технологии, отмечает Удо Сглаво, вице-президент по расширенной аналитике компании SAS.

ChatGPT и связанные с ним технологии являются новыми, и данные, используемые для их обучения, все еще должны поступать от людей. «Результаты генеративного ИИ по своей сути являются нашим отражением», — говорит Сглаво, предупреждая, о риске того, что модели могут быть основаны на неточных данных, дезинформации или предубеждениях. «Пользователи должны продолжать применять критическое мышление при взаимодействии с разговорным ИИ и избегать предвзятости автоматизации — веры в то, что техническая система с большей вероятностью будет точной и правдивой, чем человек», — считает он.

Точные инсайты

ChatGPT использует огромные объемы данных Интернета, что означает, что при генерации свежего текста в его распоряжении практически бесконечное количество контента. Хотя это делает ChatGPT удивительно искусным во многих сценариях использования, модель испытывает трудности с точной разработкой полезного контента для тем, которые являются редкими или искусственными. «Алгоритмы подобны золотистым ретриверам — они будут изо всех сил стараться выполнить вашу просьбу, даже если это означает погоню за невидимым мячом, — говорит Сара Шугарс, доцент кафедры коммуникации Ратгерского университета штата Нью-Джерси. — Попросите ChatGPT описать важность выдуманной исторической фигуры, и он, скорее всего, тут же галлюцинирует для вас подробную фальшивую биографию».

Кроме того, ChatGPT не обладает творческой способностью генерировать новые инсайты путем объединения идей. Он может создавать шаблонные формулировки, давать содержательные резюме и даже писать сценарии или стихи, но он не может думать так же, как люди, объясняет Шугарс: «Этот недостаток творческого синтеза может проявляться в создаваемых им текстах. Многие из выдаваемых им результатов очень безвкусны; в них нет удивительной связи и возвышения новых идей, которые могут возникать в человеческих текстах».

Мотивация людей

ChatGPT терпит неудачу в качестве убеждающего коммуникатора. Хотя технология имеет доступ к почти бесконечному количеству информации, хорошие коммуникаторы должны также понимать приоритеты и ценности своей аудитории. «Пока ChatGPT не может делать это осмысленно», — отмечает Клара Берк, доцент кафедры коммуникации в сфере управления бизнесом в Школе бизнеса Теппера Университета Карнеги-Меллона.

Подумайте о словах, которые остаются с людьми и движут ими. «Когда Мартин Лютер Кинг-младший обратился к толпе на Марше на Вашингтон, он описал их цель языком, который эхом и на протяжении десятилетий напоминал Америке о яростной необходимости „сделать это сейчас“, — говорит Берк. — Слова Кинга разожгли воображение людей и помогли им взглянуть на свой опыт и надежды под новым углом».

Между тем, ChatGPT предлагает свою версию призыва к действию. «Время перемен настало, говорит он. Он явно призывает к переменам, но не предлагает аудитории новый способ представить себе перемены или подключиться к ним, поэтому вряд ли он действительно приведет к переменам», — отмечает Берк.

ChatGPT хорош настолько, насколько хороши даваемые ему подсказки. «Хороший же коммуникатор создаст запоминающуюся историю из обыденной подсказки, — утверждает Берк. — Именно это нам всем приходится делать на рабочем месте для создания отчета или формулирования предложения, убедительного для нашей аудитории».

Балансировка результатов

ChatGPT спотыкается, когда его просят дать рекомендации, требующие баланса между несколькими потенциальными вариантами. «В сценарии реагирования на инциденты ChatGPT с трудом принимает по результатам расследования основанное на оценке риска решение», — говорит Адам Коэн Хиллел, руководитель группы разработки ПО в компании Cado Security, предоставляющей услуги облачной криминалистики и реагирования на инциденты.

Кроме того, поскольку ChatGPT полностью полагается на данные, которым он обучен, ему трудно оставаться в курсе новейших методов атак. «Скорее всего, именно по этой причине ChatGPT не будет использоваться в качестве механизма обнаружения угроз, — говорит Хиллел. — Уже существуют более эффективные способы».

Распространение специализированных знаний

ChatGPT обычно не справляется с задачами, требующими специальных знаний или тонкого понимания контекста. Модель часто не может ответить на вопросы, связанные с высокотехнологическими или научными темами, дать точный юридический или медицинский совет, говорит Иу Айала, основатель и генеральный директор консалтинговой компании Gradient Insight: «В этих случаях отсутствие у ChatGPT опыта и ограниченные данные обучения могут привести к ненадежным или даже вредным ответам».

Языковые модели, подобные ChatGPT, обучаются на огромных объемах текстовых данных, но им может не хватать необходимой глубины знаний в конкретных областях, отмечает Айала. Кроме того, такие модели часто опираются на статистические закономерности и ассоциации, а не на истинное понимание лежащих в их основе концепций. «Поэтому, сталкиваясь с новой и сложной информацией, ChatGPT может с трудом давать последовательные и точные ответы», — заключает он.