ChatGPT и такие его конкуренты, как Bard от Google, знаменуют собой значительный сдвиг на рынке данных и аналитики, пишет на портале ComputerWeekly Берн Элиот, почетный вице-президент-аналитик компании Gartner.

Большие языковые модели (LLM) способны изменить подход к анализу данных и принятию решений. Поэтому очень важно понять краткосрочные и среднесрочные последствия этого нового явления.

ChatGPT, как передовое приложение, использующее LLM, революционизирует представление о данных и аналитике. Его передовые возможности обработки естественного языка (NLP) и машинного обучения уже сделали его ценным инструментом для различных отраслей, от финансов и здравоохранения до образования и развлечений.

Эволюция ChatGPT еще далека от завершения. В следующем году ожидается дальнейший стремительный прогресс в развитии этого и аналогичных решений, а также появление дополнительных технологий.

Ограничения и риски

Будучи приложением, построенным на основе модели GPT, ChatGPT хорошо подходит для решения задач, связанных с языком. Однако его возможности по выполнению математических операций более ограничены. Важно отметить, что ChatGPT имеет ограничения и не подходит для многих аналитических задач.

Многие сценарии использования ChatGPT в области данных и аналитики будут заключаться в помощи инженерам по данным, аналитикам данных и специалистам по исследованию данных в решении задач, связанных с программированием систем и генерацией кода. Например, инженер по данным может обратиться к языковой модели для создания скриптов ввода и преобразования данных, шаблонов конфигурации и SQL-запросов. Аналитик данных может использовать ее для помощи в генерации кода DAX для PowerBI, а специалист по исследованию данных — для помощи в проверке кода Python для функций, связанных с машинным обучением.

Однако при таком использовании существует риск раскрытия служебной или конфиденциальной информации компании, создающей модель. Поэтому специалисты по данным и аналитике должны убедиться, что поставщик услуг LLM надлежащим образом обрабатывает любые конфиденциальные или служебные материалы. Другой риск заключается в том, что сгенерированный код или другие результаты могут быть ненадежными, поэтому рекомендуется использовать эти инструменты для дополнения процессов разработки.

Специалисты по данным и аналитике должны взять на себя ведущую роль в информировании о рисках и политике соответствия, связанных с использованием инструментов генеративного ИИ, и выступать в качестве экспертов в предметной области при обучении заинтересованных сторон. Специалисты должны применять сгенерированный ИИ-код поэтапно, выделять и отслеживать его в соответствии со стандартными средствами контроля качества кода или подвергать его таким же проверке и тестированию, как и код, написанный человеком.

Политики, определяющие ответственное использование проприетарного контента

Для обеспечения безопасного и надлежащего применения ChatGPT необходимо разработать политику его использования под руководством команды по предоставлению данных и аналитики. Это включает в себя тщательный анализ сгенерированного кода разработчиками, пометку сгенерированного кода как такового и подвергание его тем же процедурам тестирования, что и обычный код. Поступая таким образом, организации смогут гарантировать, что ChatGPT используется ответственно и что любой результат является надежным.

В ближайшие годы для применения инструментов генеративного ИИ, таких как ChatGPT, потребуется более проактивный подход. Это предполагает участие и руководство инициативами, направленными на понимание влияния генеративного ИИ на бизнес и общество в целом. В рамках программ повышения грамотности в области данных каждый сотрудник должен получить знания о том, как работают системы генеративного ИИ, каковы их ограничения и какова сфера их применения в его профессии. Их также следует поощрять к размышлениям о сценариях использования и способах применения этих систем таким образом, чтобы они становились их помощниками в решении некоторых их задач и автоматизации других.

Для обеспечения безопасного и эффективного использования ChatGPT и конкурентов также необходимо разработать конкретную политику их использования. Это включает в себя привлечение юридических служб для обеспечения соответствия нормативным актам и законам.

Политики должна гарантировать, что в процессе работы всегда присутствует человек для проверки ошибок и обеспечения точности и надежности генерируемого кода или результатов. Предприняв эти шаги, организации смогут максимально использовать потенциальные преимущества инструментов генеративного ИИ и одновременно минимизировать риски, связанные с их использованием.