Искусственный интеллект меняет методы ведения бизнеса. Понимание того, как ответственно использовать ИИ, обеспечит долгосрочный успех, пишет на портале InformationWeek Шон Ричардс, руководитель направления качества и роста компании Vincit.

В ходе недавнего опроса руководителей компаний Conversica «2023 AI Ethics and Corporate Responsibility Survey» почти 90% респондентов признали высокую важность четких и прозрачных рекомендаций по этичному использованию ИИ. Однако, несмотря на такую твердую позицию, лишь немногие из опрошенных имеют ясное представление о том, как на самом деле выглядит ответственное использование ИИ.

Такое значительное расхождение явно указывает на необходимость широкого обсуждения того, как, когда и зачем компании используют ИИ. Клиенты, которые пользуются вашими товарами и/или услугами, не должны беспокоиться о том, что ваша компания использует новые технологии таким образом, который может считаться неэтичным или безответственным.

Это ставит перед ИТ-специалистами сложную задачу, поскольку ИИ развивается быстрее, чем любые правила, которые могли бы ограничить его использование. Такие правила, несомненно, появятся, и руководителям ИТ-служб важно «подстраховать» внедрение ИИ, чтобы в случае принятия новых правил в будущем не потребовалось вносить значительные изменения. Это требует сбалансированного подхода, но при определенном планировании и четком целеполагании использовать невероятную мощь ИИ можно без каких-либо серьезных рисков.

Соблюдение баланса

Для специалистов в области технологий существуют три основные этические проблемы, связанные с ИИ и его различными реализациями: право собственности, конфиденциальность и точность.

1. Право собственности

В первую очередь это касается компаний, желающих использовать инструменты ИИ, чтобы облегчить жизнь своих сотрудников или помочь им раскрыть творческий потенциал.

Свободно доступные инструменты ИИ могут генерировать текстовый контент и даже код в больших масштабах, но если инструмент ИИ обучается на материалах, защищенных авторским правом, всегда существует риск, что любой текст, созданный этим ИИ, будет содержать части оригинального произведения, защищенного авторским правом. Это касается всего — от написания художественных произведений до кодирования приложений для iOS, поэтому важно понимать последствия. При использовании инструмента ИИ для создания такого рода контента крайне важно убедиться, что в конечный продукт не включены материалы, защищенные авторским правом.

Попросить генеративный ИИ создать что-то с нуля — или даже помочь доработать написанный контент или дописать код, — не так-то просто, поэтому убедитесь, что любая форма ИИ, которую вы решили использовать, была обучена на данных, не защищенных авторским правом или являющихся частью общественного достояния.

К любому тексту, коду или произведению искусства, создаваемому ИИ, следует относиться с предельной осторожностью и пониманием. Не сделав этого, вы рискуете целостностью конечного продукта.

2. Конфиденциальность

Для компаний, которые будут внедрять собственные инструменты ИИ или использовать сторонний ИИ с корпоративными наборами данных, которые могут содержать информацию о компании или пользователях, конфиденциальность всегда должна быть на первом месте.

Поскольку системы ИИ подчиняются тем же законам и нормам о конфиденциальности, что и любое другое ПО, ИТ-руководителям крайне важно убедиться, что их компания демонстрирует четкое и глубокое видение того, как управляются, хранятся и используются данные. Это должен быть прозрачный процесс, предлагающий конечному пользователю четкое и ясное понимание того, как его данные собираются, используются и где/как они будут храниться.

Если пользовательские данные применяются для дальнейшего обучения ИИ или даже создания новой модели, раскрытие информации обязательно. В зависимости от конкретного региона сейчас могут существовать или не существовать правила, требующие раскрытия информации такого рода, но можно с уверенностью сказать, что в ближайшем будущем они станут всеобщими.

3. Точность

Кажется, что многие представители делового мира видят в ИИ безошибочную сущность, которая, опираясь на огромные ресурсы наборов данных, на которых она обучается, не может ошибиться. ИТ-специалисты знают, что ни одна машина не является непогрешимой, и ИИ — не исключение.

ИИ так же подвержен ошибкам, как и человек, а в некоторых случаях даже больше. Поскольку инструменты ИИ обучаются на данных, созданных (вы уже догадались) людьми, они с тем же успехом могут перепутать или неверно записать ключевые факты и даже просто ошибиться. Слепо полагаться на ИИ при написании контента, создании чистого кода или редактировании существующей работы — это залог беды.

Контент или код, написанный ИИ, всегда следует проверять на наличие ошибок, как фактических, так и грамматических, и ни один контент, созданный ИИ, не должен увидеть свет до тех пор, пока он не пройдет тщательный процесс редактирования и проверки.

Риски и вознаграждения

Для многих ИТ-лидеров риск создания ИИ стоит вознаграждения, если делать это этично и разумно.

Недавнее исследование IBM, проведенное среди 3000 руководителей компаний по всему миру, показало, что использование ИИ уже не вызывает сомнений, а является обязательным. Если организации начнут использовать ИИ этичными и продуктивными способами, в том числе с учетом текущих изменений в законодательстве, то в долгосрочной перспективе оптимальное использование технологии станет проще, если правильные стандарты были установлены с самого начала. Это гарантирует, что ответственное внедрение ИИ станет нормой, а руководители компаний получат выгоду.

Прежде всего, осознайте, что генеративный ИИ — это не одна из тех «вспышек», которые исчезнут так же быстро, как и появились; это развивающаяся технология, и мы только начинаем понимать, на что она способна. Компании, которые научатся использовать ее сейчас, будут иметь все шансы на процветание в будущем, а те, кто проигнорируют ее, скорее всего, пожалеют об этом.