MWS Cloud, входит в МТС Web Services, сообщила о запуске платформы для внедрения и эксплуатации моделей искусственного интеллекта — Inference Valve. Она позволяет выводить в продакшн любые обученные
С помощью платформы
Компании могут развернуть как собственные обученные AI-модели, так и воспользоваться готовыми к работе опенсорсными моделями. Кроме того, Inference Valve интегрируется с
Платформа доступна в частном облаке на инфраструктуре MWS Cloud, on-prem на серверах заказчика, а также в составе программно-аппаратных комплексов (ПАК) в закрытом контуре, включая режимы с ограниченным доступом к внешним сетям.
После запуска кластера специалисты заказчика загружают артефакты модели (например, ONNX, TorchScript) в платформу, после чего она автоматически формирует контейнер сервиса и публикует эндпоинт. Платформа поддерживает одновременную работу сразу с несколькими моделями с выделением квот вычислительных ресурсов, управление версиями, маршрутизацию трафика между версиями и масштабирование под нагрузку как на GPU, так и на CPU.
Inference Valve также предоставляет метрики задержек и пропускной способности, мониторинг доступности, алёрты и дашборды; доступна телеметрия качества, включая отслеживание дрейфа данных и моделей, контроль целевых метрик и уведомления при деградации. Интеграция с системами наблюдаемости (Prometheus/Grafana) и журналированием запросов упрощает аудит и разбор инцидентов.
«Без активного внедрения искусственного интеллекта практически невозможно рассчитывать на лидерство на рынке. Только в MWS Cloud спрос на инфраструктуру для ИИ за год вырос в два раза. При этом недостаточно просто обучить AI-модель. Её ещё нужно интегрировать в бизнес-процессы компании, наладить её бесперебойную работу, отслеживать успешность её работы. Inference Valve позволяет сделать это из коробки с помощью нескольких простых команд. С её помощью LLM и