MWS Cloud, входит в МТС Web Services, объявила о запуске сервиса по работе с большими языковыми моделями — MWS GPT Model Hub в публичном облаке MWS Cloud Platform.
Сервис позволяет компаниям за несколько минут подключать LLM к своим продуктам и системам без управления инфраструктурой моделей и быстрее запускать AI-функции. За счёт этого продуктовые команды могут сокращать time-to-market новых решений до двух раз. С помощью сервиса российские компании смогут внедрять ведущие мировые модели в том числе одну из самых мощных LLM Kimi 2 Instruct.
MWS GPT Model Hub — облачный сервис, который предоставляет доступ к большим языковым моделям через API внутри MWS Cloud Platform. Сервис запущен на базе платформы MWS GPT. В рамках него доступны 10 больших языковых моделей, среди которых ведущие мировые открытые LLM: DeepSeek, Google, Alibaba, Zhipu AI, Moonshot AI, BAAI и другие. До конца года в сервисе появятся еще 10 моделей, включая модели TTS (преобразующие текст в речь) и ASR (преобразующие аудио в текст), а также реранкеры.
Сервис может применяться для внедрения AI-ассистентов в продукты, построения интеллектуального поиска, обработки текстовых данных, автоматизации поддержки, создания AI-инструментов для разработчиков и внутренних AI-сервисов для сотрудников.
MWS GPT Model Hub позволяет использовать LLM как инфраструктурный компонент приложения — так же, как облачные базы данных, очереди сообщений или объектное хранилище — без необходимости самостоятельно разворачивать и обслуживать инфраструктуру.
Модели доступны через OpenAI-совместимый API и могут быть быстро интегрированы в backend-сервисы, developer-инструменты и пользовательские приложения. Сервис предоставляется по модели самообслуживания через консоль управления MWS Cloud Platform. LLM развёртывается по клику за несколько секунд и сразу доступна для работы через точку подключения в облаке MWS.
Такой формат особенно важен backend-разработчикам, AI-инженерам, DevOps и platform-командам, разработчикам SaaS-продуктов и стартап-командам, которым нужно ускорять вывод продуктов на рынок без избыточных операционных затрат. Встроенные в облачную платформу ресурсная модель, политики доступа и биллинга упрощают управление сервисом и позволяют отслеживать расходы на уровне проектов и команд. В результате, команды получают возможность быстро прототипировать AI-функции и запускать их в эксплуатацию, сосредотачиваясь на продуктовой логике, а не на обслуживании инфраструктуры моделей.
«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы: подключиться по API, быстро проверить гипотезы и масштабировать использование по мере роста нагрузки. Это позволяет экспериментировать с AI прямо в облаке и быстрее добавлять интеллектуальные функции в продукты и внутренние системы», — прокомментировал генеральный директор МТС Web Services Павел Воронин.





























