Byte/RE ИТ-издание

Доступ к моделям LLM в облаке MWS Cloud

Компания MWS Cloud (входит в МТС Web Services) объявила о запуске сервиса по работе с большими языковыми моделями – MWS GPT Model Hub – в публичном облаке MWS Cloud Platform.

Сервис позволяет компаниям за несколько минут подключать LLM к своим продуктам и системам без управления инфраструктурой моделей и быстрее запускать AI-функции. За счет этого time-to-market новых решений может сократиться до двух раз. С помощью сервиса российские компании смогут внедрять ведущие мировые модели, в том числе такую как Kimi 2 Instruct.

Облачный сервис MWS GPT Model Hub предоставляет доступ к большим языковым моделям через API внутри MWS Cloud Platform. Сервис запущен на базе платформы MWS GPT. В рамках него доступны 10 больших языковых моделей, среди которых ведущие мировые открытые LLM: DeepSeek, Google, Alibaba, Zhipu AI, Moonshot AI, BAAI и другие. До конца года в сервисе появятся еще 10 моделей, включая модели TTS (преобразующие текст в речь) и ASR (преобразующие аудио в текст), а также реранкеры.

Сервис может применяться для внедрения AI-ассистентов в продукты, построения интеллектуального поиска, обработки текстовых данных, автоматизации поддержки, создания AI-инструментов для разработчиков и внутренних AI-сервисов для сотрудников.

MWS GPT Model Hub позволяет использовать LLM как инфраструктурный компонент приложения – так же, как облачные базы данных, очереди сообщений или объектное хранилище – без того, чтобы самостоятельно разворачивать и обслуживать инфраструктуру. Модели доступны через OpenAI-совместимый API и могут быть быстро интегрированы в backend-сервисы, developer-инструменты и пользовательские приложения.

Сервис предоставляется по модели самообслуживания через консоль управления MWS Cloud Platform. LLM развертывается по клику за несколько секунд и сразу доступна для работы через точку подключения в облаке MWS. Такой формат особенно важен backend-разработчикам, AI-инженерам, DevOps и platform-командам, разработчикам SaaS-продуктов и стартап-командам, которым нужно ускорять вывод продуктов на рынок без избыточных операционных затрат. Встроенные в облачную платформу ресурсная модель, политики доступа и биллинга упрощают управление сервисом и позволяют отслеживать расходы на уровне проектов и команд. В результате команды получают возможность быстро прототипировать AI-функции и запускать их в эксплуатацию.

Вам также могут понравиться