Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo demonstra como habilitar o Model Serving em seu workspace e alternar seus modelos para a experiência de Serviço de Modelo de IA do Mosaico criada na computação sem servidor.
Importante
A partir de 22 de agosto de 2025, os clientes não poderão mais criar novos endpoints de serviço usando a experiência legada de Servir Modelos do MLflow. Em 15 de setembro de 2025, a experiência legada será encerrada e todos os endpoints existentes deste serviço não poderão mais ser usados.
Requisitos
- O modelo registrado no Registro de Modelos do MLflow.
- Permissões nos modelos registrados, conforme descrito no guia de controle de acesso.
- Habilite a computação sem servidor em seu workspace.
Alterações significativas
- No Serviço de Modelo, o formato da solicitação para o ponto de extremidade e a resposta do ponto de extremidade são ligeiramente diferentes do Serviço de Modelo do MLflow Herdado. Confira Como pontuar um ponto de extremidade de modelo para obter detalhes sobre o novo protocolo de formato.
- No Serviço de Modelo, a URL do ponto de extremidade inclui
serving-endpointsem vez demodel. - O Serviço de Modelo inclui suporte total para gerenciar recursos com fluxosde trabalho de API.
- O Serviço de Modelo está pronto para produção e é apoiado pelo SLA do Azure Databricks.
Identificar endpoints de serviço que usam o Serviço de Modelos do MLflow Legado
Para identificar os pontos de extremidade de serviço de modelos que usam o Serviço de Modelos MLflow Legado:
- Navegue até a interface Modelos em seu workspace.
- Selecione o filtro Registro de Modelos do Workspace.
- Selecione o filtro de serviço herdado habilitado apenas .
Migrar Serviço de Modelo MLflow herdado para o Serviço de Modelo
Você pode criar um ponto de extremidade de Serviço de Modelo e um modelo de transição flexível que atende fluxos de trabalho sem desabilitar o Serviço de Modelo do MLflow Herdado.
As etapas a seguir mostram como fazer isso com a interface do usuário. Para cada modelo no qual você tem o Serviço de Modelo do MLflow Herdado habilitado:
- Registre seu modelo no Catálogo do Unity.
- Navegue até os pontos de extremidade de serviço na barra lateral do workspace de aprendizado de máquina.
- Siga o fluxo de trabalho descrito em Criar modelo personalizado que serve pontos de extremidade sobre como criar um ponto de extremidade de serviço com seu modelo.
- Faça a transição do aplicativo para usar a nova URL fornecida pelo ponto de extremidade de serviço para consultar o modelo, juntamente com o novo formato de pontuação.
- Quando os modelos são transferidos, você pode navegar até Modelos na barra lateral do workspace de aprendizado de máquina.
- Selecione o modelo para o qual você deseja desabilitar o Serviço de Modelo do MLflow Herdado.
- Na guia Serviço, selecione Interromper.
- Uma mensagem aparece para confirmar. Selecione Interromper serviço.
Migrar versões de modelo implantadas para o Serviço de Modelo
Nas versões anteriores da funcionalidade Serviço de Modelo, o ponto de extremidade de serviço foi criado com base no estágio da versão do modelo registrado: Staging ou Production. Para migrar seus modelos servidos dessa experiência, você pode replicar esse comportamento na nova experiência de Serviço de Modelo.
Esta seção demonstra como criar pontos de extremidade de modelagem separados para versões de modelo Staging e versões de modelo Production. As etapas a seguir mostram como fazer isso com a API de pontos de extremidade de serviço para cada um dos modelos atendidos.
No exemplo, o nome do modelo modelA registrado tem a versão 1 no estágio do modelo Production e a versão 2 no estágio do modelo Staging.
Crie dois pontos de extremidade para seu modelo registrado, um para versões de modelo
Staginge outro para versões de modeloProduction.Para versões de modelo
Staging:POST /api/2.0/serving-endpoints { "name":"modelA-Staging" "config": { "served_entities": [ { "entity_name":"model-A", "entity_version":"2", // Staging Model Version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }, }Para versões de modelo
Production:POST /api/2.0/serving-endpoints { "name":"modelA-Production" "config": { "served_entities": [ { "entity_name":"model-A", "entity_version":"1", // Production Model Version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }, }Verifique o status dos pontos de extremidade.
Para o ponto de extremidade de preparo:
GET /api/2.0/serving-endpoints/modelA-StagingPara ponto de extremidade de produção:
GET /api/2.0/serving-endpoints/modelA-ProductionDepois que os pontos de extremidade estiverem prontos, consulte o ponto de extremidade usando:
Para o ponto de extremidade de preparo:
POST /serving-endpoints/modelA-Staging/invocationsPara ponto de extremidade de produção:
POST /serving-endpoints/modelA-Production/invocationsAtualize o ponto de extremidade com base nas transições de versão do modelo.
No cenário em que uma terceira versão do novo modelo é criada, você pode fazer a transição da segunda versão do modelo para
Production, enquanto a terceira versão do modelo pode fazer a transição paraStaginge a primeira versão do modelo éArchived. Essas alterações podem ser refletidas em pontos de extremidade de serviço de modelo separados da seguinte maneira:Para o ponto de extremidade
Staging, atualize o ponto de extremidade para usar a nova versão do modelo emStaging.PUT /api/2.0/serving-endpoints/modelA-Staging/config { "served_entities": [ { "entity_name":"model-A", "entity_version":"3", // New Staging model version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }Para o ponto de extremidade
Production, atualize o ponto de extremidade para usar a nova versão do modelo emProduction.PUT /api/2.0/serving-endpoints/modelA-Production/config { "served_entities": [ { "entity_name":"model-A", "entity_version":"2", // New Production model version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }