Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Importante
Aviso de descontinuação: a partir de 4 de dezembro de 2025, o Databricks não preenche automaticamente as tabelas payload_request_logs e payload_assessment_logs. Essas tabelas foram preteridas.
- Os agentes recém-implantados por meio de agents.deploy() não mais gerarão tabelas de request_logs ou assessment_logs.
- As tabelas herdadas request_logs e assessment_logs não são mais preenchidas pela Mosaic AI. Você pode criar sua própria tabela de substituição usando visões materializadas. Consulte soluções alternativas para o MLflow 2.
- A API experimental herdada para comentários em log não terá mais suporte para agentes implantados com a versão mais recente de databricks-agents. Em vez disso, use a API de Avaliações do MLflow 3.
Ação necessária:
- Recomendado: atualize para o MLflow 3 para usar o rastreamento em tempo real, que fornece um registro em log unificado com melhor desempenho.
- Alternativa: se você precisar continuar usando o MLflow 2, consulte soluções alternativas para manter o acesso aos seus dados.
Quando você implanta um agente de IA, o Databricks cria três tabelas de inferência que capturam automaticamente solicitações e respostas de e para o agente. Essas tabelas ajudam você a monitorar o desempenho, depurar problemas e analisar comentários do usuário.
| Tabela de inferência | Exemplo de nome da tabela do Azure Databricks | Conteúdo da tabela |
|---|---|---|
| Conteúdo | {catalog_name}.{schema_name}.{model_name}_payload |
Cargas úteis de solicitação e resposta JSON brutas |
| Logs de solicitação de conteúdo | {catalog_name}.{schema_name}.{model_name}_payload_request_logs |
Solicitação e respostas formatadas. Rastreamentos do MLflow. Derivado da tabela de carga útil bruta. |
| Logs de avaliação de conteúdo | {catalog_name}.{schema_name}.{model_name}_payload_assessment_logs |
Comentários formatados, conforme fornecido no Aplicativo de Revisão, para cada solicitação Derivado da tabela de carga útil bruta. |
- Dados JSON brutos entram na tabela de conteúdo dentro de uma hora após o agente receber uma solicitação.
- Os logs de solicitação e os logs de avaliação processam e formatam dados da tabela de payload. Isso leva mais tempo.
- Você pode extrair e processar dados manualmente da tabela de conteúdo, se necessário.
- As alterações na tabela de conteúdo (exclusões ou atualizações) não são sincronizadas automaticamente com as tabelas derivadas.
O que está sendo alterado?
O Databricks não preenche automaticamente as tabelas payload_request_logs e payload_assessment_logs.
O que ainda funciona: a tabela bruta payload continua a receber dados de novas solicitações.
Migrar para o MLflow 3 e usar o rastreamento em tempo real para unificar logs de agente
Databricks recomenda fortemente migrar os endpoints dos agentes para usar o MLflow 3. O rastreamento em tempo real do MLflow 3 elimina a necessidade de tabelas separadas request_logs e assessment_logs ao unificar todos os logs do agente em um único local de rastreamento.
| Observabilidade herdada | Observabilidade do MLflow 3 | |
|---|---|---|
| Latência da coleta de dados | Mais de 1 hora | <10s |
| Organização de Dados | Rastreamentos e comentários do usuário (avaliações) são extraídos em tabelas separadas do Catálogo do Unity (request_logs e assessment_logs). |
Todos os dados relacionados à observabilidade, como rastreamentos, comentários e avaliações, podem ser facilmente acessados no mesmo experimento. |
| Coleção de comentários | Não há suporte para isso. Usa a API de feedback experimental, que coloca os dados na tabela de inferência de payload. | O MLflow 3 fornece APIs simplificadas para executar a avaliação, a rotulagem humana e o gerenciamento de conjuntos de dados de avaliação. |
| Monitorização | Não há suporte para isso. O suporte é limitado ao monitoramento legado, agora preterido, que estava restrito a juízes internos legados e juiz de parâmetros, e não possui suporte para métricas personalizadas. O monitoramento herdado é executado em cima dos logs de solicitação de conteúdo, o que significa que as respostas do agente levarão mais de 1 hora para serem avaliadas. |
O monitoramento é integrado nativamente ao MLflow 3, dando suporte a qualquer Marcador:
Inclui a capacidade de preenchimento retroativo de métricas para aplicar novas métricas retroativamente a rastros históricos. Os traces são lidos do MLflow para avaliação, diminuindo a latência do monitoramento para 15 a 30 minutos. |
O MLflow 3 anexa avaliações aos rastreamentos e em seguida registra os rastreamentos no servidor de rastreamento do MLflow junto com todos os logs de carga útil, de resposta e das etapas intermediárias. Consulte a Etiqueta durante o desenvolvimento e Conceitos e modelo de dados.
Etapas da migração
- Atualizar para o MLflow 3: verifique se o agente usa o MLflow 3.1.3 ou superior. O rastreamento será habilitado automaticamente quando você implantar agentes com o MLflow 3.
# Install prerequisites
%pip install mlflow>=3.1.3
# Restart Python to make sure the new packages are picked up
dbutils.library.restartPython()
- Registre seu agente: registre o agente como faria normalmente, assegurando-se de que ele exija o MLflow 3.1.3 ou superior. Em seguida, registre o modelo no UC.
# Log your agent
with mlflow.start_run():
logged_agent_info = mlflow.pyfunc.log_model(
name="my_agent",
pip_requirements=[
"mlflow>=3.1.3",
],
...
)
# Register your model to UC
uc_registered_model_info = mlflow.register_model(
model_uri=logged_agent_info.model_uri, name=UC_MODEL_NAME
)
- Implante seu agente: Implante o agente como você normalmente faria. Opcionalmente, defina o experimento do MLflow antes da implantação para controlar onde os rastreamentos são registrados. Se você não fizer isso, os rastreamentos serão registrados no experimento MLflow atualmente ativo.
import mlflow
from databricks import agents
# Set experiment for trace logging
mlflow.set_experiment("/path/to/your/experiment")
# Deploy with automatic tracing
deployment = agents.deploy(uc_model_name, uc_model_info.version)
# Retrieve the query endpoint URL for making API requests
deployment.query_endpoint
Observação
Atualmente, o MLflow 3 dá suporte a até 100.000 rastreamentos por endpoint de serviço. Se você prever a necessidade de limites mais altos, entre em contato com sua equipe de conta do Databricks.
Consulte os agentes de rastreamento implantados no Databricks para obter mais informações.
Opções alternativas para continuar usando o MLflow 2
Importante
Os métodos alternativos do MLflow 2 não dão suporte a endereços com o monitoramento de agente ativado. Se você usar o monitoramento, deverá migrar para o MLflow 3 e recriar seus monitores como avaliadores do MLflow 3.
Se você não conseguir atualizar para o MLflow 3, o Databricks continuará preenchendo a tabela bruta payload . No entanto, o Databricks não processa mais esses dados em payload_requests_logs e payload_assessment_logs tabelas.
Em vez disso, o Databricks gera visões sobre suas tabelas de carga que fornecem os mesmos dados formatados. Você tem duas opções para acessar esses dados. Use as exibições fornecidas ou crie exibições materializadas.
Opção 1: Usar as exibições fornecidas
O método mais simples é usar as exibições geradas payload_request_logs_view e payload_assessment_logs_view no lugar das tabelas preteridas.
Essas exibições consultam a tabela de conteúdo para fornecer os mesmos dados formatados e funcionam imediatamente sem nenhuma configuração necessária.
Opcionalmente, renomeie as exibições para corresponder aos nomes de tabela originais para minimizar as alterações de código.
Opção 2: Criar exibições materializadas
As exibições fornecidas (payload_request_logs_view e payload_assessment_logs_view) processam dados em tempo real consultando a tabela de carga útil. Para cenários que exigem tabelas Delta físicas, como monitoramento em tempo real, crie exibições materializadas.
Execute o seguinte notebook para converter suas exibições em exibições materializadas:
Criar visões materializadas para logs de agentes de inferência
Perguntas frequentes
O que acontece com os dados em meus logs de solicitação e logs de avaliação existentes?
Os dados existentes nas tabelas de inferência continuarão acessíveis. No entanto, após 4 de dezembro de 2025, nenhum novo dado será adicionado às tabelas request_logs e assessment_logs.
A implantação do meu agente falha?
Não, as implantações de agente antigas continuam funcionando e as tabelas de inferência de conteúdo continuam a ser preenchidas. No entanto, após as datas de descontinuação, você não receberá dados nas tabelas request_logs e assessment_logs. Use as exibições fornecidas ou migre para o MLflow 3 para manter a funcionalidade equivalente.
Se você precisar de assistência com a migração, entre em contato com sua equipe de suporte do Databricks.