Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Esses recursos e melhorias na plataforma do Azure Databricks foram lançados em outubro de 2025.
Observação
As liberações são disponibilizadas em fases. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.
O conector de ingestão do Salesforce dá suporte ao rastreio histórico (SCD tipo 2)
31 de outubro de 2025
Por padrão, o controle de histórico está desativado (SCD tipo 1) para conectores gerenciados no Lakeflow Connect. Essa configuração substitui registros desatualizados à medida que são atualizados e excluídos na origem. Agora você pode habilitar o controle de histórico (SCD tipo 2) para manter um histórico dessas alterações. Consulte a configuração do Salesforce.
O modo de agente assistente do Databricks agora pode usar modelos servidos por meio do Antropic no Databricks
31 de outubro de 2025
O modo de agente assistente do Databricks agora pode usar modelos servidos por meio do Anthropic no Databricks quando os recursos de IA impulsionados por parceiros estão ativados. Antropic no Databricks usa endpoints hospedados por Databricks Inc. na AWS dentro do perímetro de segurança do Databricks.
Ignorar células ao executar notebooks
31 de outubro de 2025
Agora você pode ignorar células individuais ao executar várias células em um notebook usando o %skip comando mágico. Adicione %skip no início de qualquer célula que você deseja ignorar. Consulte a seção Executar notebooks do Databricks.
Experiência aprimorada do debugger de notebook
31 de outubro de 2025
O depurador interativo do notebook Python agora dá suporte à depuração de vários arquivos. Você pode definir pontos de interrupção e intervir em funções em vários arquivos de workspace. O depurador abre automaticamente o arquivo em uma nova guia quando você o acessa. Essa melhoria facilita a depuração de código que abrange vários arquivos em seu workspace.
Confira a etapa sobre arquivos de workspace.
O novo formulário de política de computação agora está disponível em geral
29 de outubro de 2025
O novo formulário de política de computação agora está disponível em geral. O novo formulário permite que você configure opções de política usando menus suspensos e outros elementos da interface. Isso significa que os administradores podem escrever políticas sem precisar aprender ou referenciar a sintaxe da política.
Consulte Criar e gerenciar políticas de computação e referência de política de computação.
Agent Bricks: o Supervisor Multi-Agente agora oferece suporte às funções do Unity Catalog e a servidores MCP externos
29 de outubro de 2025
Use o Agent Bricks: Supervisor Multi-Agent para criar um sistema supervisor que coordene Genie Spaces, endpoints de agentes e ferramentas, permitindo que trabalhem em conjunto e concluam tarefas complexas em diversos domínios especializados. Agora você pode fornecer as ferramentas do sistema supervisor, como funções do Catálogo do Unity e servidores MCP externos. O agente supervisor delegará tarefas relevantes a essas ferramentas.
Consulte Usar o Agent Bricks: supervisor multiagente para criar um sistema coordenado de vários agentes.
Modelo de feedback obsoleto para agentes de IA
29 de outubro de 2025
O modelo experimental de feedback para agentes de IA foi descontinuado. A partir de 1º de novembro de 2025, os agentes recém-implantados não incluirão um modelo de feedback. Atualize para o MLflow 3 e use a log_feedback API para coletar avaliações sobre rastreamentos de agente. Consulte o modelo de Feedback (obsoleto).
Logs de solicitação e tabelas de logs de avaliação obsoletas
29 de outubro de 2025
As tabelas payload_request_logs e payload_assessment_logs estão obsoletas. A partir de 1º de novembro de 2025, os agentes recém-implantados não terão essas tabelas. A partir de 15 de novembro de 2025, as tabelas existentes não serão preenchidas com novos dados. Atualize para o MLflow 3 para rastreamento em tempo real ou use as exibições fornecidas. Consulte Tabelas de inferência do Agente: logs de solicitação e avaliação (descontinuados).
A computação sem servidor foi atualizada para a versão 17.3
28 de outubro de 2025
O runtime de computação sem servidor foi atualizado para a versão 17.3. Consulte a versão 17.3 para obter mais detalhes.
Databricks JDBC Driver 2.7.5
23 de outubro de 2025
O Databricks JDBC Driver (Simba) versão 2.7.5 agora está disponível com as seguintes melhorias:
Novos recursos
O conector agora dá suporte a Kerberos com conexões de proxy. Para habilitar o proxy Kerberos, defina UseProxy=1 e ProxyAuth=2. Para definir detalhes do proxy, use ProxyHost, ProxyPort, ProxyKrbRealm, ProxyKrbFQDNe ProxyKrbService.
Problemas resolvidos
- Correção de um problema em que o conector não executava consultas complexas que continham
?caracteres no modo nativo. - Correção de falhas intermitentes na ingestão de volume do Catálogo do Unity causadas pelo comportamento inesperado do conector.
- Corrigido um erro de asserção em
getColumnsquando uma tabela incluía uma coluna do tipoVoidouVariante o sinalizadorjava -eaestava ativado.
Conector de Ingestão Zerobus no Lakeflow Connect (Versão Prévia Pública)
23 de outubro de 2025
O conector Zerobus Ingest no Lakeflow Connect está em Versão Prévia Pública. Esse conector permite a ingestão de dados registro por registro diretamente em tabelas Delta usando uma API gRPC. Confira a visão geral do conector Zerobus Ingest.
ai_parse_document (Versão prévia pública)
23 de outubro de 2025
ai_parse_document agora está disponível na Visualização Pública. Veja a ai_parse_document função.
Comportamento de liberação da coluna atualizado
22 de outubro de 2025
Quando você tenta remover uma coluna que tem uma ou mais marcas governadas atribuídas, a operação agora falha. Para remover uma coluna marcada, primeiro você deve remover todas as tags governadas na coluna. Consulte Excluir uma coluna com tags controladas.
O Databricks Runtime 17.3 LTS agora está em Disponibilidade Geral (GA)
22 de outubro de 2025
O Databricks Runtime 17.3 LTS agora está disponível em geral. Consulte Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS para Aprendizado de Máquina.
Modo de compatibilidade (versão prévia pública)
21 de outubro de 2025
O Modo de Compatibilidade agora está na Versão Prévia Pública. O Modo de Compatibilidade gera uma versão somente leitura de uma tabela gerenciada no Unity Catalog, uma tabela de streaming ou uma exibição materializada que é sincronizada automaticamente com a tabela original. Isso permite que clientes externos do Delta Lake e do Iceberg, como Amazon Athena, Snowflake e Microsoft Fabric, leiam suas tabelas e exibições sem sacrificar o desempenho no Azure Databricks. Você pode configurar a frequência com que as versões somente leitura são atualizadas, até quase em tempo real.
Consulte o Modo de Compatibilidade.
O Zstd agora é a compactação padrão para novas tabelas gerenciadas
21 de outubro de 2025
Todas as tabelas gerenciadas recém-criadas no Databricks Runtime 16.0 e superior agora usam compactação Zstandard (Zstd) por padrão em vez de Snappy.
As tabelas existentes continuam a usar o codec de compactação atual. Para alterar o codec de compactação de uma tabela existente, defina a propriedade delta.parquet.compression.codec da tabela. Consulte a referência de propriedades da tabela Delta.
Atualizações de manutenção do Databricks Runtime (21/10)
21 de outubro de 2025
Novas atualizações de manutenção estão disponíveis para versões do Databricks Runtime com suporte. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte atualizações de manutenção do Databricks Runtime.
Lista de execuções unificadas (Visualização Pública)
20 de outubro de 2025
A lista de execuções unificadas está na Visualização Pública. Monitore as execuções de trabalho e pipeline em uma única lista unificada.
Veja quais são as alterações na versão prévia da Lista de Execuções Unificadas?.
O Conector do Databricks para Google Sheets oferece recursos adicionais (Visualização Pública)
17 de outubro de 2025
O Conector do Databricks para Google Sheets apresenta opções de gerenciamento de consulta aprimoradas. Os usuários podem salvar consultas em uma planilha do Google Sheet, permitindo uma atualização de dados fácil, reutilização de consulta e edição de consulta.
Confira Conectar-se ao Azure Databricks do Google Sheets.
Marcação de espaços de Dashboard e Genie (Visualização Pública)
16 de outubro de 2025
Agora você pode adicionar tags a dashboards e espaços do Genie para melhorar a organização em sua área de trabalho. As marcas podem ser usadas para automação. Por exemplo, você pode marcar um painel como "Trabalho em andamento", e um processo durante a noite pode recuperar automaticamente todos os painéis com essa marca usando a API e atribuí-los ao armazém temporário até que eles sejam marcados como "Certificados". Não há suporte para pesquisa usando tags de dashboard.
Consulte Gerenciar etiquetas do painel e Adicionar etiquetas.
Os trabalhos agora podem ser disparados na atualização da tabela de origem
16 de outubro de 2025
Agora você pode criar gatilhos para que os trabalhos sejam executados quando uma tabela de origem for atualizada. Consulte trabalhos de gatilho quando as tabelas de origem são atualizadas.
Os Pacotes de Ativos do Databricks no workspace são GA
16 de outubro de 2025
Os Pacotes de Ativos do Databricks agora estão em disponibilidade geral (GA) no espaço de trabalho. Esse recurso permite que você colabore com outros usuários em sua organização para editar, confirmar, testar e implantar atualizações de pacote por meio da interface do usuário.
Consulte Colaborar em pacotes no workspace.
Servidor MCP do SQL agora disponível (Beta)
10 de outubro de 2025
O Databricks agora fornece um servidor MCP gerenciado por SQL que permite que agentes de IA executem consultas SQL diretamente em tabelas do Catálogo do Unity usando sql warehouses. O servidor MCP do SQL está disponível em:https://<workspace-hostname>/api/2.0/mcp/sql. Consulte Usar servidores MCP gerenciados do Databricks.
O Conector do SAP Business Data Cloud (BDC) para Azure Databricks está geralmente disponível
15 de outubro de 2025
O Conector SAP BDC possibilita o compartilhamento seguro de dados sem cópia entre o SAP BDC e um workspace do Azure Databricks habilitado para o Unity Catalog. Acesse e analise dados do SAP BDC no Azure Databricks e compartilhe ativos de dados do Azure Databricks de volta ao SAP BDC para análise unificada em ambas as plataformas.
Consulte Compartilhar dados entre o SAP Business Data Cloud (BDC) e o Azure Databricks.
Criar tarefas de backfill
14 de outubro de 2025
Os backfills de trabalho permitem disparar execuções de trabalho para preencher dados do passado. Isso é útil para carregar dados mais antigos ou reparar dados quando há falhas no processamento. Para obter mais detalhes, consulte Jobs de Backfill.
Melhor comportamento de dimensionamento automático para o Mosaic AI Model Serving
13 de outubro de 2025
O dimensionamento automático no Mosaic AI Model Serving foi ajustado para ignorar os picos de tráfego extremamente breves e, em vez disso, responder apenas a aumentos sustentados na carga. Essa alteração impede o dimensionamento desnecessário de simultaneidade provisionada durante intermitências momentâneas e reduz os custos de serviço sem afetar o desempenho ou a confiabilidade.
Classificação de dados (versão prévia pública)
13 de outubro de 2025
A Classificação de Dados do Databricks agora está em Pré-Visualização Pública, dá suporte a todos os tipos de catálogo, consolida todos os resultados de classificação em uma única tabela do sistema e possui uma nova interface do usuário para revisar e marcar classificações automaticamente. Veja Classificação de Dados.
O suporte multimodal agora está disponível
13 de outubro de 2025
O Mosaic AI Model Serving agora dá suporte a entradas multimodal para modelos de base hospedados pelo Databricks. Consulte modelos de visão de consulta.
Esse suporte multimodal está disponível usando as seguintes funcionalidades:
- APIs do Modelo de Fundação pagas por token.
- Capacidade de transferência provisionada de APIs do Modelo Fundamental.
- Funções de IA. Cargas de trabalho de inferência em tempo real e de inferência em lote.
Controle de entrada baseado em contexto (Beta)
9 de outubro de 2025
O controle de entrada baseado em contexto agora está em Beta. Isso permite que os administradores de conta definam regras de permissão e negação que combinem quem está chamando, de onde estão chamando e o que podem alcançar no Azure Databricks. O controle de entrada baseado em contexto garante que apenas combinações confiáveis de identidade, tipo de solicitação e fonte de rede possam alcançar seu workspace. Uma única política pode controlar vários workspaces, garantindo uma imposição consistente em toda a sua organização.
Consulte o controle de entrada baseado em contexto.
A tabela de uso faturável agora registra o modo de desempenho de pipelines e trabalhos sem servidor
9 de outubro de 2025
Os logs de cobrança agora registram o modo de desempenho de pipelines e trabalhos sem servidor. O modo de desempenho da carga de trabalho é registrado na product_features.performance_target coluna e pode incluir valores de PERFORMANCE_OPTIMIZED, STANDARDou null.
Para referência de registro de cobrança, consulte a tabela de uso faturável do sistema.
Atualizações de manutenção do Databricks Runtime (07/10)
7 de outubro de 2025
Novas atualizações de manutenção estão disponíveis para versões do Databricks Runtime com suporte. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte atualizações de manutenção do Databricks Runtime.
Git privado sem servidor (Visualização Pública)
6 de outubro de 2025
Agora você pode conectar um workspace do Databricks a um servidor Git privado usando a computação sem servidor e o Link Privado do Azure.
Confira Introdução ao Git Privado sem Servidor do Azure Databricks
Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS ML estão em Beta
6 de outubro de 2025
O Databricks Runtime 17.3 LTS e o Databricks Runtime 17.3 LTS ML agora estão em Beta, com o Apache Spark 4.0.0. A versão inclui novas opções de configuração, tratamento aprimorado de erros e suporte aprimorado ao Spark Connect.
Consulte Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS para Aprendizado de Máquina.
Metadados de partição geralmente estão disponíveis
6 de outubro de 2025
Agora você pode habilitar o log de metadados de partição, uma estratégia de descoberta de partição para tabelas externas registradas no Catálogo do Unity. Consulte Usar registro em log de metadados de partição.
Os destinatários de compartilhamento Delta podem aplicar filtros de linha e máscaras de coluna (GA)
6 de outubro de 2025
Os destinatários do Delta Sharing agora podem aplicar seus próprios filtros de linha e máscaras de colunas em tabelas compartilhadas e tabelas externas compartilhadas. No entanto, os provedores de compartilhamento Delta ainda não podem compartilhar ativos de dados que tenham segurança em nível de linha ou máscaras de coluna.
Para obter detalhes, consulte Aplicar filtros de linha e máscaras de coluna.
A etiqueta do status de certificação está em Pré-visualização Pública
6 de outubro de 2025
Agora você pode aplicar a system.certification_status marca governada a catálogos, esquemas, tabelas, visões, volumes, dashboards, modelos registrados e Genie Spaces para indicar se um ativo de dados está certificado ou descontinuado. Isso melhora a governança, a descoberta e a confiança em cargas de trabalho de análise e IA. Veja Marcar os dados como certificados ou obsoletos.
O cache de prompt agora tem suporte para modelos claude
3 de outubro de 2025
O cache de prompt agora tem suporte para modelos Claude hospedados pelo Databricks. Você pode especificar o cache_control parâmetro em suas solicitações de consulta para armazenar em cache o seguinte:
- Conteúdo de mensagens de pensamento na
messages.contentmatriz. - Blocos de conteúdo de imagens na
messages.contentmatriz. - Uso de ferramentas, resultados e definições na
toolsmatriz.
Consulte Referência da API REST do modelo Foundation.
Antropic Claude Sonnet 4.5 agora disponível como um modelo hospedado pelo Databricks
3 de outubro de 2025
O Mosaic AI Model Serving agora dá suporte ao Anthropic Claude Sonnet 4.5 como um modelo hospedado pelo Databricks. Você pode acessar esse modelo usando APIs do Foundation Model pagas por token.
Agora, os recursos de computação sem servidor dão suporte à conformidade PCI-DSS em australia-east
3 de outubro de 2025
A conformidade com o PCI-DSS agora pode ser imposta no plano de computação sem servidor em australia-east. Consulte PCI DSS v4.0.
Melhorias no notebook
3 de outubro de 2025
As seguintes melhorias do notebook agora estão disponíveis:
- O minimapa de execução da célula agora aparece na margem direita dos notebooks. Use o minimapa para obter uma visão geral visual do estado de execução do notebook e rapidamente navegar entre as células. Consulte o minimapa de execução da célula.
- Use o Assistente do Databricks para ajudar a diagnosticar e corrigir erros de ambiente, incluindo erros de instalação da biblioteca. Consulte erros de ambiente de depuração.
- Ao se reconectar a notebooks sem servidor, as sessões são restauradas automaticamente com as variáveis Python do notebook e o estado do Spark. Consulte a restauração de sessão automatizada para notebooks sem servidor.
- Agora, a conclusão da autoria do Pyspark dá suporte às cláusulas
agg,withColumns,withColumnsRenamed,filter, / ewhere. Veja Consulte sugestões de código inline: exemplos de Python e SQL. - O Databricks agora dá suporte à importação e exportação de notebooks IPYNB de até 100 MB. Há suporte para salvamento automático de instantâneos de revisão, salvamento manual e clonagem de todos os notebooks de até 100 MB. Consulte o dimensionamento do Bloco de Anotações.
- Ao clonar e exportar notebooks, agora você pode escolher se deseja incluir saídas de célula ou não. Consulte Gerenciar formato de bloco de anotações.
O Antropic Claude Sonnet 4 está disponível para inferência em lotes em regiões dos EUA
3 de outubro de 2025
O Mosaic AI Model Serving agora dá suporte ao Antropic Claude Sonnet 4 para fluxos de trabalho de inferência em lote. Agora você pode usar databricks-claude-sonnet-4 em suas ai_query solicitações para executar a inferência em lote.
- Consulte Usar ai_query com modelos de base para obter um exemplo.
- Consulte os modelos de fundação suportados no Mosaic AI Model Serving para disponibilidade por região.
Converter a tabela externa em tabela gerenciada do Unity Catalog
2 de outubro de 2025
O ALTER TABLE ... SET MANAGED comando agora está disponível em geral. Esse comando converte perfeitamente tabelas externas do Catálogo do Unity em tabelas gerenciadas. Ele permite que você aproveite ao máximo os recursos de tabela gerenciada do Catálogo do Unity, como governança, confiabilidade e desempenho aprimorados. Consulte Converter uma tabela externa em uma tabela gerenciada do Catálogo do Unity.
Configuração de Identidade de Email para Pastas do Git
1º de outubro de 2025
Agora você pode especificar um endereço de email do provedor Git, separado do nome de usuário, ao criar credenciais do Git para pastas Git do Databricks. Esse email é usado como a identidade de autor e confirmação do Git para todas as confirmações feitas por meio de pastas Git, garantindo a atribuição adequada em seu provedor Git e uma melhor integração com sua conta do Git.
O email que você fornece se torna o GIT_AUTHOR_EMAIL e GIT_COMMITTER_EMAIL para confirmações, permitindo que os provedores Git associem confirmações corretamente à sua conta de usuário e exibam suas informações de perfil. Se nenhum email for especificado, o Databricks usará seu nome de usuário git como o endereço de email (comportamento herdado).
Consulte a configuração de identidade e email de confirmação do Git.
Configurar políticas de serviço de rede virtual do Azure para acesso ao armazenamento (Visualização Pública)
1º de outubro de 2025
Use as políticas de ponto de extremidade de serviço de rede virtual do Azure para filtrar o tráfego de saída do plano de computação clássico, garantindo que as conexões sejam feitas apenas para contas específicas do Armazenamento do Azure. Consulte Configurar políticas de ponto de extremidade de serviço de rede virtual do Azure para acesso ao armazenamento a partir da computação clássica.
Novas permissões para o Aplicativo GitHub do Databricks
1º de outubro de 2025
Se você tiver uma conta do Azure Databricks com o aplicativo GitHub do Azure Databricks instalado, poderá receber um email intitulado "O Databricks está solicitando permissões atualizadas" do GitHub.
Essa é uma solicitação legítima do Databricks. Ele solicita que você aprove uma nova permissão que permita que o Azure Databricks leia seus emails de conta do GitHub. A concessão dessa permissão permitirá que o Azure Databricks recupere e salve seu email de conta principal do GitHub em sua credencial git vinculada no Azure Databricks. Em um recurso próximo, isso garantirá que as confirmações feitas do Azure Databricks estejam vinculadas corretamente à sua identidade do GitHub.
Se você não aceitar a nova permissão, sua credencial git vinculada ainda será autenticada com o GitHub. No entanto, confirmações futuras dessa credencial não serão associadas à sua identidade de conta do GitHub