Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Esses recursos e aprimoramentos da plataforma Azure Databricks foram lançados em outubro de 2025.
Observação
Os lançamentos são realizados de forma faseada. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.
O conector de ingestão Salesforce suporta rastreamento de histórico (SCD tipo 2)
31 de outubro de 2025
Por padrão, o rastreamento de histórico está desligado (SCD tipo 1) para conectores geridos no Lakeflow Connect. Esta configuração sobrescrive registos desatualizados à medida que são atualizados e eliminados na fonte. Agora pode ativar o rastreamento de histórico (SCD tipo 2) para manter o registo dessas alterações. Ver configuração do Salesforce.
O modo de agente do Databricks Assistant agora pode utilizar modelos disponibilizados pelo Anthropic no Databricks
31 de outubro de 2025
O modo de agente Databricks Assistant agora pode usar modelos servidos por meio do Anthropic no Databricks quando os recursos de IA alimentados por parceiros estão ativados. O Anthropic on Databricks usa endpoints hospedados pela Databricks Inc., na AWS, dentro do perímetro de segurança Databricks.
Ignorar células ao executar blocos de notas
31 de outubro de 2025
Agora pode ignorar células individuais ao executar várias células num notebook usando o %skip comando mágico. Adicione %skip no início de qualquer célula que pretenda ignorar. Consulte Executar blocos de anotações Databricks.
Experiência melhorada do depurador de notebooks
31 de outubro de 2025
O depurador interativo do notebook Python agora suporta depuração de vários arquivos. Você pode definir pontos de interrupção e entrar em funções em vários arquivos de espaço de trabalho. O depurador abre automaticamente o ficheiro num novo separador quando se avança para dentro dele. Essa melhoria facilita a depuração de código que abrange vários arquivos em seu espaço de trabalho.
Consulte Entrar em arquivos de espaço de trabalho.
Novo formulário de política de computação agora está disponível para o público em geral
Outubro 29, 2025
O novo formulário de política de computação agora está disponível para o público em geral. O novo formulário permite configurar definições de política usando menus pendentes e outros elementos da interface de utilizador. Isso significa que os administradores podem escrever políticas sem ter que aprender ou fazer referência à sintaxe da política.
Consulte Criar e gerenciar políticas de computação e Referência de política de computação.
Agent Bricks: Multi-Agent Supervisor agora suporta funções do Unity Catalog e servidores MCP externos
Outubro 29, 2025
Use Agent Bricks: Multi-Agent Supervisor para criar um sistema de supervisor que coordene Genie Spaces, pontos de extremidade de agente e ferramentas para trabalhar em conjunto para concluir tarefas complexas em diferentes domínios especializados. Agora você pode fornecer as ferramentas do sistema supervisor, como funções do Catálogo Unity e servidores MCP externos. O agente supervisor delegará tarefas relevantes a essas ferramentas.
Consulte Use Agent Bricks: Supervisor Multiagente para criar um sistema multiagente coordenado.
Modelo de feedback descontinuado para agentes de IA
Outubro 29, 2025
O modelo de feedback experimental para agentes de IA foi preterido. A partir de 1º de novembro de 2025, os agentes recém-implantados não incluirão um modelo de feedback. Atualize para o MLflow 3 e use a log_feedback API para coletar avaliações sobre rastreamentos de agentes. Consulte Modelo de feedback (preterido).
Logs de solicitação e tabelas de logs de avaliação preteridos
Outubro 29, 2025
As payload_request_logs tabelas e payload_assessment_logs foram preteridas. A partir de 1º de novembro de 2025, os agentes recém-implantados não terão essas tabelas. A partir de 15 de novembro de 2025, as tabelas existentes não serão preenchidas com novos dados. Atualize para o MLflow 3 para rastreamento em tempo real ou use as visualizações fornecidas. Consulte Tabelas de inferência do agente: logs de solicitação e avaliação (preterido).
A computação sem servidor foi atualizada para a versão 17.3
Outubro 28, 2025
O tempo de execução de computação sem servidor foi atualizado para a versão 17.3. Consulte a versão 17.3 para obter mais detalhes.
Driver JDBC Databricks 2.7.5
Outubro 23, 2025
O Databricks JDBC Driver (Simba) versão 2.7.5 agora está disponível com as seguintes melhorias:
Novas funcionalidades
O conector agora suporta Kerberos com conexões proxy. Para habilitar o proxy Kerberos, defina UseProxy=1 e ProxyAuth=2. Para definir detalhes de proxy, use ProxyHost, ProxyPort, ProxyKrbRealm, ProxyKrbFQDNe ProxyKrbService.
Problemas resolvidos
- Corrigido um problema em que o conector não conseguia executar consultas complexas que continham
?caracteres no modo nativo. - Corrigidas falhas intermitentes na ingestão de volume do Unity Catalog causadas pelo comportamento inesperado do conector.
- Corrigido um erro de asserção no
getColumnsquando uma tabela incluía uma coluna do tipoVoidouVariante ojava -eaflag estava habilitado.
Conector Zerobus Ingest no Lakeflow Connect (Visualização pública)
Outubro 23, 2025
O conector Zerobus Ingest no Lakeflow Connect está disponível em visualização pública. Esse conector permite a ingestão de dados registro a registro diretamente em tabelas Delta usando uma API gRPC. Consulte Visão geral do conector Zerobus Ingest.
ai_parse_document (Pré-visualização Pública)
Outubro 23, 2025
ai_parse_document está agora disponível em Pré-visualização Pública. Consulte a função ai_parse_document.
Comportamento de arraste de coluna atualizado
Outubro 22, 2025
Quando se tenta remover uma coluna que tem uma ou mais tags geridas atribuídas, a operação falha agora. Para remover uma coluna etiquetada, deve-se primeiro remover todas as tags controladas dela. Consulte Eliminar uma coluna com tags governadas.
Databricks Runtime 17.3 LTS está agora GA
Outubro 22, 2025
O Databricks Runtime 17.3 LTS agora está disponível para o público em geral. Consulte Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS para Aprendizagem Automática.
Modo de Compatibilidade (Pré-visualização Pública)
Outubro 21, 2025
O Modo de Compatibilidade está agora em Pré-visualização Pública. O Modo de Compatibilidade gera uma versão somente leitura de uma tabela gerenciada pelo Unity Catalog, tabela de streaming ou exibição materializada que é sincronizada automaticamente com a tabela original. Isso permite que clientes externos Delta Lake e Iceberg, como Amazon Athena, Snowflake e Microsoft Fabric, leiam suas tabelas e exibições sem sacrificar o desempenho no Azure Databricks. Você pode configurar a frequência com que suas versões somente leitura são atualizadas, quase em tempo real.
Consulte Modo de compatibilidade.
Zstd agora é a compactação padrão para novas tabelas gerenciadas
Outubro 21, 2025
Todas as tabelas gerenciadas recém-criadas no Databricks Runtime 16.0 e superior agora usam a compactação Zstandard (Zstd) por padrão em vez do Snappy.
As tabelas existentes continuam a usar o seu codec de compressão atual. Para alterar o codec de compressão de uma tabela existente, defina a propriedade da tabela delta.parquet.compression.codec. Consulte Referência de propriedades da Tabela Delta.
Atualizações de manutenção do Databricks Runtime (21/10)
Outubro 21, 2025
Novas atualizações de manutenção estão disponíveis para versões suportadas do Databricks Runtime. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte Atualizações de manutenção do Databricks Runtime.
Lista de execuções unificada (Visualização pública)
Outubro 20, 2025
A lista de execuções unificadas está em Visualização pública. Monitore as execuções de trabalho e pipeline em uma única lista unificada.
Consulte Que alterações estão na pré-visualização da Lista de Execuções Unificadas?.
O Databricks Connector for Google Sheets oferece recursos adicionais (Visualização pública)
Outubro 17, 2025
O Databricks Connector for Google Sheets apresenta opções melhoradas de gestão de consultas. Os usuários podem salvar consultas em uma planilha do Planilha Google, facilitando a atualização de dados, a reutilização de consultas e a edição de consultas.
Consulte Conectar-se ao Azure Databricks a partir de Google Sheets.
Marcação de espaços Dashboard e Genie (Visualização pública)
Outubro 16, 2025
Agora você pode adicionar tags a painéis e espaços Genie para melhorar a organização em seu espaço de trabalho. As tags podem ser usadas para automação. Por exemplo, você pode marcar um painel como "Trabalho em andamento" e um processo noturno pode recuperar automaticamente todos os painéis com essa tag usando a API e atribuí-los ao depósito temporário até que sejam marcados como "Certificados". A pesquisa não é suportada usando tags de painel.
Consulte Gerenciar tags do painel e Adicionar tags.
Os trabalhos agora podem ser acionados na atualização da tabela de origem
Outubro 16, 2025
Agora você pode criar gatilhos para que os trabalhos sejam executados quando uma tabela de origem for atualizada. Consulte Acionar trabalhos quando as tabelas de origem são atualizadas.
Databricks Asset Bundles no espaço de trabalho é GA
Outubro 16, 2025
O Databricks Asset Bundles no espaço de trabalho agora está disponível ao público em geral (GA). Esse recurso permite que você colabore com outros usuários em sua organização para editar, confirmar, testar e implantar atualizações de pacote por meio da interface do usuário.
Veja Colaborar em pacotes no espaço de trabalho.
Servidor SQL MCP agora disponível (Beta)
Outubro 10, 2025
O Databricks agora fornece um servidor MCP gerenciado por SQL que permite que agentes de IA executem consultas SQL diretamente em tabelas do Catálogo Unity usando armazéns SQL. O servidor SQL MCP está disponível em:https://<workspace-hostname>/api/2.0/mcp/sql. Consulte Usar servidores MCP gerenciados pelo Databricks.
O SAP Business Data Cloud (BDC) Connector for Azure Databricks está disponível em geral
15 de outubro de 2025
O SAP BDC Connector permite o compartilhamento seguro de dados de cópia zero entre o SAP BDC e um espaço de trabalho do Azure Databricks habilitado para Unity Catalog. Acesse e analise dados do SAP BDC no Azure Databricks e compartilhe ativos de dados do Azure Databricks de volta ao SAP BDC para análise unificada em ambas as plataformas.
Consulte Compartilhar dados entre o SAP Business Data Cloud (BDC) e o Azure Databricks.
Criar execuções de tarefas de preenchimento
Outubro 14, 2025
Os preenchimentos de trabalho permitem acionar execuções de trabalho para preencher dados do passado. Isso é útil para carregar dados mais antigos ou reparar dados quando há falhas no processamento. Para obter mais detalhes, consulte Tarefas de preenchimento.
Comportamento de escalonamento automático melhorado para o Mosaic AI Model Serving
Outubro 13, 2025
O dimensionamento automático no Mosaic AI Model Serving foi ajustado para ignorar picos de tráfego extremamente breves e, em vez disso, responder apenas a aumentos sustentados de carga. Essa alteração evita o dimensionamento de simultaneidade provisionado desnecessário durante picos momentâneos e reduz os custos de serviço sem afetar o desempenho ou a confiabilidade.
Classificação de dados (Visualização pública)
Outubro 13, 2025
A Classificação de Dados do Databricks agora está em Visualização Pública e oferece suporte a todos os tipos de catálogo, consolida todos os resultados de classificação em uma única tabela do sistema e uma nova interface do usuário para revisar e marcar automaticamente as classificações. Consulte Classificação de dados.
O apoio multimodal já está disponível
Outubro 13, 2025
O Mosaic AI Model Serving agora suporta entradas multimodais para modelos de base hospedados pelo Databricks. Consulte Modelos de visão de consulta.
Este apoio multimodal está disponível através das seguintes funcionalidades:
- Pagamento por token de APIs do Modelo de Base.
- Taxa de transferência provisionada de APIs do Modelo Fundamental.
- Funções de IA. Cargas de trabalho de inferência em tempo real e inferência em lote.
Controle de ingresso baseado em contexto (Beta)
9 de outubro de 2025
O controle de entrada baseado em contexto agora está em Beta. Isso permite que os administradores de conta definam regras de permissão e negação que combinam quem está chamando, de onde estão chamando e o que podem alcançar no Azure Databricks. O controle de entrada baseado no contexto garante que apenas combinações confiáveis de identidade, tipo de solicitação e fonte de rede possam chegar ao seu espaço de trabalho. Uma única política pode governar vários espaços de trabalho, garantindo uma aplicação consistente em toda a sua organização.
Consulte Controle de entrada baseado no contexto.
A tabela de uso faturável agora registra o modo de desempenho de trabalhos e pipelines sem servidor
9 de outubro de 2025
Os registos de faturação agora registram o modo de performance de trabalhos e pipelines sem servidor. O modo de desempenho da carga de trabalho é registrado na product_features.performance_target coluna e pode incluir valores de PERFORMANCE_OPTIMIZED, STANDARDou null.
Para referência do registo de faturamento, consulte Referência da tabela do sistema de uso faturável.
Atualizações de manutenção do Databricks Runtime (10/07)
Outubro 7, 2025
Novas atualizações de manutenção estão disponíveis para versões suportadas do Databricks Runtime. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte Atualizações de manutenção do Databricks Runtime.
Git privado sem servidor (Visualização pública)
Outubro 6, 2025
Agora você pode conectar um espaço de trabalho Databricks a um servidor Git privado usando computação sem servidor e o Azure Private Link.
Veja Introdução ao Azure Databricks Serverless Private Git
Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS ML estão em Beta
Outubro 6, 2025
Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS ML estão agora em Beta, alimentado pelo Apache Spark 4.0.0. A versão inclui novas opções de configuração, tratamento de erros aprimorado e suporte aprimorado ao Spark Connect.
Consulte Databricks Runtime 17.3 LTS e Databricks Runtime 17.3 LTS para Aprendizagem Automática.
Os metadados da partição estão geralmente disponíveis
Outubro 6, 2025
Agora você pode habilitar o registro de metadados de partição, uma estratégia de descoberta de partição para tabelas externas registradas no Unity Catalog. Consulte Usar registro de metadados de partição.
Os destinatários do Compartilhamento Delta podem aplicar filtros de linha e máscaras de coluna (GA)
Outubro 6, 2025
Os destinatários do Compartilhamento Delta agora podem aplicar seus próprios filtros de linha e máscaras de colunas em tabelas compartilhadas e tabelas estrangeiras compartilhadas. No entanto, os provedores de Compartilhamento Delta ainda não podem compartilhar ativos de dados que tenham segurança em nível de linha ou máscaras de coluna.
Para obter detalhes, consulte Aplicar filtros de linha e máscaras de coluna.
A etiqueta de estado do sistema de certificação está na Pré-visualização Pública
Outubro 6, 2025
Agora você pode aplicar a tag governada system.certification_status a catálogos, esquemas, tabelas, exibições, volumes, painéis, modelos registrados e Genie Spaces para indicar se um ativo de dados é certificado ou preterido. Isso melhora a governança, a capacidade de descoberta e a confiança em análises e cargas de trabalho de IA. Consulte Sinalizar dados como certificados ou preteridos.
O armazenamento em cache de prompt agora é suportado para os modelos Claude
3 de outubro de 2025
O cache de prompt agora é suportado para modelos Claude hospedados pelo Databricks. Você pode especificar o cache_control parâmetro em suas solicitações de consulta para armazenar em cache o seguinte:
- Pensando no conteúdo das mensagens no array
messages.content. - Blocos de conteúdo de imagens na matriz
messages.content. - Uso da ferramenta
tools, resultados e definições no array.
Consulte a referência da API REST do modelo base.
Anthropic Claude Sonnet 4.5 agora disponível como um modelo hospedado pelo Databricks
3 de outubro de 2025
O Mosaic AI Model Serving agora suporta o Anthropic Claude Sonnet 4.5 como um modelo hospedado no Databricks. Você pode acessar esse modelo usando APIs de modelo de base pay-per-token.
Os recursos de computação sem servidor agora oferecem suporte à conformidade PCI-DSS em australia-east
3 de outubro de 2025
Agora, a conformidade com o PCI-DSS pode ser imposta no plano informático sem servidor no australia-east. Consulte PCI DSS v4.0.
Melhorias no notebook
3 de outubro de 2025
As seguintes melhorias no notebook já estão disponíveis:
- O minimapa de execução de células agora aparece na margem direita dos cadernos de notas. Utilize o minimapa para obter uma visão geral do estado de execução do seu notebook e navegar rapidamente entre as células. Consulte Minimapa de execução de células.
- Use o Assistente Databricks para ajudar a diagnosticar e corrigir erros de ambiente, incluindo erros de instalação da biblioteca. Consulte Depurar erros de ambiente.
- Ao se reconectar a notebooks sem servidor, as sessões são automaticamente restauradas com as variáveis Python e o estado Spark do notebook. Consulte Restauração automatizada de sessão para notebooks sem servidor.
- A conclusão da criação do Pyspark agora suporta
agg,withColumns,withColumnsRenamed, efilter/wherecláusulas. Consulte Visualizar sugestões de código em linha: exemplos de Python e SQL. - O Databricks agora suporta a importação e exportação de notebooks IPYNB de até 100 MB. O salvamento automático de instantâneos de revisão, o salvamento manual e a clonagem são suportados para todos os notebooks de até 100 MB. Consulte Dimensionamento de notebooks.
- Ao clonar e exportar notebooks, agora pode escolher se deseja incluir saídas de célula ou não. Consulte Gerir formato de bloco de notas.
Anthropic Claude Sonnet 4 está disponível para inferencia em lote em regiões dos Estados Unidos
3 de outubro de 2025
O Mosaic AI Model Serving agora suporta o Anthropic Claude Sonnet 4 para fluxos de trabalho de inferência em lote. Agora você pode usar databricks-claude-sonnet-4 em suas ai_query solicitações para executar a inferência em lote.
- Consulte Usar ai_query com modelos de base para obter um exemplo.
- Consulte Modelos de base suportados no Mosaic AI Model Serving para disponibilidade da região.
Converter a tabela externa para a tabela gerida pelo Unity Catalog
Outubro 2, 2025
O ALTER TABLE ... SET MANAGED comando agora está disponível para o público em geral. Este comando converte perfeitamente tabelas externas do Unity Catalog em tabelas gerenciadas. Ele permite que você aproveite ao máximo os recursos de tabela gerenciada do Unity Catalog, como governança, confiabilidade e desempenho aprimorados. Consulte Converter uma tabela externa em uma tabela gerenciada do Catálogo Unity.
Configuração de e-mail de identidade do Git para diretórios Git
1 de outubro de 2025
Agora você pode especificar um endereço de e-mail do provedor Git, separado do seu nome de usuário, ao criar credenciais Git para pastas Git Databricks. Este email é usado como a identidade de autor e committer do Git para todos os commits feitos através de pastas Git, garantindo a atribuição correta no seu provedor de Git e melhor integração com a sua conta Git.
O e-mail que você fornece torna-se o GIT_AUTHOR_EMAIL e GIT_COMMITTER_EMAIL para commits, permitindo que os provedores do Git associem adequadamente commits à sua conta de usuário e exibam suas informações de perfil. Se nenhum e-mail for especificado, o Databricks usará seu nome de usuário do Git como o endereço de e-mail (comportamento herdado).
Consulte Configuração de identidade e e-mail de confirmação do Git.
Configurar políticas de serviço de rede virtual do Azure para acesso ao armazenamento (Visualização Pública)
1 de outubro de 2025
Use as políticas de ponto de extremidade do serviço de rede virtual do Azure para filtrar o tráfego de saída do plano de computação clássico, garantindo que as conexões sejam feitas apenas para contas específicas do Armazenamento do Azure. Consulte Configurar políticas de ponto de extremidade do serviço de rede virtual do Azure para acesso ao armazenamento a partir da computação clássica.
Novas permissões para o aplicativo Databricks GitHub
1 de outubro de 2025
Se você possui uma conta do Azure Databricks com o aplicativo GitHub do Azure Databricks instalado, poderá receber um email intitulado "O Databricks está solicitando permissões atualizadas" do GitHub.
Este é um pedido legítimo da Databricks. Ele solicita que lhe aprove uma nova permissão que permita ao Azure Databricks ler o(s) e-mail(s) da sua conta do GitHub. Conceder essa permissão permitirá que o Azure Databricks recupere e salve seu email principal da conta do GitHub em sua credencial Git Vinculada no Azure Databricks. Em um recurso futuro, isso garantirá que as confirmações feitas a partir do Azure Databricks sejam vinculadas corretamente à sua identidade do GitHub.
Se você não aceitar a nova permissão, sua credencial Git Vinculada ainda será autenticada com o GitHub. No entanto, confirmações futuras dessa credencial não serão associadas à identidade da sua conta do GitHub