Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Esses recursos e aprimoramentos da plataforma Azure Databricks foram lançados em setembro de 2025.
Observação
Os lançamentos são realizados de forma faseada. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.
A tabela de cronograma de atualização do pipeline já está disponível (Visualização pública)
30 de setembro de 2025
A system.lakeflow.pipeline_update_timeline tabela fornece acompanhamento histórico completo de atualizações de pipeline e oferece suporte a análises refinadas de atividade de atualização, gatilhos, resultados e uso de computação.
Consulte Tabela de esquema de cronologia de atualização de pipeline.
Tabela do sistema de classificação de dados Beta
30 de setembro de 2025
Uma nova tabela do sistema, system.data_classification.results, está agora disponível em versão Beta. Esta tabela captura deteções de dados confidenciais no nível da coluna em todos os catálogos habilitados em seu metastore.
Anthropic Claude Opus 4.1 agora disponível como um modelo de fundação hospedado pela Databricks
Setembro 29, 2025
O Mosaic AI Model Serving agora suporta o Claude Opus 4.1 da Anthropic, um modelo de fundação hospedado pela Databricks. Você pode acessar esse modelo usando APIs de modelo de base pay-per-token.
Lakeflow Pipelines Editor está agora em pré-visualização pública
Setembro 29, 2025
O Lakeflow Pipelines Editor (anteriormente chamado de editor de vários arquivos) está agora em pré-visualização pública. O Lakeflow Pipelines Editor mostra uma pipeline como um conjunto de ficheiros no navegador de ativos de pipeline. Você pode editar os arquivos e controlar a configuração do pipeline e quais arquivos incluir em um local. Isso também altera o formato de código-fonte padrão para pipelines de blocos de anotações para arquivos de código Python e SQL.
Consulte Desenvolver e depurar pipelines ETL com o Lakeflow Pipelines Editor.
Novo requisito para criar conexões para ingestão do Salesforce
Setembro 29, 2025
No início de setembro de 2025, o Salesforce começou a restringir o uso de aplicativos conectados desinstalados. Essa restrição não interrompe as conexões existentes do Unity Catalog com o Salesforce, mas impede que você crie uma conexão com uma nova instância do Salesforce sem o aplicativo conectado Databricks instalado.
Para obter informações detalhadas, consulte Preparar para alterações nas restrições de uso do aplicativo conectado na documentação do Salesforce.
Para conhecer as etapas para se conectar ao Salesforce, consulte Salesforce.
A migração dos pipelines do Lakeflow Spark Declarative Pipelines a partir do modo de publicação herdado está geralmente disponível.
Setembro 24, 2025
O Lakeflow Spark Declarative Pipelines tem um modo de publicação herdado que só permitia a publicação em um único catálogo e esquema. O modo de publicação padrão permite a publicação em vários catálogos e esquemas. A migração do modo de publicação herdado para o modo de publicação padrão agora está disponível em geral (os problemas encontrados na versão anterior desse recurso foram corrigidos).
Consulte Habilitar o modo de publicação padrão num pipeline.
Atualizações de manutenção do Databricks Runtime
Setembro 24, 2025
Novas atualizações de manutenção estão disponíveis para versões suportadas do Databricks Runtime. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte Atualizações de manutenção do Databricks Runtime.
O Mosaic AI Agent Framework suporta passagem de autenticação automática para recursos do Lakebase
Setembro 23, 2025
O Mosaic AI Agent Framework agora suporta passagem de autenticação automática para recursos do Lakebase. Isto requer MLFlow 3.3.2 ou superior.
Consulte Passagem de autenticação automática.
Endpoints otimizados para rota agora exigem caminho de URL otimizado para interrogação
Setembro 22, 2025
Todos os endpoints otimizados por rota recém-criados devem ser acessados usando a URL otimizada por rota. Consultas que utilizam o caminho de URL do espaço de trabalho padrão não são suportadas para endpoints otimizados por rota criados após 22 de setembro de 2025.
Consulte Pontos finais de serviço otimizados para rotas.
Explore os dados da tabela usando um Modelo de Linguagem Extenso (Pré-visualização Pública)
Setembro 22, 2025
Agora você pode fazer perguntas em linguagem natural sobre dados de exemplo usando o Catalog Explorer. O Assistente usa contexto de metadados e padrões de uso de tabela para gerar uma consulta SQL. Em seguida, você pode validar a consulta e executá-la na tabela subjacente. Consulte Explorar dados de tabela usando um LLM.
Databricks One em Pré-visualização Pública
Setembro 17, 2025
O Databricks One, uma interface de usuário simplificada projetada para usuários corporativos, agora está em visualização pública. O Databricks One fornece um ponto de entrada único e intuitivo para interagir com dados e IA no Databricks, sem exigir conhecimento técnico de recursos de computação, consultas, modelos ou notebooks.
Com o Databricks One, os utilizadores empresariais podem:
- Visualize e interaja com painéis de IA/BI para acompanhar KPIs e analisar métricas.
- Faça perguntas sobre dados em linguagem natural usando o AI/BI Genie.
- Use aplicativos Databricks personalizados que combinam análises, IA e fluxos de trabalho.
Os administradores do espaço de trabalho podem ativar o Databricks One na página Visualizações no console de administração.
Consulte O que é Databricks One?.
Descubra arquivos no Auto Loader de forma eficiente usando eventos de arquivo sem registro (Visualização pública)
Setembro 16, 2025
A cloudFiles.useManagedFileEvents opção com o Auto Loader está agora em Pré-visualização Pública sem restrições. Esta opção permite-lhe descobrir ficheiros de forma eficiente. Para obter detalhes, consulte o seguinte:
- (Pré-requisito) Habilitar eventos de arquivo para um local externo
- Modo de notificação de arquivo com e sem eventos de arquivo habilitados em locais externos
Databricks Runtime 17.2 está agora disponível para uso geral
Setembro 16, 2025
O Databricks Runtime 17.2 agora está disponível para o público em geral. Consulte Databricks Runtime 17.2.
Delta Sharing on Lakehouse Federation está em Beta
Setembro 16, 2025
Agora você pode usar o Compartilhamento Delta para compartilhar esquemas estrangeiros e tabelas criadas com federação de consultas no compartilhamento Databricks-to-Databricks e no compartilhamento aberto. Consulte Adicionar esquemas ou tabelas estrangeiros a um compartilhamento e Ler dados em uma tabela externa compartilhada ou esquema estrangeiro.
Monte as partilhas Delta num catálogo partilhado existente
12 de setembro de 2025
Os destinatários do Delta Sharing agora podem montar compartilhamentos recebidos de seu provedor Delta Sharing em um catálogo compartilhado existente. Anteriormente, os destinatários precisavam criar um novo catálogo para cada novo compartilhamento. Consulte Criar um catálogo a partir de um compartilhamento.
Conector de dados brutos do Google Analytics GA
10 de setembro de 2025
O conector de Dados Brutos do Google Analytics no Lakeflow Connect agora está disponível ao público. Consulte Configurar o Google Analytics 4 e o Google BigQuery para integração com Databricks.
Trabalhos sem servidor e pipelines configurados na interface do usuário agora são otimizados para desempenho por padrão
11 de setembro de 2025
Os trabalhos e pipelines sem servidor configurados na interface do usuário agora estão definidos como Desempenho otimizado por padrão. Isso alinha a interface do usuário com os padrões existentes em APIs, Terraform e SDKs. Para obter mais informações, consulte Modo de desempenho em trabalhos sem servidor e Modo de desempenho em pipelines sem servidor.
Fontes de dados personalizadas Python podem ser usadas com Lakeflow Spark Declarative Pipelines
10 de setembro de 2025
Pode usar fontes e recipientes de dados personalizados em Python nas suas definições de pipeline nas Lakeflow Spark Declarative Pipelines.
Para obter informações sobre fontes de dados personalizadas do Python, consulte o seguinte:
- Carregue dados de uma fonte de dados personalizada do Python.
- Crie uma pia.
- Fontes de dados personalizadas do PySpark.
O gerenciamento automático de identidades está disponível em geral
10 de setembro de 2025
O gerenciamento automático de identidades permite sincronizar usuários, entidades de serviço e grupos do Microsoft Entra ID no Azure Databricks sem configurar um aplicativo no Microsoft Entra ID. Quando habilitado, você pode pesquisar diretamente em espaços de trabalho federados de identidade por usuários, entidades de serviço e grupos do Microsoft Entra ID e adicioná-los ao seu espaço de trabalho. O Databricks usa a ID do Microsoft Entra como fonte de registro, portanto, quaisquer alterações nas associações de grupo são respeitadas no Azure Databricks. O gerenciamento automático de identidades também oferece suporte a grupos aninhados.
Veja Como sincronizar utilizadores e grupos automaticamente de Microsoft Entra ID.
Lakeflow Spark Declarative Pipelines agora suporta métricas de progresso de fluxo no Public Preview
10 de setembro de 2025
O Lakeflow Spark Declarative Pipelines agora oferece suporte à consulta do log de eventos para obter métricas sobre o progresso de um fluxo. Consulte Monitorizar métricas de streaming de pipeline.
Atualização de manutenção do Databricks Runtime
8 de setembro de 2025
Novas atualizações de manutenção estão disponíveis para versões suportadas do Databricks Runtime. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte Atualizações de manutenção do Databricks Runtime.
Suporte de aplicativos Databricks para recursos do Genie
8 de setembro de 2025
O Databricks Apps agora suporta a adição de um espaço AI/BI Genie como um recurso de aplicativo para permitir consultas em linguagem natural em conjuntos de dados selecionados. Consulte Adicionar um recurso de espaço Genie a um aplicativo Databricks.
Lojas de recursos on-line Databricks (visualização pública)
5 de setembro de 2025
As Lojas de Recursos Online Databricks, com tecnologia Lakebase, fornecem acesso altamente escalável e de baixa latência aos dados de recursos, mantendo a consistência com suas tabelas de recursos offline. As integrações nativas com o Unity Catalog, MLflow e Mosaic AI Model Serving ajudam você a produzir seus endpoints, agentes e mecanismos de regras de modelo, para que eles possam acessar recursos de forma automática e segura das Lojas de Recursos Online, mantendo o alto desempenho.
Consulte Databricks Online Feature Stores.
Os metadados MLflow agora estão disponíveis em tabelas do sistema (Visualização pública)
5 de setembro de 2025
Os metadados MLflow agora estão disponíveis em tabelas do sistema. Visualize metadados gerenciados dentro do serviço de rastreamento MLflow de todo o espaço de trabalho em um local central, aproveitando todas as ferramentas lakehouse que o Databricks oferece, como a criação de painéis personalizados de IA/BI, alertas SQL e consultas analíticas de dados em grande escala.
Para obter informações, consulte Referência de tabelas do sistema MLflow.
Modo de agente assistente do Databricks: o agente de ciência de dados está em versão beta
3 de setembro de 2025
O Modo de Agente para Databricks Assistant está agora em versão Beta. No Modo de Agente, o Assistente pode orquestrar fluxos de trabalho de várias etapas a partir de um único prompt.
O Agente de Ciência de Dados foi criado sob medida para fluxos de trabalho de ciência de dados e pode criar um bloco de anotações inteiro para tarefas como EDA, previsão e aprendizado de máquina do zero. Usando seu prompt, ele pode planejar uma solução, recuperar ativos relevantes, executar código, usar saídas de célula para melhorar os resultados, corrigir erros automaticamente e muito mais.
Consulte Usar o Agente de Ciência de Dados.
As tabelas apoiadas pelo armazenamento padrão podem ser compartilhadas com Delta para qualquer destinatário (Beta)
2 de setembro de 2025
Os provedores de Compartilhamento Delta agora podem compartilhar tabelas apoiadas pelo armazenamento padrão com qualquer destinatário, incluindo destinatários abertos e do Azure Databricks, mesmo que o destinatário esteja usando computação clássica. As tabelas com particionamento ativado são uma exceção.
Consulte Limitações.
Migrar pipelines declarativos do Lakeflow Spark do modo de publicação herdado é revertido para visualização pública
2 de setembro de 2025
O Lakeflow Spark Declarative Pipelines inclui um modo de publicação herdado que anteriormente limitava a publicação a um único catálogo e esquema. O modo de publicação padrão permite a publicação em vários catálogos e esquemas. Um recurso, lançado recentemente como geralmente disponível, pode ajudar a migrar do modo de publicação herdado para o modo de publicação padrão. Devido a um problema encontrado após o lançamento, o recurso de migração foi revertido para o status e a funcionalidade da visualização pública.
Consulte Habilitar o modo de publicação padrão em um pipeline
Agentes de IA: Autorizar a visualização pública em nome do usuário
2 de setembro de 2025
Os agentes de IA implantados em pontos de extremidade do Model Serving podem usar a autorização em nome do usuário. Isso permite que um agente atue como o usuário do Databricks que executa a consulta para maior segurança e acesso refinado a dados confidenciais.
O conector do SQL Server dá suporte ao SCD tipo 2
1 de setembro de 2025
O conector do Microsoft SQL Server no Lakeflow Connect agora oferece suporte ao SCD tipo 2. Essa configuração, conhecida como controle de histórico ou dimensões de alteração lenta (SCD), determina como lidar com alterações em seus dados ao longo do tempo. Com o rastreamento de histórico desativado (SCD tipo 1), os registros desatualizados são substituídos à medida que são atualizados e excluídos na fonte. Com o histórico de rastreamento ativado (SCD tipo 2), o conector mantém um histórico dessas alterações. Consulte Ativar rastreamento de histórico (SCD tipo 2).