Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Esses recursos e melhorias na plataforma do Azure Databricks foram lançados em setembro de 2025.
Observação
As liberações são disponibilizadas em fases. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.
A tabela cronológica de atualização do pipeline agora está disponível (Versão Prévia Pública)
30 de setembro de 2025
A system.lakeflow.pipeline_update_timeline tabela fornece um acompanhamento histórico completo das atualizações de pipeline e dá suporte à análise refinada da atividade de atualização, gatilhos, resultados e uso de computação.
Consulte o esquema da tabela da linha do tempo de atualização do pipeline.
Tabela beta do sistema de classificação de dados
30 de setembro de 2025
Uma nova tabela do sistema, system.data_classification.results, agora está disponível em Beta. Esta tabela captura detecções de dados confidenciais no nível da coluna em todos os catálogos habilitados em seu metastore.
Antropic Claude Opus 4.1 agora disponível como um modelo de fundação hospedado pelo Databricks
29 de setembro de 2025
O Mosaic AI Model Serving agora dá suporte a Claude Opus 4.1 , da Anthropic, um modelo de fundação hospedado pelo Databricks. Você pode acessar esse modelo usando APIs do Foundation Model pagas por token.
O Editor do Lakeflow Pipelines agora está em versão prévia pública
29 de setembro de 2025
O Editor do Lakeflow Pipelines (anteriormente chamado de editor de vários arquivos) agora está em versão prévia pública. O Editor do Lakeflow Pipelines mostra um pipeline como um conjunto de arquivos no navegador de ativos de pipeline. Você pode editar os arquivos e controlar a configuração do pipeline e quais arquivos incluir em um local. Isso também altera o formato de código-fonte padrão para pipelines de notebooks para arquivos de código Python e SQL.
Confira Desenvolver e depurar pipelines de ETL com o Editor do Lakeflow Pipelines.
Novo requisito para criar conexões para ingestão do Salesforce
29 de setembro de 2025
No início de setembro de 2025, o Salesforce começou a restringir o uso de aplicativos conectados desinstalados. Essa restrição não interrompe as conexões existentes do Catálogo do Unity com o Salesforce, mas impede que você crie uma conexão com uma nova instância do Salesforce sem o aplicativo conectado do Databricks instalado.
Para obter contexto, consulte Prepare for Connected App Usage Restrictions Change na documentação do Salesforce.
Para obter etapas para se conectar ao Salesforce, consulte Salesforce.
Migrar pipelines do modo de publicação legado do Lakeflow Spark Declarative Pipelines está geralmente disponível.
24 de setembro de 2025
O Lakeflow Spark Declarative Pipelines tem um modo de publicação herdado que só permitia a publicação em um único catálogo e esquema. O modo de publicação padrão permite a publicação em vários catálogos e esquemas. A migração do modo de publicação herdado para o modo de publicação padrão agora está geralmente disponível (problemas encontrados na versão anterior desse recurso foram corrigidos).
Consulte Habilitar o modo de publicação padrão em um pipeline.
Atualizações de manutenção do Databricks Runtime
24 de setembro de 2025
Novas atualizações de manutenção estão disponíveis para versões do Databricks Runtime com suporte. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte atualizações de manutenção do Databricks Runtime.
O Mosaic AI Agent Framework dá suporte à passagem de autenticação automática para recursos do Lakebase
23 de setembro de 2025
O Mosaic AI Agent Framework agora dá suporte à passagem de autenticação automática para recursos do Lakebase. Isso requer o MLFlow 3.3.2 ou superior.
Confira a passagem de autenticação automática.
Endpoints otimizados por rota agora exigem um caminho de URL otimizado para consultas.
22 de setembro de 2025
Todos os pontos de extremidade com otimização de rota recém-criados devem ser consultados usando a URL otimizada para rota. Não há suporte para consultas usando o caminho de URL do espaço de trabalho padrão para pontos de extremidade otimizados para rotas criados após 22 de setembro de 2025.
Consulte pontos de extremidade de serviço com otimização de rota de consulta.
Explorar dados de tabela usando uma LLM (Visualização Pública)
22 de setembro de 2025
Agora você pode fazer perguntas de linguagem natural sobre dados de exemplo usando o Gerenciador de Catálogos. O Assistente usa o contexto de metadados e os padrões de uso da tabela para gerar uma consulta SQL. Em seguida, você pode validar a consulta e executá-la na tabela subjacente. Consulte Explorar dados de tabela usando uma LLM.
Visualização pública do Databricks One
17 de setembro de 2025
O Databricks One, uma interface de usuário simplificada projetada para usuários empresariais, agora está em Versão Prévia Pública. O Databricks One fornece um único ponto de entrada intuitivo para interagir com dados e IA no Databricks, sem exigir conhecimento técnico de recursos de computação, consultas, modelos ou notebooks.
Com o Databricks One, os usuários empresariais podem:
- Exiba e interaja com painéis de IA/BI para acompanhar KPIs e analisar métricas.
- Faça perguntas sobre dados em linguagem natural usando o Genie de IA/BI.
- Use aplicativos personalizados do Databricks que combinam análise, IA e fluxos de trabalho.
Os administradores do workspace podem habilitar o Databricks One na página Visualizações no console de administração.
Veja o que é o Databricks One?.
Descobrir arquivos no Carregador Automático com eficiência usando eventos de arquivo sem registro (Visualização Pública)
16 de setembro de 2025
A opção com Carregador Automático cloudFiles.useManagedFileEvents agora está em pré-visualização pública sem restrições. Essa opção permite que você descubra arquivos com eficiência. Para obter detalhes, confira o seguinte:
- (Pré-requisito) Habilitar eventos de arquivo para um local externo
- Modo de notificação de arquivo com e sem eventos de arquivo habilitados em locais externos
O Databricks Runtime 17.2 agora é GA
16 de setembro de 2025
O Databricks Runtime 17.2 agora está disponível em geral. Consulte Databricks Runtime 17.2.
O Delta Sharing na Lakehouse Federation está em versão Beta
16 de setembro de 2025
Agora você pode usar o Compartilhamento Delta para compartilhar esquemas e tabelas de terceiros criados com a federação de consultas no compartilhamento de Databricks para Databricks e no compartilhamento aberto. Consulte Adicionar esquemas ou tabelas estrangeiras a um compartilhamento e ler dados em uma tabela estrangeira compartilhada ou esquema estrangeiro.
Incluir compartilhamentos Delta em um catálogo compartilhado existente
12 de setembro de 2025
Os destinatários do Delta Sharing agora podem montar compartilhamentos recebidos de seu provedor de compartilhamento Delta para um catálogo compartilhado existente. Anteriormente, os destinatários precisavam criar um novo catálogo para cada novo compartilhamento. Consulte Criar um catálogo com base em um compartilhamento.
Conector de Dados Brutos do Google Analytics GA
10 de setembro de 2025
O conector de Dados Brutos do Google Analytics no Lakeflow Connect agora está disponível para o público em geral. Consulte Configurar o Google Analytics 4 e a ingestãodo Google BigQuery para Databricks.
Os pipelines e tarefas sem servidor configurados na interface do usuário agora são otimizados para desempenho por padrão
11 de setembro de 2025
Os pipelines e trabalhos sem servidor configurados na interface do usuário agora estão definidos como Desempenho otimizado por padrão. Isso alinha a interface do usuário com os padrões existentes entre APIs, Terraform e SDKs. Para obter mais informações, consulte o modo desempenho em trabalhos sem servidor e modo de desempenho em pipelines sem servidor.
As fontes de dados personalizadas do Python podem ser usadas com o Lakeflow Spark Declarative Pipelines
10 de setembro de 2025
Você pode usar fontes de dados e coletores personalizados do Python em suas definições de pipeline no Lakeflow Spark Declarative Pipelines.
Para obter informações sobre fontes de dados personalizadas do Python, consulte o seguinte:
- Carregue dados de uma fonte de dados personalizada do Python.
- Crie um coletor.
- Fontes de dados personalizadas do PySpark.
O gerenciamento automático de identidades está disponível em geral
10 de setembro de 2025
O gerenciamento automático de identidade permite sincronizar usuários, entidades de serviço e grupos da ID do Microsoft Entra no Azure Databricks sem configurar um aplicativo na ID do Microsoft Entra. Quando habilitado, você pode pesquisar diretamente nos workspaces federados de identidade para os usuários, entidades de serviço e grupos do Microsoft Entra ID e adicioná-los ao seu workspace. O Databricks usa a ID do Microsoft Entra como fonte de registro, portanto, todas as alterações nas associações de grupo são respeitadas no Azure Databricks. O gerenciamento automático de identidade também dá suporte a grupos aninhados.
Confira o artigo Sincronizar automaticamente usuários e grupos do Microsoft Entra ID.
O Lakeflow Spark Declarative Pipelines agora dá suporte a métricas de progresso de fluxo na Visualização Pública
10 de setembro de 2025
O Lakeflow Spark Declarative Pipelines agora dá suporte à consulta do log de eventos para métricas sobre o progresso de um fluxo. Consulte Métricas de Streaming de Pipeline.
Atualização de manutenção do Databricks Runtime
8 de setembro de 2025
Novas atualizações de manutenção estão disponíveis para versões do Databricks Runtime com suporte. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter detalhes, consulte atualizações de manutenção do Databricks Runtime.
Suporte do Databricks Apps para recursos do Genie
8 de setembro de 2025
Agora, o Databricks Apps dá suporte à adição de um espaço do Genie de IA/BI como um recurso de aplicativo para habilitar a consulta de linguagem natural em conjuntos de dados coletados. Consulte Adicionar um recurso de espaço do Genie a um aplicativo do Databricks.
Repositórios de recursos do Databricks Online (versão prévia pública)
5 de setembro de 2025
Os Repositórios de Recursos do Databricks Online, alimentados pelo Lakebase, fornecem acesso de baixa latência altamente escalonável aos dados de recursos, mantendo a consistência com suas tabelas de recursos offline. As integrações nativas com o Catálogo do Unity, o MLflow e o Mosaic AI Model Servem para ajudar você a produzir seus pontos de extremidade de modelo, agentes e mecanismos de regra, para que eles possam acessar recursos automaticamente e com segurança dos Repositórios de Recursos Online, mantendo o alto desempenho.
Consulte repositórios de recursos do Databricks Online.
Os metadados do MLflow agora estão disponíveis nas tabelas do sistema (Versão Prévia Pública)
5 de setembro de 2025
Os metadados do MLflow agora estão disponíveis nas tabelas do sistema. Exiba metadados gerenciados dentro do serviço de acompanhamento do MLflow de todo o workspace em um local central, aproveitando todas as ofertas do Databricks de ferramentas do lakehouse, como a criação de painéis personalizados de IA/BI, alertas sql e consultas de análise de dados em grande escala.
Para obter informações, consulte a referência de tabelas do sistema MLflow.
Modo de Agente Assistente do Databricks: o Agente de Ciência de Dados está em Beta
3 de setembro de 2025
O Modo de Agente para Assistente do Databricks agora está em Beta. No Modo de Agente, o Assistente pode orquestrar fluxos de trabalho de várias etapas de um único prompt.
O Agente de Ciência de Dados é personalizado para fluxos de trabalho de ciência de dados e pode criar um notebook inteiro para tarefas como EDA, previsão e aprendizado de máquina do zero. Usando seu prompt, ele pode planejar uma solução, recuperar ativos relevantes, executar código, usar saídas de célula para melhorar os resultados, corrigir erros automaticamente e muito mais.
Consulte Usar o Agente de Ciência de Dados.
As tabelas apoiadas pelo armazenamento padrão podem ser compartilhadas por Delta para qualquer destinatário (Beta)
2 de setembro de 2025
Os provedores de compartilhamento Delta agora podem compartilhar tabelas apoiadas pelo armazenamento padrão com qualquer destinatário, incluindo destinatários abertos e do Azure Databricks, mesmo que o destinatário esteja usando a computação clássica. Tabelas com particionamento habilitado são uma exceção.
Confira Limitações.
Migrar o Lakeflow Spark Declarative Pipelines do modo de publicação herdado é revertido para a Versão Prévia Pública
2 de setembro de 2025
O Lakeflow Spark Declarative Pipelines inclui um modo de publicação herdado que previamente limitava a publicação em um único catálogo e esquema. O modo de publicação padrão permite a publicação em vários catálogos e esquemas. Um recurso, lançado recentemente como disponível em geral, pode ajudar a migrar do modo de publicação herdado para o modo de publicação padrão. Devido a um problema encontrado após a versão, o recurso de migração foi revertido para o status e a funcionalidade da Visualização Pública.
Consulte Habilitar o modo de publicação padrão em um pipeline
Agentes de IA: autorizar a visualização pública em nome do usuário
2 de setembro de 2025
Os agentes de IA implantados em pontos de extremidade do Model Serving podem usar a autorização em nome do usuário. Isso permite que um agente atue como o usuário do Databricks que executa a consulta para adição de segurança e acesso refinado a dados confidenciais.
O conector do SQL Server dá suporte ao SCD tipo 2
1º de setembro de 2025
O conector do Microsoft SQL Server no Lakeflow Connect agora dá suporte ao SCD tipo 2. Essa configuração, conhecida como SCD (controle de histórico ou dimensões de alteração lenta), determina como lidar com alterações em seus dados ao longo do tempo. Com o acompanhamento do histórico (SCD tipo 1), os registros desatualizados são substituídos à medida que são atualizados e excluídos na origem. Com o controle de histórico ativado (SCD tipo 2), o conector mantém um histórico dessas alterações. Consulte Habilitar acompanhamento de histórico (scd tipo 2).