Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
de 23 a 30 de janeiro de 2025
Esses recursos e melhorias foram lançados com a versão 2025.04 do DLT.
Versões do Databricks Runtime usadas por esta versão
Channel:
- Atual (padrão): Databricks Runtime 15.4
- PREVIEW: Databricks Runtime 15.4 ou 16.1
Note
Como as versões de canal DLT seguem um processo de atualização sem interrupção, as atualizações de canal são implantadas em diferentes regiões em momentos diferentes. Sua versão, incluindo versões do Databricks Runtime, pode não ser atualizada até uma semana ou mais após a data de lançamento inicial. Para encontrar a versão do Databricks Runtime de um pipeline, veja Informações sobre runtime.
Novos recursos e melhorias
- Por padrão, novos Pipelines Declarativos do Lakeflow Spark dão suporte à criação e atualização de exibições materializadas e tabelas de streaming em vários catálogos e esquemas. Esse novo comportamento padrão para a configuração de pipeline exige que os usuários especifiquem um esquema de destino que se torne o esquema padrão para o pipeline. O esquema virtual
LIVEe a sintaxe associada não são mais necessários. Para saber mais, confira Definir o catálogo e o esquema de destino, configurar pipelines e esquema LIVE (herdado).
- A solicitação
clone a pipelinena API REST do Databricks agora está disponível em geral. Você pode usar essa solicitação para copiar um pipeline existente publicado no metastore do Hive para um novo pipeline publicado no Catálogo do Unity. Veja Crie um pipeline do Unity Catalog clonando um pipeline do metastore do Hive.
- O suporte para exibir métricas de carga de trabalho de streaming para suas atualizações de pipeline está na Versão Prévia Pública. Ao exibir atualizações de pipeline na interface do usuário do Lakeflow Spark Declarative Pipelines, agora você pode visualizar métricas como segundos de pendências, bytes de pendências, registros de pendências e arquivos de pendências para cada fluxo de streaming no pipeline. Há suporte para métricas de streaming para fontes de streaming estruturadas do Spark, incluindo Apache Kafka, Amazon Kinesis e Carregador Automático. Confira Exibir métricas de streaming.