Compartilhar via


Notas de versão do Databricks SQL 2025

Os seguintes recursos e melhorias do SQL do Databricks foram lançados em 2025.

Novembro de 2025

O Databricks SQL versão 2025.35 está sendo implantado no Current

20 de novembro de 2025

O Databricks SQL versão 2025.35 está sendo distribuído para o canal Atual . Confira os recursos em 2025.35.

Os alertas do Databricks SQL agora estão em versão prévia pública

14 de novembro de 2025

  • Alertas do SQL do Databricks: A versão mais recente dos alertas do Databricks SQL, com uma nova experiência de edição, agora está em Versão Prévia Pública. Consulte os alertas do DATAbricks SQL.

Correção de visualização do Editor SQL

6 de novembro de 2025

  • Problema de exibição da dica de ferramenta corrigido: Resolvemos um problema em que as dicas de ferramenta ficavam ocultas atrás da legenda nas visualizações do Notebook e do Editor de SQL.

Outubro de 2025

O Databricks SQL versão 2025.35 agora está disponível na versão prévia

30 de outubro de 2025

O Databricks SQL versão 2025.35 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

EXECUTE IMMEDIATE usando expressões constantes

Agora você pode passar expressões constantes como string SQL e como argumentos para marcadores de parâmetro nas instruções EXECUTE IMMEDIATE.

LIMIT ALL suporte para CTEs recursivas

Agora você pode usar LIMIT ALL para remover a restrição de tamanho total em CTEs (expressões de tabela comuns recursivas).

st_dump suporte à função

Agora você pode usar a st_dump função para obter uma matriz que contém as geometrias simples da geometria de entrada. Veja a st_dump função.

Agora há suporte para funções de anéis internos de polígonos

Agora você pode usar as seguintes funções para trabalhar com anéis interiores de polígono:

Dar suporte à atualização de informações de MV/ST em DESCRIBE EXTENDED AS JSON

O Azure Databricks agora gera uma seção para informações de visão materializada e atualização de tabela de streaming na saída, incluindo hora da última atualização, tipo de atualização, status e agendamento.

Adicionar coluna de metadados a DESCRIBE QUERY e DESCRIBE TABLE

O Azure Databricks agora inclui uma coluna de metadados na saída de DESCRIBE QUERY e DESCRIBE TABLE para metadados semânticos.

Para DESCRIBE QUERY, ao descrever uma consulta com visualizações de métricas, os metadados semânticos propagam-se pela consulta se as dimensões forem referenciadas diretamente e as medidas usarem a função MEASURE().

Para DESCRIBE TABLE, a coluna de metadados aparece apenas para exibições de métrica, não para outros tipos de tabela.

Manipulação correta de estruturas nulas ao excluir NullType colunas

Ao gravar em tabelas Delta, o Azure Databricks agora preserva corretamente valores de struct nulos ao removendo colunas NullType do esquema. Anteriormente, os structs nulos eram substituídos incorretamente por valores de struct não nulos em que todos os campos eram definidos como nulos.

Nova experiência de edição de alerta

20 de outubro de 2025

  • Nova experiência de edição de alerta: A criação ou edição de um alerta agora é aberta no novo editor de várias guias, fornecendo um fluxo de trabalho de edição unificado. Consulte os alertas do DATAbricks SQL.

Correção de visualizações

9 de outubro de 2025

  • Seleção de legenda para nomes de séries com alias: A seleção de legenda agora funciona corretamente para gráficos com nomes de séries com alias no editor SQL e nos notebooks.

Metadados semânticos em exibições de métrica

2 de outubro de 2025

Agora você pode definir metadados semânticos em uma exibição de métrica. Metadados semânticos ajudam ferramentas de IA, como espaços do Genie e painéis de IA/BI, a interpretar e usar seus dados com mais eficiência.

Para usar metadados semânticos, sua exibição de métrica deve usar a especificação YAML versão 1.1 ou superior e executar no Databricks Runtime 17.2 ou superior. A versão correspondente do Databricks SQL é 2025.30, disponível no canal de Preview para SQL Warehouses.

Consulte Usar metadados semânticos em exibições de métrica e Atualizar seu YAML para 1.1.

Setembro de 2025

O Databricks SQL versão 2025.30 agora está disponível na versão prévia

25 de setembro de 2025

O Databricks SQL versão 2025.30 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

Conjuntos de caracteres baseados em UTF8 agora suportam o operador LIKE

Agora você pode usar LIKE com colunas que têm uma das seguintes ordenações habilitadas: UTF8_Binary, , UTF8_Binary_RTRIM, UTF8_LCASE, UTF8_LCASE_RTRIM. Consulte Ordenação.

ST_ExteriorRing agora há suporte para a função

Agora você pode usar a ST_ExteriorRing função para extrair o limite externo de um polígono e retorná-lo como um linestring. Veja a st_exteriorring função.

Declarar várias variáveis locais ou de sessão em uma única DECLARE instrução

Agora você pode declarar várias variáveis locais ou de sessão do mesmo tipo e valor padrão em uma única DECLARE instrução. Consulte DECLARE VARIABLE e instrução composta BEGIN END.

Palavra-chave de suporte TEMPORARY para criação de exibição de métrica

Agora você pode usar a TEMPORARY palavra-chave ao criar uma exibição de métrica. As exibições de métrica temporária são visíveis apenas na sessão que as criou e são descartadas quando a sessão termina. Consulte CREATE VIEW.

DESCRIBE CONNECTION mostra as configurações de ambiente para conexões JDBC

O Azure Databricks agora inclui configurações de ambiente definidas pelo DESCRIBE CONNECTION usuário na saída para conexões JDBC que dão suporte a drivers personalizados e são executadas isoladamente. Outros tipos de conexão permanecem inalterados.

Sintaxe SQL para opções de leitura Delta em consultas de streaming

Agora você pode especificar opções de leitura Delta para consultas de streaming baseadas em SQL usando a WITH cláusula. Por exemplo:

SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);

Resultados corretos para split com regex vazio e limite positivo

O Azure Databricks agora retorna resultados corretos ao usar split function com um regex vazio e um limite positivo. Anteriormente, a função truncava incorretamente a cadeia de caracteres restante em vez de incluí-la no último elemento.

Correção url_decode e try_url_decode tratamento de erros no Photon

No Photon etry_url_decode(), agoraurl_decode(), failOnError = false retorne NULL para cadeias de caracteres codificadas em URL inválidas em vez de falhar na consulta.

Julho 2025

A configuração padrão do warehouse agora está disponível na Versão Beta

28 de agosto de 2025

Defina um warehouse padrão que será selecionado automaticamente no seletor de computação no editor de SQL, painéis de IA/BI, AI/BI Genie, Alertas e Catalog Explorer. Usuários individuais podem substituir essa configuração selecionando um warehouse diferente antes de executar uma consulta. Eles também podem definir seu próprio warehouse padrão no nível do usuário para aplicar em suas sessões. Consulte Definir um sql warehouse padrão para o workspace e definir um warehouse padrão no nível do usuário.

O Databricks SQL versão 2025.25 está sendo implantado no Current

21 de agosto de 2025

O Databricks SQL versão 2025.25 está sendo lançado para o canal Atual de 20 de agosto de 2025 a 28 de agosto de 2025. Confira os recursos em 2025.25.

O Databricks SQL versão 2025.25 agora está disponível na versão prévia

14 de agosto de 2025

O Databricks SQL versão 2025.25 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos e alterações comportamentais.

Expressões de tabela comuns recursivas (rCTE) estão geralmente disponíveis

Expressões de tabela comuns recursivas (rCTEs) estão geralmente disponíveis. Navegue por dados hierárquicos usando um CTE de auto-referência com UNION ALL para seguir a relação recursiva.

Suporte para ordenação padrão de esquema e nível de catálogo

Agora você pode definir uma ordenação padrão para esquemas e catálogos. Isso permite que você defina uma ordenação que se aplique a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de ordenação consistente entre seus dados.

Suporte para expressões SQL espaciais e tipos de dados GEOMETRY e GEOGRAPHY

Agora você pode armazenar dados geoespaciais em GEOMETRY colunas internas e GEOGRAPHY para melhorar o desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relações topológicas com junções espaciais. Consulte funções geoespaciais st, GEOGRAPHY tipo e GEOMETRY tipo.

Suporte para ordenação padrão de esquema e nível de catálogo

Agora você pode definir uma ordenação padrão para esquemas e catálogos. Isso permite que você defina uma ordenação que se aplique a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de ordenação consistente entre seus dados.

Melhor manipulação de opções JSON com VARIANT

As from_json funções e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas de nível VARIANT superior. Isso garante um comportamento consistente com outros tipos de dados com suporte.

Suporte para TIMESTAMP SEM sintaxe DE FUSO HORÁRIO

Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.

Problema de correlação de subconsulta resolvido

O Azure Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso poderia levar a resultados de consulta incorretos.

Erro gerado para restrições inválidas CHECK

O Azure Databricks agora gerará uma AnalysisException expressão se uma CHECK expressão de restrição não puder ser resolvida durante a validação da restrição.

Regras mais rigorosas para junções de fluxo de fluxo no modo de acréscimo

O Azure Databricks agora não permite que consultas de streaming no modo de acréscimo usem uma junção de fluxo de fluxo seguida de agregação de janela, a menos que as marcas d'água sejam definidas em ambos os lados. Consultas sem marcas d'água adequadas podem produzir resultados não finais, violando garantias de modo de acréscimo.

O novo editor do SQL está disponível em geral

14 de agosto de 2025

O novo editor do SQL agora está disponível em geral. O novo editor do SQL fornece um ambiente de criação unificado com suporte para vários resultados de instrução, histórico de execução embutido, colaboração em tempo real, integração aprimorada do Assistente do Databricks e recursos adicionais de produtividade. Consulte Consultas de gravação e explore dados no novo editor do SQL.

Tratamento de tempo limite corrigido para exibições materializadas e tabelas de streaming

14 de agosto de 2025

Novo comportamento de tempo limite para exibições materializadas e tabelas de streaming criadas no Databricks SQL:

  • Exibições materializadas e tabelas de streaming criadas após 14 de agosto de 2025 terão o timeout do warehouse aplicado automaticamente.
  • Para exibições materializadas e tabelas de streaming criadas antes de 14 de agosto de 2025, execute CREATE OR REFRESH para sincronizar a configuração de tempo limite com a configuração de tempo limite do warehouse.
  • Todas as exibições materializadas e tabelas de streaming agora têm um tempo limite padrão de dois dias.

Julho de 2025

Intervalos de data predefinido para parâmetros no editor do SQL

31 de julho de 2025

No novo editor do SQL, agora você pode escolher entre intervalos de datas predefinidos, como esta semana, últimos 30 dias ou ano passado , ao usar parâmetros de carimbo de data/hora, data e intervalo de datas. Essas predefinições tornam mais rápido aplicar filtros de tempo comuns sem inserir datas manualmente.

A lista de Trabalhos e Pipelines agora inclui pipelines SQL do Databricks.

29 de julho de 2025

A lista Trabalhos &Pipelines agora inclui pipelines para exibições materializadas e tabelas de streaming que foram criadas com o DATAbricks SQL.

Histórico de execução embutido no editor do SQL

24 de julho de 2025

O histórico de execução embutida agora está disponível no novo editor do SQL, permitindo que você acesse rapidamente os resultados anteriores sem executar novamente as consultas. Referencie facilmente as execuções anteriores, navegue diretamente até perfis de consulta anteriores ou compare os tempos de execução e os status, tudo dentro do contexto da consulta atual.

O Databricks SQL versão 2025.20 agora está disponível no Current

17 de julho de 2025

O Databricks SQL versão 2025.20 está sendo distribuído por etapas para o canal Atual. Para funcionalidades e atualizações nesta versão, consulte funcionalidades 2025.20.

Atualizações do editor do SQL

17 de julho de 2025

  • Melhorias nos parâmetros nomeados: Agora há suporte para parâmetros de intervalo de datas e várias seleções. Para parâmetros de intervalo de datas, consulte Adicionar um intervalo de datas. Para parâmetros de seleção múltipla, consulte Usar vários valores em uma única consulta.

  • Layout de cabeçalho atualizado no editor do SQL: O seletor de catálogo e o botão de execução foram movidos para o cabeçalho, criando mais espaço vertical para gravar consultas.

Suporte do Git para alertas

17 de julho de 2025

Agora você pode usar pastas Git do Databricks para controlar e gerenciar alterações em alertas. Para acompanhar alertas com o Git, coloque-os em uma pasta do Git do Databricks. Os alertas clonados recentemente só aparecem na página de lista de alertas ou na API depois que um usuário interage com eles. Eles pausaram agendas e precisam ser explicitamente retomados pelos usuários. Veja como a integração do Git funciona com alertas.

O Databricks SQL versão 2025.20 agora está disponível na versão prévia

3 de julho de 2025

O Databricks SQL versão 2025.20 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos e alterações comportamentais.

Suporte a procedimento SQL

Os scripts SQL agora podem ser encapsulados em um procedimento armazenado como um ativo reutilizável no Catálogo do Unity. Você pode criar um procedimento usando o comando CREATE PROCEDURE e chamá-lo usando o comando CALL .

Definir uma ordenação padrão para o SQL Functions

Usar a cláusula DEFAULT COLLATION nova no comando CREATE FUNCTION define a ordenação padrão usada para os parâmetros STRING, o tipo de retorno, e os literais STRING no corpo da função.

Suporte a expressões de tabela comuns recursivas (rCTE)

O Azure Databricks agora dá suporte à navegação de dados hierárquicos usando expressões de tabela comuns recursivas (rCTEs). Para seguir a relação recursiva, use uma CTE de auto-referência com UNION ALL.

Suporte ALL CATALOGS em SHOW ESQUEMAS

A SHOW SCHEMAS sintaxe é atualizada para aceitar a seguinte sintaxe:

SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]

Quando ALL CATALOGS é especificada em uma consulta SHOW, a execução itera por todos os catálogos ativos que dão suporte a namespaces com o gerenciador de catálogos (DsV2). Para cada catálogo, ele inclui os namespaces de nível superior.

Os atributos de saída e o esquema do comando foram modificados para adicionar uma catalog coluna que indica o catálogo do namespace correspondente. A nova coluna é adicionada ao final dos atributos de saída, conforme mostrado abaixo:

Saída anterior

| Namespace        |
|------------------|
| test-namespace-1 |
| test-namespace-2 |

Nova saída

| Namespace        | Catalog        |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |

A aglomeração líquida agora compacta os vetores de exclusão com mais eficiência

As tabelas Delta com agrupamento Liquid agora aplicam alterações físicas de vetores de exclusão de maneira mais eficiente quando OPTIMIZE opera. Para obter mais detalhes, consulte Aplique alterações aos arquivos de dados Parquet.

Permitir expressões não determinísticas nos valores de coluna UPDATE/INSERT para operações MERGE

Agora, o Azure Databricks permite usar expressões não determinísticas em valores de coluna atualizados e inseridos de operações MERGE. Porém, não há suporte para expressões não determinísticas nas condições das instruções MERGE.

Por exemplo, agora você pode gerar valores dinâmicos ou aleatórios para colunas:

MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()

Isso pode ser útil para a privacidade de dados, ofuscando os dados reais, preservando as propriedades de dados (como valores médios ou outras colunas computadas).

Suporte à palavra-chave VAR para declarar e remover variáveis SQL

A sintaxe SQL para declarar e remover variáveis agora dá suporte à VAR palavra-chave além de VARIABLE. Essa alteração unifica a sintaxe em todas as operações relacionadas a variáveis, o que melhora a consistência e reduz a confusão para os usuários que já usam VAR ao definir variáveis.

As cláusulas de nível de coluna CREATE VIEW agora geram erros quando a cláusula se aplica apenas a exibições materializadas

Os comandos CREATE VIEW que especificam uma cláusula em nível de coluna que só é válida para MATERIALIZED VIEWs agora geram um erro. As cláusulas afetadas para os comandos CREATE VIEW são:

  • NOT NULL
  • Um tipo de dados especificado, como FLOAT ou STRING
  • DEFAULT
  • COLUMN MASK

Junho de 2025

Atualizações do mecanismo sem servidor do Databricks SQL

11 de junho de 2025

Os seguintes upgrades de motor agora estão sendo implementados globalmente, e a disponibilidade se expandirá para todas as regiões nas próximas semanas.

  • Latência mais baixa: dashboards, trabalhos DE ETL e cargas de trabalho mistas agora são executados mais rapidamente, com até 25% melhoria. A atualização é aplicada automaticamente a armazenamentos SQL sem servidor, sem custos ou configurações adicionais.
  • Execução de Consulta Preditiva (PQE): o PQE monitora tarefas em tempo real e ajusta dinamicamente a execução da consulta para ajudar a evitar distorções, derramamentos e trabalho desnecessário.
  • Photon vectorized shuffle: mantém os dados em formato compacto de colunas, os classifica dentro do cache de alta velocidade da CPU e processa vários valores ao mesmo tempo usando instruções vetorizadas. Isso melhora a taxa de transferência para cargas de trabalho associadas à CPU, como junções grandes e agregação ampla.

Atualizações da interface do usuário

5 de junho de 2025

  • Aprimoramentos de insights de consulta: a visita à página Histórico de Consultas agora emite o evento listHistoryQueries. A abertura de um perfil de consulta agora emite o evento getHistoryQuery.

Maio de 2025

As exibições de métrica estão na Versão preview pública

29 de maio de 2025

As exibições de métrica do Catálogo do Unity fornecem uma maneira centralizada de definir e gerenciar métricas de negócios essenciais consistentes, reutilizáveis e governadas. Eles abstraem a lógica de negócios complexa em uma definição centralizada, permitindo que as organizações definam indicadores de desempenho importantes uma vez e os usem consistentemente em ferramentas de relatório, como dashboards, espaços do Genie e alertas. Use um SQL Warehouse em execução no canal Preview (2025.16) ou em outro recurso de computação executando o Databricks Runtime 16.4 ou superior para trabalhar com visualizações de métricas. Veja as visões métricas do Catálogo Unity.

Atualizações da interface do usuário

29 de maio de 2025

  • Novos aprimoramentos do editor do SQL:
    • Novas consultas na pasta Rascunhos: Novas consultas agora são criadas por padrão na pasta Rascunhos. Quando salvos ou renomeados, eles saem automaticamente dos Rascunhos.
    • Suporte a fragmentos de consulta: Agora você pode criar e reutilizar fragmentos de consulta — segmentos predefinidos do SQL, como expressões JOIN ou CASE, com suporte para preenchimento automático e pontos de inserção dinâmica. Construa trechos escolhendo Visualizar>Trechos de Consulta.
    • Eventos de log de auditoria: Os eventos de log de auditoria agora são emitidos para ações executadas no novo editor do SQL.
    • Os filtros afetam as visualizações: Os filtros aplicados às tabelas de resultados agora também afetam as visualizações, permitindo a exploração interativa sem modificar a consulta SQL.

Nova versão de alerta na Versão Beta

22 de maio de 2025

Uma nova versão dos alertas agora está em Beta. Essa versão simplifica a criação e o gerenciamento de alertas consolidando a configuração de consultas, as condições, os agendamentos e os destinos de notificação em uma única interface. Você ainda pode usar alertas herdados junto com a nova versão. Consulte os alertas do DATAbricks SQL.

Atualizações da interface do usuário

22 de maio de 2025

O Databricks SQL versão 2025.16 já está disponível

15 de maio de 2025

O Databricks SQL versão 2025.16 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

IDENTIFIER suporte agora disponível no DATAbricks SQL para operações de catálogo

Agora você pode usar a IDENTIFIER cláusula ao executar as seguintes operações de catálogo:

  • CREATE CATALOG
  • DROP CATALOG
  • COMMENT ON CATALOG
  • ALTER CATALOG

Essa nova sintaxe permite que você especifique dinamicamente nomes de catálogo usando parâmetros definidos para essas operações, permitindo fluxos de trabalho SQL mais flexíveis e reutilizáveis. Como exemplo da sintaxe, considere CREATE CATALOG IDENTIFIER(:param) onde param está um parâmetro fornecido para especificar um nome de catálogo.

Para obter mais detalhes, consulte IDENTIFIER a cláusula.

Expressões agrupadas agora fornecem aliases transitórios gerados automaticamente

Os aliases gerados automaticamente para expressões agrupadas agora sempre incorporarão de forma determinística a informação COLLATE. Os aliases gerados automaticamente são transitórios (instáveis) e não devem ser confiados. Em vez disso, como prática recomendada, use expression AS alias de forma consistente e explícita.

UNION/EXCEPT/INTERSECT em uma exibição e EXECUTE IMMEDIATE agora retorna os resultados corretos

Consultas para definições de exibições temporárias e persistentes com UNION/EXCEPT/INTERSECT no nível superior e colunas sem alias anteriormente retornavam resultados incorretos porque as palavras-chave UNION/EXCEPT/INTERSECT eram consideradas aliases. Agora, essas consultas executarão corretamente toda a operação do conjunto.

EXECUTE IMMEDIATE ... INTO com UNION/EXCEPT/INTERSECT de nível superior e com colunas sem aliases também gravavam um resultado incorreto de uma operação de conjunto na variável especificada porque o analisador interpretava essas palavras-chave como aliases. Da mesma forma, consultas SQL com texto final inválido também foram permitidas. As operações de conjunto nesses casos agora atribuem o resultado correto à variável especificada ou falham caso o texto SQL seja inválido.

Novas listagg e string_agg funções

Agora você pode usar as listagg funções ou string_agg para agregar STRING e BINARY valores em um grupo. Consulte string_agg para obter mais detalhes.

Correção da quebra de agrupamento em literais inteiros com aliases para determinadas operações

O agrupamento de expressões em um literal de número inteiro com alias foi interrompido anteriormente para determinadas operações, como MERGE INTO. Por exemplo, essa expressão retornaria GROUP_BY_POS_OUT_OF_RANGE porque o valor (val) seria substituído por 202001:

merge into t
using
(select 202001 as val, count(current_date) as total_count group by val) on 1=1
when not matched then insert (id, name)  values (val, total_count)

Isso foi corrigido. Para atenuar o problema em suas consultas existentes, verifique se as constantes que você está usando não são iguais à posição da coluna que deve estar nas expressões de agrupamento.

Habilitar o sinalizador para impedir a desabilitação da materialização de origem em operações MERGE

Anteriormente, os usuários podiam desabilitar a materialização de fonte em MERGE ao definir merge.materializeSource como none. Com o novo sinalizador habilitado, isso será proibido e causará um erro. O Databricks planeja habilitar o sinalizador somente para clientes que não usaram esse sinalizador de configuração antes, portanto, nenhum cliente deve notar qualquer alteração no comportamento.

Abril de 2025

O Databricks SQL versão 2025.15 já está disponível

10 de abril de 2025

O Databricks SQL versão 2025.15 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

Editar várias colunas usando ALTER TABLE

Agora você pode alterar várias colunas em uma única ALTER TABLE instrução. Consulte ALTER TABLE ... COLUMN cláusula.

O downgrade do protocolo da tabela Delta é GA com proteção de ponto de verificação

DROP FEATURE está geralmente disponível para remover recursos da tabela Delta Lake e fazer downgrade do protocolo da tabela. Por padrão, DROP FEATURE agora cria pontos de verificação protegidos para uma experiência de downgrade mais otimizada e simplificada que não exige nenhum tempo de espera ou truncamento de histórico. Confira Remover um recurso de tabela do Delta Lake e fazer downgrade do protocolo de tabela.

Escrever scripts SQL de procedimento com base no ANSI SQL/PSM (versão prévia pública)

Agora você pode usar recursos de script com base no ANSI SQL/PSM para escrever lógica de procedimento com SQL, incluindo instruções condicionais, loops, variáveis locais e tratamento de exceções. Consulte os scripts SQL.

Agrupamento padrão em nível de tabela e visualização

Agora você pode especificar uma ordenação padrão para tabelas e exibições. Isso simplifica a criação de tabelas e exibições em que todas ou a maioria das colunas compartilham a mesma ordenação. Consulte Ordenação.

Novas funções H3

As seguintes funções H3 foram adicionadas:

O suporte a painéis herdados foi encerrado

10 de abril de 2025

O suporte oficial para dashboards antigos terminou. Você não pode mais criar ou clonar painéis herdados usando a interface do usuário ou a API. O Databricks continua a resolver problemas críticos de segurança e interrupções de serviço, mas recomenda o uso de painéis de IA/BI para todo o novo desenvolvimento. Para saber mais sobre dashboards de IA/BI, consulte Dashboards. Para obter ajuda para migrar, consulte Clonar um painel herdado para um painel de IA/BI e usar APIs de painel para criar e gerenciar dashboards.

Opções de formatação automática personalizadas para consultas SQL

3 de abril de 2025

Personalize as opções de formatação automática para todas as suas consultas SQL. Consulte Instruções SQL de formato personalizado.

Problema de visualizações de boxplot corrigido

3 de abril de 2025

Corrigido um problema em que as visualizações de boxplot do Databricks SQL com apenas um eixo x categórico não exibiam categorias e barras corretamente. As visualizações agora são renderizadas conforme o esperado.

A permissão CAN VIEW para armazéns SQL está na versão preliminar pública

3 de abril de 2025

A permissão CAN VIEW agora está em Visualização Pública. Essa permissão permite que os usuários monitorem os sql warehouses, incluindo o histórico de consultas e os perfis de consulta associados. Os usuários com permissão CAN VIEW não podem executar consultas no SQL Warehouse sem receber permissões adicionais. Confira ACLs do SQL warehouse.

Março de 2025

Atualizações da interface do usuário

27 de março de 2025

  • Perfis de consulta atualizados para melhorar a usabilidade: Os perfis de consulta foram atualizados para melhorar a usabilidade e ajudá-lo a acessar rapidamente os principais insights. Confira Perfil de consulta.

Atualizações da interface do usuário

20 de março de 2025

  • Transferir a propriedade do SQL Warehouse para a entidade de serviço: Agora você pode usar a interface do usuário para transferir a propriedade do armazém para uma entidade de serviço.

Atualizações da interface do usuário

6 de março de 2025

  • gráficos de eixo duplo agora dão suporte ao zoom: Agora você pode clicar e arrastar para ampliar os gráficos de eixo duplo.
  • Fixar colunas de tabela: Agora você pode fixar colunas de tabela no lado esquerdo da exibição da tabela. As colunas permanecem em exibição enquanto você rola para a direita na tabela. Consulte Configurações de coluna.
  • Correção de um problema com gráficos de combinação: foi resolvido o desalinhamento entre os rótulos do eixo x e as barras ao usar um campo temporal no eixo x.

Fevereiro de 2025

O Databricks SQL versão 2025.10 já está disponível

21 de fevereiro de 2025

O Databricks SQL versão 2025.10 agora está disponível no canal do Preview. Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

No Compartilhamento Delta, o histórico de tabelas é habilitado por padrão

Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table> agora têm o compartilhamento de histórico (WITH HISTORY) habilitado por padrão. Consulte ALTER SHARE.

Instruções SQL de credencial retornam um erro quando há uma incompatibilidade de tipo de credencial

Com essa versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name', se credential-name não for uma credencial de armazenamento, a instrução falhará com um erro.

Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que fosse passada uma credencial que não correspondesse ao tipo de credencial especificado. Por exemplo, a instrução a seguir removeria storage-credentialcom êxito: DROP SERVICE CREDENTIAL storage-credential.

Essa mudança afeta as seguintes declarações:

Usar o timestampdiff & timestampadd em expressões de coluna geradas

As expressões de coluna geradas pelo Delta Lake agora suportam as funções timestampdiff e timestampadd.

Suporte para a sintaxe dos pipelines do SQL

Agora você pode compor pipelines do SQL. Um pipeline do SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:

FROM T
|> SELECT c2
|> WHERE c1 = 5

Para saber mais sobre a sintaxe com suporte para pipelines SQL, consulte SQL Pipeline Syntax.

Para obter informações básicas sobre essa extensão intersetorial, consulte O SQL tem problemas. Podemos corrigi-los: Sintaxe de pipe no SQL (por Google Research).

Fazer solicitação HTTP usando a http_request função

Agora você pode criar conexões HTTP e, por meio delas, fazer solicitações HTTP usando a função http_request.

Atualizar para DESCRIBE TABLE retorna metadados como JSON estruturado

Agora você pode usar o comando DESCRIBE TABLE AS JSON para retornar metadados de tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório legível por humanos padrão e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.

Ordenações que não diferenciam branco à direita

Adicionado suporte para ordenações que não diferenciam branco à direita. Por exemplo, essas colações tratam 'Hello' e 'Hello ' como sendo iguais. Para saber mais, confira Ordenação RTRIM.

Processamento do clone incremental aprimorado

Esta versão inclui uma correção para um caso extremo em que um CLONE incremental pode recopiar arquivos já transferidos de uma tabela de origem para uma tabela de destino. Confira Clonar uma tabela no Azure Databricks.

Atualizações da interface do usuário

13 de fevereiro de 2025

  • Versão preliminar dos metadados do Catálogo Unity na descoberta de dados: faça uma versão preliminar dos metadados dos ativos do Catálogo Unity passando o mouse sobre um ativo no navegador de esquemas. Essa funcionalidade está disponível no Gerenciador de Catálogos e em outras interfaces em que você usa o navegador de esquema, como painéis de IA/BI e o editor de SQL.

Um cartão que contém metadados do catálogo do Unity, como o proprietário e o histórico de consultas recentes, é exibido à direita da listagem do catálogo.

  • Filtrar para localizar os ativos de dados que você pode consultar: as configurações de filtro no navegador de esquema do Gerenciador de Catálogos agora inclui uma caixa de seleção Pode consultar. A seleção dessa opção exclui objetos que você pode exibir, mas não a consulta.

Filtrar as configurações com a alternância Pode consultar selecionada

Janeiro de 2025

Atualizações da interface do usuário

30 de janeiro de 2025

  • Gráfico de contagem de consultas concluído para sql warehouses (versão prévia pública): Um novo gráfico de contagem de consultas concluída agora está disponível na interface do usuário de monitoramento do SQL Warehouse. Este gráfico mostra o número de consultas concluídas em uma janela de tempo, incluindo consultas canceladas e com falha. O gráfico pode ser usado com os outros gráficos e a tabela Histórico de Consultas para avaliar e solucionar problemas de desempenho do warehouse. A consulta é alocada na janela de tempo em que é concluída. As contagens são médias por minuto. Para obter mais informações, consulte Monitoramento de um armazém de dados SQL.

  • Exibição de dados expandidos em gráficos do editor do SQL: As visualizações criadas no editor do SQL agora dão suporte a até 15.000 linhas de dados.

O Databricks SQL versão 2024.50 já está disponível

23 de janeiro de 2025

Databricks SQL versão 2024.50 agora está disponível no canal Preview. Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.

O tipo de dados VARIANT não pode mais ser usado com operações que exigem comparações

Você não pode usar as seguintes cláusulas ou operadores em consultas que incluem um tipo de dados VARIANT:

  • DISTINCT
  • INTERSECT
  • EXCEPT
  • UNION
  • DISTRIBUTE BY

Essas operações executam comparações e comparações que usam o tipo de dados VARIANT produzem resultados indefinidos e não têm suporte no Databricks. Se você usar o tipo VARIANT em suas cargas de trabalho ou tabelas do Azure Databricks, o Databricks recomendará as seguintes alterações:

  • Atualize consultas ou expressões para converter explicitamente os valores VARIANT para tipos de dados que não sejamVARIANT.
  • Se você tiver campos que devem ser usados com qualquer uma das operações acima, extraia esses campos do tipo de dados VARIANT e armazene-os usando tipos de dados nãoVARIANT.

Para saber mais, consulte Dados de variantes da consulta.

Suporte para parametrizar a cláusula USE CATALOG with IDENTIFIER

A cláusula IDENTIFIER tem suporte para a instrução USE CATALOG. Com esse suporte, você pode parametrizar o catálogo atual com base em uma variável de cadeia de caracteres ou marcador de parâmetro.

COMMENT ON COLUMN suporte para tabelas e exibições

A instrução COMMENT ON dá suporte à alteração de comentários para colunas de exibição e tabela.

Novas funções SQL

As seguintes novas funções SQL internas estão disponíveis:

  • dayname(expr) retorna o acrônimo inglês de três letras para o dia da semana para a data determinada.
  • uniform(expr1, expr2 [,seed]) retorna um valor aleatório com valores independentes e distribuídos de forma idêntica dentro do intervalo de números especificado.
  • randstr(length) retorna uma cadeia de caracteres aleatória de length caracteres alfanuméricos.

Invocação de parâmetro nomeado para mais funções

As seguintes funções dão suporte à invocação de parâmetro nomeado:

Os tipos aninhados agora aceitam corretamente restrições NULL

Essa versão corrige um bug que afeta algumas colunas geradas por Delta de tipos aninhados, por exemplo, STRUCT. Essas colunas às vezes rejeitavam incorretamente expressões com base em restrições NULL ou NOT NULL de campos aninhados. Isso foi corrigido.

Atualizações da interface do usuário do editor do SQL

15 de janeiro de 2025

O novo editor do SQL (Visualização Pública) inclui os seguintes aprimoramentos na interface do usuário:

  • Experiência de download aprimorada: As saídas de consulta são automaticamente nomeadas após a consulta quando baixadas.
  • Atalhos de teclado para dimensionamento de fontes: Use Alt + e Alt - (Windows/Linux) ou Opt + ( Opt - macOS) para ajustar rapidamente o tamanho da fonte no editor do SQL.
  • Menções de usuário nos comentários: Marque usuários específicos com @ nos comentários para enviar notificações por email.
  • Navegação de guias mais rápida: a troca de guias agora é até 80% mais rápida para guias carregadas e 62% mais rápida para guias descarregadas.
  • Seleção simplificada do warehouse: As informações de tamanho do SQL Warehouse são exibidas diretamente no seletor de computação para facilitar a seleção.
  • Atalhos de edição de parâmetro: Use Ctrl + Enter (Windows/Linux) ou Cmd + Enter (macOS) para executar consultas durante a edição de valores de parâmetro.
  • Controle de versão aprimorado: Os resultados da consulta são preservados no histórico de versões para melhor colaboração.

Atualizações de visualização de gráfico

15 de janeiro de 2025

O novo sistema de gráficos com melhor desempenho, esquemas de cores aprimorados e interatividade mais rápida agora está disponível em geral. Consulte visualizações em blocos de anotações do Databricks e no editor de SQL e tipos de visualização dos blocos de anotações e do editor de SQL.