Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Os seguintes recursos e melhorias do Databricks SQL foram lançados em 2025.
Novembro de 2025
A versão 2025.35 do Databricks SQL está a ser implementada na Current
20 de novembro de 2025
A versão 2025.35 do Databricks SQL está a ser implementada no canal Current . Ver funcionalidades em 2025.35.
Os alertas do Databricks SQL estão agora em Pré-visualização Pública
14 de novembro de 2025
- Alertas SQL do Databricks: A versão mais recente dos alertas Databricks SQL, com uma nova experiência de edição, está agora em Visualização Pública. Consulte Alertas SQL do Databricks.
Correção de visualização do Editor SQL
6 de novembro de 2025
- Corrigido problema de exibição de dica de ferramenta: resolvido um problema em que as dicas de ferramentas ficavam ocultas atrás da legenda nas visualizações do Bloco de Anotações e do Editor SQL.
Outubro de 2025
Databricks SQL versão 2025.35 já está disponível no Preview
30 de outubro de 2025
O Databricks SQL versão 2025.35 já está disponível no canal de visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
EXECUTE IMMEDIATE Usando expressões constantes
Agora pode passar expressões constantes como cadeia de caracteres na SQL e como argumentos para marcadores de parâmetro em instruções SQL EXECUTE IMMEDIATE.
LIMIT ALL suporte para CTEs recursivas
Agora você pode usar LIMIT ALL para remover a restrição de tamanho total em CTEs (expressões de tabela comuns) recursivas.
st_dump suporte para funções
Agora você pode usar a st_dump função para obter uma matriz contendo as geometrias únicas da geometria de entrada. Consulte a função st_dump.
As funções do anel interior do polígono são agora suportadas
Agora você pode usar as seguintes funções para trabalhar com anéis interiores de polígonos:
-
st_numinteriorrings: Obter o número de limites internos (anéis) de um polígono. Consulte a funçãost_numinteriorrings. -
st_interiorringn: Extraia o n-ésimo limite interno de um polígono e devolva-o como uma cadeia de linha. Consulte a funçãost_interiorringn.
Suporte a informações de atualização de MV/ST em DESCRIBE EXTENDED AS JSON
O Azure Databricks agora gera uma secção para informações de atualização de vistas materializadas e tabelas de streaming DESCRIBE EXTENDED AS JSON na saída, incluindo a hora da última atualização, tipo de atualização, status e agenda.
Adicionar coluna de metadados a DESCRIBE QUERY e DESCRIBE TABLE
O Azure Databricks agora inclui uma coluna de metadados na saída de DESCRIBE QUERY e DESCRIBE TABLE para metadados semânticos.
Para DESCRIBE QUERY, ao descrever uma consulta com exibições métricas, os metadados semânticos propagam-se pela consulta se as dimensões forem referenciadas diretamente e as medidas utilizarem a função MEASURE().
Para DESCRIBE TABLE, a coluna de metadados aparece apenas para exibições métricas, não para outros tipos de tabela.
Tratamento correto de estruturas de valor nulo ao remover colunas NullType.
Ao gravar em tabelas Delta, o Azure Databricks agora preserva corretamente os valores struct nulos ao remover NullType colunas do esquema. Anteriormente, structs null foram substituídos incorretamente por valores struct não-nulos onde todos os campos foram definidos como null.
Nova experiência de edição de alertas
Outubro 20, 2025
- Nova experiência de edição de alertas: Criar ou editar um alerta agora é aberto no novo editor de várias guias, fornecendo um fluxo de trabalho de edição unificado. Consulte Alertas SQL do Databricks.
Correção de visualizações
9 de outubro de 2025
- Seleção de legendas para nomes de séries com alias: A seleção de legendas agora funciona corretamente para gráficos com nomes de séries com alias no editor SQL e blocos de anotações.
Metadados semânticos em exibições métricas
Outubro 2, 2025
Agora você pode definir metadados semânticos em uma exibição métrica. Os metadados semânticos ajudam as ferramentas de IA, como espaços Genie e painéis de IA/BI, a interpretar e usar seus dados de forma mais eficaz.
Para usar metadados semânticos, sua visualização métrica deve usar a especificação YAML versão 1.1 ou superior e ser executada em DBR 17.2 ou superior. A versão correspondente do Databricks SQL é 2025.30, disponível no canal de pré-visualização para armazéns SQL.
Consulte Usar metadados semânticos em exibições métricas e Atualizar seu YAML para 1.1.
Setembro de 2025
Databricks SQL versão 2025.30 já está disponível no Preview
25 de setembro de 2025
O Databricks SQL versão 2025.30 já está disponível no canal de visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
Ordenações baseadas em UTF8 agora suportam o operador LIKE
Agora você pode usar LIKE com colunas que têm um dos seguintes agrupamentos habilitados: UTF8_Binary, UTF8_Binary_RTRIM, UTF8_LCASE, UTF8_LCASE_RTRIM. Consulte Classificação.
ST_ExteriorRing agora é suportada
Agora você pode usar a função para extrair o ST_ExteriorRing limite externo de um polígono e retorná-lo como uma cadeia de caracteres. Consulte a função st_exteriorring.
Declarar várias variáveis locais ou de sessão em uma única DECLARE instrução
Agora você pode declarar várias variáveis locais ou de sessão do mesmo tipo e valor padrão em uma única DECLARE instrução. Consulte DECLARE VARIABLE e BEGIN END declaração composta.
Palavra-chave de suporte TEMPORARY para criação de visualização métrica
Agora você pode usar a TEMPORARY palavra-chave ao criar uma exibição métrica. As exibições métricas temporárias são visíveis somente na sessão que as criou e são descartadas quando a sessão termina. Ver CREATE VIEW.
DESCRIBE CONNECTION mostra as configurações de ambiente para conexões JDBC
O Azure Databricks agora inclui configurações de ambiente definidas pelo DESCRIBE CONNECTION usuário na saída para conexões JDBC que dão suporte a drivers personalizados e são executadas isoladamente. Outros tipos de conexão permanecem inalterados.
Sintaxe SQL para opções de leitura Delta em consultas de streaming
Agora você pode especificar opções de leitura Delta para consultas de streaming baseadas em SQL usando a WITH cláusula. Por exemplo:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Resultados corretos para split com regex vazio e limite positivo
O Azure Databricks agora retorna resultados corretos ao usar split function com um regex vazio e um limite positivo. Anteriormente, a função truncava incorretamente a cadeia de caracteres restante em vez de incluí-la no último elemento.
Correção url_decode e try_url_decode tratamento de erros no Photon
Em Photon, try_url_decode() e url_decode() com failOnError = false agora retornar NULL para cadeias de caracteres codificadas por URL inválidas em vez de falhar na consulta.
Agosto de 2025
A configuração padrão do depósito agora está disponível na versão Beta
28 de agosto de 2025
Defina um armazém padrão que será selecionado automaticamente no seletor de computação no editor SQL, painéis de I/BI, AI/BI Genie, Alertas e Catalog Explorer. Os usuários individuais podem substituir essa configuração selecionando um depósito diferente antes de executar uma consulta. Eles também podem definir seu próprio armazém padrão de nível de usuário para aplicar em suas sessões. Consulte Definir um armazém SQL predefinido para a área de trabalho e Definir um armazém predefinido ao nível do utilizador.
O Databricks SQL versão 2025.25 está sendo lançado em Atual
21 de agosto de 2025
A versão 2025.25 do Databricks SQL será lançada no canal Current de 20 de agosto de 2025 a 28 de agosto de 2025. Ver funcionalidades em 2025.25.
Databricks SQL versão 2025.25 já está disponível no Preview
14 de agosto de 2025
O Databricks SQL versão 2025.25 já está disponível no canal de visualização . Analise a seção a seguir para saber mais sobre novos recursos e mudanças comportamentais.
Expressões de tabela comuns recursivas (rCTE) estão geralmente disponíveis
Expressões de tabela comuns recursivas (rCTEs) estão geralmente disponíveis. Navegue pelos dados hierárquicos usando um CTE de autorreferência com UNION ALL para seguir a relação recursiva.
Suporte para agrupamento padrão em nível de esquema e catálogo
Agora você pode definir um agrupamento padrão para esquemas e catálogos. Isso permite definir um agrupamento que se aplica a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de agrupamento consistente em seus dados.
Suporte para expressões SQL espaciais e tipos de dados GEOMETRY e GEOGRAPHY
Agora pode armazenar dados geoespaciais em colunas incorporadas GEOMETRY e GEOGRAPHY para melhorar o desempenho de consultas espaciais. Esta versão adiciona mais de 80 novas expressões SQL espaciais, incluindo funções para importar, exportar, medir, construir, editar, validar, transformar e determinar relações topológicas com junções espaciais. Consulte Funções geoespaciais ST, GEOGRAPHY tipo e GEOMETRY tipo.
Suporte para agrupamento padrão em nível de esquema e catálogo
Agora você pode definir um agrupamento padrão para esquemas e catálogos. Isso permite definir um agrupamento que se aplica a todos os objetos criados no esquema ou catálogo, garantindo um comportamento de agrupamento consistente em seus dados.
Melhor tratamento das opções JSON com VARIANT
As funções from_json e to_json agora aplicam corretamente as opções JSON ao trabalhar com esquemas de nível superior VARIANT. Isso garante um comportamento consistente com outros tipos de dados suportados.
Suporte para sintaxe TIMESTAMP WITHOUT TIME ZONE
Agora você pode especificar TIMESTAMP WITHOUT TIME ZONE em vez de TIMESTAMP_NTZ. Essa alteração melhora a compatibilidade com o SQL Standard.
Problema de correlação de subconsulta resolvido
O Azure Databricks não correlaciona mais incorretamente expressões agregadas semanticamente iguais entre uma subconsulta e sua consulta externa. Anteriormente, isso poderia levar a resultados de consulta incorretos.
Erro gerado por restrições inválidas CHECK
O Azure Databricks agora lança um AnalysisException se uma CHECK não puder ser resolvida durante a validação de restrição.
Regras mais rígidas para junções de fluxo-fluxo no modo de adição
O Azure Databricks agora não permite consultas de streaming no modo de acréscimo que usam uma junção de fluxo seguida de agregação de janela, a menos que marcas d'água sejam definidas em ambos os lados. Consultas sem marcas d'água adequadas podem produzir resultados não finais, violando as garantias do modo de adição.
Novo editor SQL está disponível em geral
14 de agosto de 2025
O novo editor SQL está agora disponível para o público em geral. O novo editor SQL fornece um ambiente de criação unificado com suporte para resultados de várias instruções, histórico de execução em linha, colaboração em tempo real, integração aprimorada do Databricks Assistant e recursos adicionais de produtividade. Consulte Escrever consultas e explorar dados no novo editor SQL.
Tratamento de tempo limite fixo para visualizações materializadas e tabelas de streaming
14 de agosto de 2025
Novo comportamento de tempo limite para exibições materializadas e tabelas de streaming criadas no Databricks SQL:
- As visualizações materializadas e as tabelas de streaming criadas após 14 de agosto de 2025 terão o tempo limite do depósito aplicado automaticamente.
- Para visualizações materializadas e tabelas de streaming criadas antes de 14 de agosto de 2025, execute
CREATE OR REFRESHpara sincronizar a configuração de tempo limite com a configuração de tempo limite do depósito. - Todas as visualizações materializadas e tabelas de streaming agora têm um tempo limite padrão de dois dias.
Julho de 2025
Intervalos de datas predefinidos para parâmetros no editor SQL
Julho 31, 2025
No novo editor SQL, agora você pode escolher entre intervalos de datas predefinidos, como Esta semana, Últimos 30 dias ou Último ano ao usar parâmetros de carimbo de data/hora, data e intervalo de datas. Essas predefinições tornam mais rápida a aplicação de filtros de tempo comuns sem inserir datas manualmente.
A lista Jobs & Pipelines agora inclui pipelines do SQL Databricks
Julho 29, 2025
A lista Jobs & Pipelines agora inclui pipelines para exibições materializadas e tabelas de streaming que foram criadas com o Databricks SQL.
Histórico de execução em linha no editor SQL
Julho 24, 2025
O histórico de execução em linha agora está disponível no novo editor SQL, permitindo que você acesse rapidamente os resultados anteriores sem executar consultas novamente. Faça referência fácil a execuções anteriores, navegue diretamente para perfis de consulta anteriores ou compare tempos de execução e status, tudo dentro do contexto da sua consulta atual.
A versão 2025.20 do Databricks SQL já está disponível no Canal Atual.
Julho 17, 2025
O Databricks SQL versão 2025.20 está a ser implementado em estágios para o canal atual. Para conhecer os recursos e atualizações desta versão, consulte Recursos da versão 2025.20.
Atualizações do editor SQL
Julho 17, 2025
Melhorias nos parâmetros nomeados: Parâmetros de intervalo de datas e seleção múltipla agora são suportados. Para obter os parâmetros do intervalo de datas, consulte Adicionar um intervalo de datas. Para parâmetros de seleção múltipla, consulte Usar vários valores em uma única consulta.
Layout de cabeçalho atualizado no editor SQL: O botão Executar e o seletor de catálogo foram movidos para o cabeçalho, criando mais espaço vertical para escrever consultas.
Suporte Git para alertas
Julho 17, 2025
Agora você pode usar as pastas Databricks Git para controlar e gerenciar alterações em alertas. Para rastrear alertas com o Git, coloque-os em uma pasta Databricks Git. Os alertas recém-clonados só aparecem na página de listagem de alertas ou na API depois que um usuário interage com eles. Eles têm horários pausados e precisam ser explicitamente retomados pelos usuários. Consulte Como a integração do Git funciona com alertas.
O Databricks SQL versão 2025.20 já está disponível no Preview
Julho 3, 2025
O Databricks SQL versão 2025.20 já está disponível no canal de visualização . Analise a seção a seguir para saber mais sobre novos recursos e mudanças comportamentais.
Suporte a procedimentos SQL
Os scripts SQL agora podem ser encapsulados em um procedimento armazenado como um ativo reutilizável no Unity Catalog. Você pode criar um procedimento usando o comando CREATE PROCEDURE e, em seguida, chamá-lo usando o comando CALL .
Definir um agrupamento padrão para funções SQL
O uso da nova cláusula DEFAULT COLLATION no comando CREATE FUNCTION define a ordenação padrão usada para parâmetros STRING, o tipo de retorno e literais STRING dentro do corpo da função.
Suporte a expressões de tabela comuns recursivas (rCTE)
O Azure Databricks agora dá suporte à navegação de dados hierárquicos usando rCTEs (recursive common table expressions).
Use uma CTE autorreferenciada com UNION ALL para seguir a relação recursiva.
Suporte ALL CATALOGS em SHOW esquemas
A SHOW SCHEMAS sintaxe é atualizada para aceitar a seguinte sintaxe:
SHOW SCHEMAS [ { FROM | IN } { catalog_name | ALL CATALOGS } ] [ [ LIKE ] pattern ]
Quando ALL CATALOGS é especificado em uma SHOW consulta, a execução itera por todos os catálogos ativos que oferecem suporte a namespaces usando o gerenciador de catálogos (DsV2). Para cada catálogo, ele inclui os namespaces de nível superior.
Os atributos de saída e o esquema do comando foram modificados para adicionar uma catalog coluna indicando o catálogo do namespace correspondente. A nova coluna é adicionada ao final dos atributos de saída, conforme mostrado abaixo:
Saída anterior
| Namespace |
|------------------|
| test-namespace-1 |
| test-namespace-2 |
Novo resultado
| Namespace | Catalog |
|------------------|----------------|
| test-namespace-1 | test-catalog-1 |
| test-namespace-2 | test-catalog-2 |
O agrupamento de líquidos agora compacta vetores de exclusão de forma mais eficiente
As tabelas delta com clustering Liquid agora aplicam alterações físicas de vetores de exclusão de forma mais eficiente quando OPTIMIZE está em execução. Para obter mais detalhes, consulte Aplicar alterações aos arquivos de dados do Parquet.
Permitir expressões não determinísticas em UPDATE/INSERT valores de coluna para MERGE operações
O Azure Databricks agora permite o uso de expressões não determinísticas nos valores das colunas atualizadas e inseridas em operações de MERGE. No entanto, expressões não determinísticas nas condições dos enunciados MERGE não são suportadas.
Por exemplo, agora você pode gerar valores dinâmicos ou aleatórios para colunas:
MERGE INTO target USING source
ON target.key = source.key
WHEN MATCHED THEN UPDATE SET target.value = source.value + rand()
Isso pode ser útil para a privacidade de dados, ofuscando os dados reais enquanto preserva as propriedades dos dados (como valores médios ou outras colunas computadas).
Suporte a palavra-chave VAR para declarar e descartar variáveis SQL
A sintaxe SQL para declarar e eliminar variáveis agora suporta a palavra-chave VAR além de VARIABLE. Essa alteração unifica a sintaxe em todas as operações relacionadas a variáveis, o que melhora a consistência e reduz a confusão para os usuários que já usam VAR ao definir variáveis.
CREATE VIEW cláusulas ao nível da coluna agora geram erros quando a cláusula se aplica apenas a vistas materializadas
Os comandos CREATE VIEW que especificam uma cláusula de nível de coluna, que é válida apenas para MATERIALIZED VIEWs, geram agora um erro. As cláusulas afetadas para os comandos CREATE VIEW são as seguintes:
NOT NULL- Um tipo de dados especificado, como
FLOATouSTRING DEFAULTCOLUMN MASK
junho de 2025
Atualizações do mecanismo Databricks SQL Serverless
Junho 11, 2025
As seguintes atualizações de mecanismo estão sendo lançadas globalmente, com a disponibilidade se expandindo para todas as regiões nas próximas semanas.
- Menor latência: painéis, trabalhos de ETL e cargas de trabalho mistas agora são executados mais rapidamente, com até 25% por cento de melhoria. A atualização é aplicada automaticamente a armazéns SQL sem servidor sem custo ou configuração adicionais.
- PQE (Predictive Query Execution): o PQE monitora tarefas em tempo real e ajusta dinamicamente a execução de consultas para ajudar a evitar distorções, derramamentos e trabalho desnecessário.
- Photon vectorized shuffle: mantém os dados em formato colunar compacto, classifica-os no cache de alta velocidade da CPU e processa múltiplos valores simultaneamente usando instruções vetorizadas. Isso melhora a taxa de transferência para cargas de trabalho ligadas à CPU, como grandes junções e agregação ampla.
Atualizações da interface do usuário
5 de junho de 2025
-
Melhorias no Query Insights: Visitar a página Histórico de consultas agora emite o
listHistoryQueriesevento. A abertura de um perfil de consulta agora emite o eventogetHistoryQuery.
maio de 2025
As visualizações métricas estão em Visualização Pública
Maio 29, 2025
As visualizações de métricas do Unity Catalog fornecem uma maneira centralizada de definir e gerenciar métricas de negócios principais consistentes, reutilizáveis e governadas. Eles abstraem a lógica de negócios complexa em uma definição centralizada, permitindo que as organizações definam indicadores-chave de desempenho uma vez e os usem de forma consistente em ferramentas de relatórios, como painéis, espaços Genie e alertas. Use um SQL warehouse em execução no canal Preview (2025.16) ou outro recurso de computação executando o Databricks Runtime 16.4 ou superior para trabalhar com exibições métricas. Consulte Visualizações métricas do Catálogo Unity.
Atualizações da interface do usuário
Maio 29, 2025
-
Novas melhorias no editor SQL:
- Novas consultas na pasta Rascunhos: Novas consultas agora são criadas por padrão na pasta Rascunhos. Quando os documentos são salvos ou renomeados, eles saem automaticamente dos Rascunhos.
-
Suporte a trechos de consulta: Agora você pode criar e reutilizar trechos de consulta — segmentos predefinidos de SQL, como
JOINouCASEexpressões, com suporte para preenchimento automático e pontos de inserção dinâmicos. Crie trechos escolhendo Exibir>trechos de consulta. - Eventos do log de auditoria: Os eventos de log de auditoria agora são emitidos para ações executadas no novo editor SQL.
- Impacto dos filtros nas visualizações: Os filtros aplicados às tabelas de resultados agora também afetam as visualizações, permitindo a exploração interativa sem modificar a consulta SQL.
Nova versão de alerta em versão Beta
Maio 22, 2025
Uma nova versão dos alertas está agora em versão Beta. Esta versão simplifica a criação e o gerenciamento de alertas, consolidando a configuração da consulta, as condições, os horários e os destinos de notificação em uma única interface. Você ainda pode usar alertas herdados junto com a nova versão. Consulte Alertas SQL do Databricks.
Atualizações da interface do usuário
Maio 22, 2025
- Formatação de dica de ferramenta em gráficos: As dicas de ferramenta em gráficos do editor SQL e blocos de notas agora seguem a formatação de número definida na guia Rótulos de dados. Consulte Visualizações em blocos de notas do Databricks e Editor de SQL.
Databricks SQL versão 2025.16 já está disponível
Maio 15, 2025
O Databricks SQL versão 2025.16 já está disponível no canal de visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
IDENTIFIER suporte agora disponível no Databricks SQL para operações de catálogo
Agora você pode usar a IDENTIFIER cláusula ao executar as seguintes operações de catálogo:
CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Essa nova sintaxe permite especificar dinamicamente nomes de catálogo usando parâmetros definidos para essas operações, permitindo fluxos de trabalho SQL mais flexíveis e reutilizáveis. Como exemplo da sintaxe, considere CREATE CATALOG IDENTIFIER(:param) onde param é um parâmetro fornecido para especificar um nome de catálogo.
Para obter mais detalhes, consulte IDENTIFIER a cláusula.
As expressões agrupadas agora fornecem aliases transitórios gerados automaticamente
Os aliases gerados automaticamente para expressões agrupadas agora sempre incorporarão COLLATE informações de forma determinística. Os aliases gerados automaticamente são transitórios (instáveis) e não devem ser confiáveis. Em vez disso, como prática recomendada, use expression AS alias de forma consistente e explícita.
UNIÃO/EXCETO/INTERSEÇÃO dentro de uma visualização e EXECUTE IMMEDIATE agora retornam resultados corretos
Consultas para definições de exibição temporárias e persistentes com colunas de nível superior UNION/EXCEPT/INTERSECT e sem apelidos anteriormente retornaram resultados incorretos porque UNION/EXCEPT/INTERSECT as palavras-chave foram consideradas apelidos. Agora, essas consultas executarão corretamente toda a operação do conjunto.
EXECUTE IMMEDIATE ... INTOcom colunas de topo de nível superior UNION/EXCEPT/INTERSECT e colunas não-aliasadas também escreveram um resultado incorreto de uma operação de conjunto na variável especificada devido ao analisador interpretar essas palavras-chave como aliases. Da mesma forma, consultas SQL com texto final inválido também foram permitidas. As operações definidas nesses casos agora gravam um resultado correto na variável especificada ou falham em caso de texto SQL inválido.
Novas listagg e string_agg funções
Agora você pode usar as listagg funções ou string_agg para agregar STRING e BINARY valores em um grupo. Consulte string_agg para obter mais detalhes.
Correção para o agrupamento de literais inteiros com alias que causou problemas em determinadas operações
O agrupamento de expressões em um literal inteiro com alias anteriormente não funcionava corretamente para certas operações como MERGE INTO. Por exemplo, essa expressão retornaria GROUP_BY_POS_OUT_OF_RANGE porque o valor (val) seria substituído por 202001:
merge into t
using
(select 202001 as val, count(current_date) as total_count group by val) on 1=1
when not matched then insert (id, name) values (val, total_count)
Isso foi corrigido. Para atenuar o problema em suas consultas existentes, verifique se as constantes que você está usando não são iguais à posição da coluna que deve estar nas expressões de agrupamento.
Habilitar o sinalizador para não permitir a desativação da materialização de origem para MERGE operações
Anteriormente, os utilizadores podiam desativar a materialização de origem ao definir MERGEmerge.materializeSource como none. Com o novo sinalizador ativado, isso será proibido e causará um erro. O Databricks planeja habilitar o sinalizador apenas para clientes que não usaram esse sinalizador de configuração antes, portanto, nenhum cliente deve notar qualquer mudança no comportamento.
Abril de 2025
Databricks SQL versão 2025.15 já está disponível
10 de abril de 2025
O Databricks SQL versão 2025.15 já está disponível no canal de visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
Edite várias colunas usando ALTER TABLE
Agora você pode alterar várias colunas em uma única ALTER TABLE instrução. Ver ALTER TABLE cláusula. COLUMN
O downgrade do protocolo da tabela delta é GA com proteção de ponto de verificação
DROP FEATURE está disponível geralmente para remover funcionalidades da tabela Delta Lake e reverter o protocolo da tabela. Por padrão, DROP FEATURE agora cria pontos de verificação protegidos para uma experiência de downgrade mais otimizada e simplificada que não requer tempo de espera ou truncamento de histórico. Consulte Remover uma funcionalidade da tabela Delta Lake e fazer downgrade do protocolo da tabela.
Escrever scripts SQL processuais com base em ANSI SQL/PSM (Public Preview)
Agora você pode usar recursos de script baseados em ANSI SQL/PSM para escrever lógica processual com SQL, incluindo instruções condicionais, loops, variáveis locais e tratamento de exceções. Consulte programação SQL.
Agrupamento padrão de tabela e nível de exibição
Agora você pode especificar um agrupamento padrão para tabelas e exibições. Isso simplifica a criação de tabelas e modos de exibição onde todas ou a maioria das colunas compartilham o mesmo agrupamento. Consulte Classificação.
Novas funções H3
As seguintes funções H3 foram adicionadas:
O suporte a painéis herdados terminou
10 de abril de 2025
O suporte oficial para painéis antigos foi encerrado. Não é mais possível criar ou clonar painéis herdados usando a interface do usuário ou a API. O Databricks continua a resolver problemas críticos de segurança e interrupções de serviço, mas recomenda o uso de painéis de IA/BI para todo o novo desenvolvimento. Para saber mais sobre painéis de IA/BI, consulte Painéis. Para obter ajuda na migração, consulte Clone um painel herdado para um painel de IA/BI e Usar APIs de painel para criar e gerenciar painéis.
Opções de formatação automática personalizadas para consultas SQL
3 de abril de 2025
Personalize as opções de formatação automática para todas as suas consultas SQL. Consulte Declarações SQL em formato personalizado.
Corrigido o problema de visualizações Boxplot
3 de abril de 2025
Corrigido um problema em que as visualizações de boxplot do Databricks SQL com apenas um eixo x categórico não exibiam categorias e barras corretamente. As visualizações agora são renderizadas conforme o esperado.
A permissão CAN VIEW para armazéns SQL está em Visualização Pública
3 de abril de 2025
A permissão CAN VIEW está agora em Visualização Pública. Essa permissão permite que os usuários monitorem armazéns SQL, incluindo o histórico de consultas associado e os perfis de consulta. Os usuários com permissão CAN VIEW não podem executar consultas no SQL warehouse sem receber permissões adicionais. Consulte ACLs do SQL warehouse.
Março de 2025
Atualizações da interface do usuário
Março 27, 2025
- Perfis de consulta atualizados para melhorar a usabilidade: Os perfis de consulta foram atualizados para melhorar a usabilidade e ajudá-lo a acessar rapidamente informações importantes. Consulte Perfil de consulta.
Atualizações da interface do usuário
20 de março de 2025
- Transfira a propriedade do armazém de dados SQL para a entidade de serviço: Agora é possível usar a interface de utilizador para transferir a propriedade do armazém de dados para uma entidade de serviço.
Atualizações da interface do usuário
6 de março de 2025
- Os gráficos de eixo duplo agora suportam zoom: Agora você pode clicar e arrastar para ampliar em gráficos de eixo duplo.
- Fixar colunas da tabela: Agora você pode fixar colunas da tabela no lado esquerdo da exibição da tabela. As colunas permanecem em exibição enquanto você rola para a direita na tabela. Ver as configurações de coluna .
- Corrigido um problema com gráficos de combinação: Resolvido o desalinhamento entre rótulos e barras do eixo x ao usar um campo temporal no eixo x.
fevereiro de 2025
Databricks SQL versão 2025.10 já está disponível
Fevereiro 21, 2025
Databricks SQL versão 2025.10 já está disponível no canal Preview. Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
No Compartilhamento Delta, o histórico da tabela é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table> agora têm o compartilhamento de histórico (WITH HISTORY) habilitado por padrão. Ver ALTER SHARE.
As instruções SQL de credenciais retornam um erro quando há uma incompatibilidade de tipo de credencial
Com esta versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name', se credential-name não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que uma credencial que não correspondesse ao tipo de credencial especificado fosse passada. Por exemplo, a seguinte instrução excluiria com êxito storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Essa alteração afeta as seguintes declarações:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… ON… CREDENCIAL
- REVOKE… ON… CREDENCIAL
- SHOW GRANTS SOBRE... CREDENCIAL
Usar o timestampdiff & timestampadd em expressões de coluna geradas
As expressões de coluna geradas pelo Delta Lake agora suportam as funções timestampdiff e timestampadd.
Suporte para sintaxe de pipeline SQL
Agora podes criar pipelines SQL. Um pipeline SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe suportada para pipelines SQL, ver SQL Pipeline Syntax.
Para obter informações básicas sobre essa extensão entre setores, consulte SQL tem problemas. Nós podemos corrigi-los: sintaxe de pipe em SQL (por Google Research).
Fazer solicitação HTTP usando a função http_request
Agora você pode criar conexões HTTP e, através delas, fazer solicitações HTTP usando a função http_request.
Atualização para DESCRIBE TABLE retorna metadados como JSON estruturado
Agora você pode usar o comando DESCRIBE TABLE AS JSON para retornar metadados da tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório padrão legível por humanos e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Agrupamentos insensíveis em branco à direita
Adicionado suporte para agrupamentos insensíveis a espaços em branco finais. Por exemplo, esses agrupamentos tratam 'Hello' e 'Hello ' como iguais. Para saber mais, consulte collation RTRIM.
Processamento incremental de clones melhorado
Esta versão inclui uma correção para um caso extremo em que um CLONE incremental pode voltar a copiar arquivos que já foram copiados de uma tabela de origem para uma tabela de destino. Consulte Clonar uma tabela no Azure Databricks.
Atualizações da interface do usuário
13 de fevereiro de 2025
- Visualizar metadados do Unity Catalog na descoberta de dados: Visualizar metadados para ativos do Unity Catalog ao passar o rato sobre um ativo no navegador de esquemas. Esse recurso está disponível no Catalog Explorer e em outras interfaces nas quais você usa o navegador de esquema, como painéis de IA/BI e o editor SQL.
- Filtre para localizar ativos de dados que se podem consultar: As configurações de filtro no visualizador de esquema do Catalog Explorer agora incluem uma opção de seleção Pode consultar. Selecionar essa opção exclui objetos que você pode exibir, mas não consultar.
janeiro de 2025
Atualizações da interface do usuário
30 de janeiro de 2025
Gráfico de contagem de consultas concluído para armazéns SQL (Visualização Pública): Um novo gráfico de contagem de consultas concluídas agora está disponível na interface do usuário de monitoramento do SQL warehouse. Este gráfico mostra o número de consultas concluídas em uma janela de tempo, incluindo consultas canceladas e com falha. O gráfico pode ser usado com os outros gráficos e a tabela Histórico de Consultas para avaliar e solucionar problemas de desempenho do depósito. A consulta é alocada na janela de tempo em que é concluída. As contagens são calculadas em média por minuto. Para obter mais informações, consulte Monitorizar uma warehouse SQL.
Exibição de dados expandidos em gráficos do editor SQL: As visualizações criadas no editor SQL agora suportam até 15.000 linhas de dados.
Databricks SQL versão 2024.50 já está disponível
23 de janeiro de 2025
O Databricks SQL versão 2024.50 já está disponível no canal de visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
O tipo de dados VARIANT não pode mais ser usado com operações que exigem comparações
Não é possível usar as seguintes cláusulas ou operadores em consultas que incluem um tipo de dados VARIANT:
DISTINCTINTERSECTEXCEPTUNIONDISTRIBUTE BY
Essas operações executam comparações e comparações que usam o tipo de dados VARIANT produzem resultados indefinidos e não são suportadas no Databricks. Se você usar o tipo VARIANT em suas cargas de trabalho ou tabelas do Azure Databricks, o Databricks recomenda as seguintes alterações:
- Atualize consultas ou expressões para converter explicitamente valores de
VARIANTpara tipos de dados que não sãoVARIANT. - Se você tiver campos que devem ser usados com qualquer uma das operações acima, extraia esses campos do tipo de dados
VARIANTe armazene-os usando tipos de dados nãoVARIANT.
Para saber mais, consulte Consultar dados de variante.
Suporte para parametrização da cláusula USE CATALOG with IDENTIFIER
A cláusula IDENTIFIER é suportada para a instrução USE CATALOG. Com esse suporte, você pode parametrizar o catálogo atual com base em uma variável de cadeia de caracteres ou marcador de parâmetro.
COMMENT ON COLUMN Suporte para tabelas e vistas
A instrução COMMENT ON suporta a alteração de comentários para colunas de visualização e de tabela.
Novas funções SQL
As seguintes novas funções SQL internas estão disponíveis:
- dayname(expr) retorna o acrônimo inglês de três letras para o dia da semana para a data determinada.
- uniforme(expr1, expr2 [,semente]) retorna um valor aleatório com valores independentes e distribuídos de forma idêntica dentro do intervalo especificado de números.
-
randstr(length) retorna uma sequência aleatória de
lengthcaracteres alfanuméricos.
Invocação de parâmetro nomeado para mais funções
As seguintes funções suportam invocação de parâmetro nomeado:
Os tipos aninhados agora aceitam corretamente restrições NULL
Esta versão corrige um bug que afeta algumas colunas geradas pelo Delta de tipos aninhados, por exemplo, STRUCT. Às vezes, essas colunas rejeitavam incorretamente expressões com base em restrições NULL ou NOT NULL de campos aninhados. Isso foi corrigido.
Atualizações da interface do usuário do editor SQL
15 de janeiro de 2025
O novo editor SQL (Public Preview) inclui as seguintes melhorias na interface do usuário:
- Experiência de download aprimorada: As saídas de consulta são automaticamente nomeadas após a consulta quando baixadas.
-
Atalhos de teclado para dimensionamento de fontes: Use
Alt +eAlt -(Windows/Linux) ouOpt +eOpt -(macOS) para ajustar rapidamente o tamanho da fonte no editor SQL. -
Menções de usuário nos comentários: Marque usuários específicos com
@comentários para enviar notificações por e-mail. - Navegação de separador mais rápida: A comutação de separadores é agora até 80% mais rápida para separadores carregados e 62% mais rápida para separadores descarregados.
- Seleção simplificada de armazéns: As informações de tamanho do SQL Warehouse são exibidas diretamente no seletor de computação para facilitar a seleção.
-
Atalhos de edição de parâmetros: Use
Ctrl + Enter(Windows/Linux) ouCmd + Enter(macOS) para executar consultas durante a edição de valores de parâmetros. - Controle de versão aprimorado: Os resultados da consulta são preservados no histórico de versões para uma melhor colaboração.
Atualizações de visualização de gráficos
15 de janeiro de 2025
O novo sistema de gráficos com melhor desempenho, esquemas de cores aprimorados e interatividade mais rápida agora está disponível em geral. Veja Visualizações em cadernos de Databricks e no editor SQL e Tipos de visualização do Notebook e do editor SQL.