Partilhar via


Agosto de 2025

Esses recursos e melhorias na plataforma Azure Databricks foram lançados em agosto de 2025.

Observação

Os lançamentos são realizados de forma faseada. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.

Interagir com trabalhos do Azure Databricks em um fluxo do Power Automate (Visualização Pública)

29 de agosto de 2025

Agora você pode interagir com trabalhos existentes do Azure Databricks no Power Automate. Para fazer isso, adicione uma ação de trabalho do Azure Databricks ao seu fluxo.

Consulte Usar seus dados do Azure Databricks para criar fluxos do Power Automatic.

Guia Banco de Dados OLTP renomeada para Lakebase Postgres na seção Computação

29 de agosto de 2025

A guia Banco de Dados OLTP na seção Computação do espaço de trabalho é renomeada para Lakebase Postgres. Use esta guia para criar e gerenciar suas instâncias de banco de dados do Lakebase.

Consulte Criar e gerenciar uma instância de banco de dados.

Atualizações da conta SCIM 2.0

29 de agosto de 2025

Para melhorar a estabilidade e suportar o crescimento futuro, a Databricks atualizou a API SCIM da conta para gerenciamento de identidades da seguinte maneira:

  • A chamada GET with filter params filter=displayName eq value_without_quotes resulta em um erro de sintaxe. Para evitar esse erro, use aspas para encapsular o valor (por exemplo, filter=displayName eq "value_with_quotes").

  • A chamada GET /api/2.0/accounts/{account_id}/scim/v2/Groups não retorna mais membros. Em vez disso, itere para get group details obter informações de associação. Consulte Obter detalhes do grupo.

  • A chamada PATCH /api/2.0/accounts/{account_id}/scim/v2/Groups/{id} retorna uma resposta 204 em vez de uma resposta 200.

Estas alterações aplicam-se a novas contas e serão transferidas para contas existentes. As integrações atuais continuarão a funcionar sem interrupções.

Acompanhe e navegue pelas execuções do bloco de anotações com o novo minimapa de execução de células

28 de agosto de 2025

Use o minimapa de execução de célula para acompanhar rapidamente o progresso do seu bloco de anotações. O minimapa aparece na margem direita e mostra o estado de execução de cada célula (ignorado, enfileirado, em execução, com êxito ou erro). Passe o cursor para ver os detalhes da célula ou clique para ir diretamente para uma célula.

Para obter informações sobre como usar o minimapa de execução de células, consulte Navegar no bloco de anotações e no editor de arquivos do Databricks.

Os administradores agora podem gerenciar os ambientes básicos sem servidor de um espaço de trabalho (Visualização pública)

28 de agosto de 2025

Ambientes básicos são especificações de ambiente personalizadas para notebooks sem servidor que definem uma versão de ambiente sem servidor e um conjunto de dependências.

Os administradores de espaço de trabalho agora podem criar e gerenciar os ambientes básicos disponíveis em seu espaço de trabalho. Eles também podem definir um ambiente base padrão para todos os novos notebooks sem servidor. Isso permite que os usuários do espaço de trabalho comecem rapidamente a trabalhar em um ambiente consistente e armazenado em cache.

Consulte Gerenciar ambientes básicos sem servidor.

Tabelas sincronizadas Lakebase suporta sincronização Apache Iceberg e tabelas estrangeiras no modo Snapshot

28 de agosto de 2025

Agora você pode criar tabelas sincronizadas no modo de sincronização de instantâneo a partir de tabelas Iceberg ou tabelas estrangeiras.

Consulte Tabelas de origem suportadas.

Os servidores MCP externos estão em versão Beta

28 de agosto de 2025

Os usuários agora podem conectar o Databricks a servidores MCP (Model Context Protocol) externos. Isso permite que os agentes acessem ferramentas fora do Databricks.

Consulte Protocolo de contexto de modelo (MCP) em Databricks.

Migrar pipelines declarativos do Lakeflow Spark a partir do modo de publicação antigo está agora em Disponibilidade Geral.

28 de agosto de 2025

O Lakeflow Spark Declarative Pipelines tem um modo de publicação herdado que só permitia a publicação em um único catálogo e esquema. O modo de publicação padrão permite a publicação em vários catálogos e esquemas. A migração do modo de publicação herdado para o modo de publicação padrão agora está disponível ao público em geral.

Consulte Habilitar o modo de publicação padrão em um pipeline

As tags controladas são Visualização Pública

26 de agosto de 2025

Agora você pode criar marcas controladas para impor uma marcação consistente entre ativos de dados, como catálogos, esquemas e tabelas. Usando tags controladas, os administradores definem as chaves e os valores permitidos e controlam quais usuários e grupos podem atribuí-los aos objetos. Isso ajuda a padronizar metadados para classificação de dados, rastreamento de custos, controle de acesso e automação.

Consulte Tags governadas.

O Databricks Runtime 17.2 e o Databricks Runtime 17.2 ML estão em versão Beta

26 de agosto de 2025

O Databricks Runtime 17.2 e o Databricks Runtime 17.2 ML estão agora em versão Beta. Essas versões incluem aprimoramentos de SQL e API, novas opções de migração e melhorias de confiabilidade e desempenho em toda a plataforma.

Consulte Databricks Runtime 17.2 e Databricks Runtime 17.2 para Machine Learning.

Novos INSERT REPLACE comandos (GA)

26 de agosto de 2025

INSERT REPLACE USING e INSERT REPLACE ON agora estão disponíveis para o Databricks Runtime 17.2. Para obter detalhes, consulte as notas de versão do Databricks Runtime 17.2.

Canadá Protegido B é GA

26 de agosto de 2025

A conformidade com CCCS Medium (Protected B) está agora disponível em geral. A conformidade com o CCCS Medium (Protected B) refere-se à adesão aos requisitos do Canadian Centre for Cyber Security para lidar e proteger informações governamentais confidenciais classificadas como "Protected B".

Ver Canadá Protegido B

A federação de tokens OAuth agora é GA

26 de agosto de 2025

A federação de tokens OAuth agora está disponível para o público em geral. A federação de tokens permite que você acesse com segurança as APIs do Azure Databricks usando tokens do seu provedor de identidade (IdP). Você pode configurar políticas de federação de token diretamente na interface do usuário do Azure Databricks ou usando a CLI do Azure Databricks ou a API REST.

Consulte Configurar uma política de federação.

Conector do Microsoft SQL Server GA

26 de agosto de 2025

O conector de ingestão do Microsoft SQL Server no Lakeflow Connect agora está disponível para o público em geral. Consulte Configurar o Microsoft SQL Server para ingestão no Azure Databricks.

Nova propriedade de tabela para controlar a compactação de tabela Delta

26 de agosto de 2025

Agora você pode definir explicitamente o codec de compactação para uma tabela Delta usando a delta.parquet.compression.codec propriedade table. Essa propriedade garante que todas as gravações futuras na tabela usem o codec escolhido. Consulte Referência de propriedades da tabela delta.

Atualização de mapeamento de tipo de dados para tabelas sincronizadas do Lakebase

25 de agosto de 2025

Para tabelas sincronizadas recém-criadas, TIMESTAMP os tipos em tabelas de origem agora são mapeados para TIMESTAMP WITH TIMEZONE tabelas sincronizadas. Nas tabelas sincronizadas existentes, TIMESTAMP os tipos continuam a ser mapeados para TIMESTAMP WITHOUT TIMEZONE.

Consulte Mapeamento de tipo de dados.

O agrupamento automático de líquidos está agora disponível para oleodutos declarativos Lakeflow Spark

25 de agosto de 2025

Agora você pode usar o agrupamento automático de líquidos com Lakeflow Spark Declarative Pipelines. Utilize o clustering automático de líquidos com CLUSTER BY AUTO, e o Databricks escolhe inteligentemente as chaves de clustering para otimizar o desempenho das consultas.

Consulte Agrupamento automático de líquidos, create_streaming_table, tabela, CREATE MATERIALIZED VIEW (pipelines) e CREATE STREAMING TABLE (pipelines).

Suporte à política de orçamento para instâncias de banco de dados Lakebase e tabelas sincronizadas (Visualização pública)

25 de agosto de 2025

Agora você pode marcar uma instância de banco de dados e uma tabela sincronizada com uma política de orçamento para atribuir o uso de cobrança a políticas específicas. Além disso, tags personalizadas podem ser adicionadas a uma instância de banco de dados para atribuição mais granular do uso de computação a equipes, projetos ou centros de custo.

Consulte Atualizar uma política de orçamento sem servidor de uma instância de banco de dados, Criar uma tabela sincronizada e Marcas personalizadas.

Disponibilidade de região expandida para aplicativos Databricks

25 de agosto de 2025

Databricks Apps agora disponível nas seguintes regiões:

  • germanywestcentral
  • brazilsouth
  • switzerlandnorth
  • centralindia
  • japaneast

Ver Funcionalidades com disponibilidade regional limitada

Conector de compartilhamento de arquivos do Salesforce Data Cloud GA

22 de agosto de 2025

O conector de compartilhamento de arquivos do Salesforce Data Cloud agora está disponível para o público em geral.

Consulte Lakehouse Federation for Salesforce Data 360 File Sharing.

A atualização das configurações de rede virtual do espaço de trabalho está agora em Pré-visualização Pública

22 de agosto de 2025

Agora você pode atualizar as configurações de rede virtual (VNet) para espaços de trabalho existentes do Azure Databricks. Isto permite-lhe:

  • Migre um espaço de trabalho de uma VNet gerenciada pelo Azure Databricks para sua própria VNet (injeção de VNet).
  • Mova um espaço de trabalho de injeção de VNet para uma nova VNet.
  • Substitua sub-redes existentes em um espaço de trabalho de injeção de VNet.

Consulte Atualizar configuração de rede do espaço de trabalho.

Preenchimento automático melhorado para tipos de dados complexos em blocos de notas

22 de agosto de 2025

O preenchimento automático do bloco de anotações agora oferece suporte a sugestões aprimoradas para tipos de dados complexos, incluindo estruturas, mapas e matrizes em células SQL. Além disso, ao fazer referência a expressões de tabela comuns (CTEs) que usam SELECT *o , o preenchimento automático fornece recomendações de coluna com base na estrutura da tabela subjacente.

Consulte Preenchimento automático personalizado.

Suporte a Databricks Asset Bundles para recursos de banco de dados Lakebase

21 de agosto de 2025

Agora você pode definir catálogos de banco de dados Lakebase, instâncias e tabelas sincronizadas em um pacote. Isso significa que você pode implantar um ambiente de banco de dados completo com um comando, em vez de configurar recursos separadamente.

Quando você implanta um pacote com uma instância de banco de dados, a instância começa a ser executada imediatamente.

Consulte database_catalog, database_instance e synced_database_table.

Databricks Assistant integrado com computação

21 de agosto de 2025

Os usuários agora podem conversar com o Databricks Assistant em algumas páginas de computação. Use o painel de bate-papo Assistente para ajudá-lo a criar um novo recurso de computação, pool e política. Ou faça perguntas ao Assistente sobre o recurso de computação, como "Este recurso de computação é habilitado para Unity Catalog?" ou "Qual é a política de computação atual?"

Para saber mais sobre como conversar com o Assistente, consulte Tour do painel Assistente. Para saber mais sobre recursos de computação, consulte Computação.

Tempo de execução de computação sem servidor atualizado para 17.1

19 de agosto de 2025

A computação sem servidor para notebooks, trabalhos e Lakeflow Spark Declarative Pipelines agora usa um tempo de execução atualizado, que corresponde aproximadamente ao Databricks Runtime 17.1. Consulte as Notas de versão de computação sem servidor.

Definir o usuário run-as para Lakeflow Spark Declarative Pipelines

18 de agosto de 2025

Agora você pode alterar a identidade que um pipeline usa para executar atualizações e o proprietário das tabelas publicadas pelo pipeline. Esse recurso permite que você defina uma entidade de serviço como a identidade run-as, que é mais segura e confiável do que usar contas de usuário para cargas de trabalho automatizadas. Os casos de uso comuns incluem a recuperação de pipelines quando o proprietário original foi desativado e a implantação de pipelines com entidades de serviço como prática recomendada.

Para obter informações sobre como definir o usuário run-as, consulte Definir o usuário run-as.

Reclassificador Mosaic AI Vetor Search Pré-visualização Pública

15 de agosto de 2025

O Mosaic AI Vetor Search agora oferece reclassificação para ajudar a melhorar a qualidade da recuperação. Para obter detalhes, consulte Usar o reclassificador em uma consulta.

Modelo Lakeflow Spark Declarative Pipelines em pacotes no espaço de trabalho (Visualização pública)

14 de agosto de 2025

Agora você pode criar facilmente um pipeline ETL em um pacote no espaço de trabalho usando o novo projeto de modelo Lakeflow Spark Declarative Pipelines.

Consulte Criar pipeline de ETL.

O conector do Azure Databricks na Microsoft Power Platform está agora em Disponibilidade Geral

14 de agosto de 2025

O conector Azure Databricks na Microsoft Power Platform agora está disponível ao público em geral.

Consulte Conectar-se ao Azure Databricks a partir da Microsoft Power Platform.

Limites de taxa baseados em tokens agora disponíveis no AI Gateway

14 de agosto de 2025

Agora você pode configurar limites de taxa baseados em tokens em seu modelo de pontos de extremidade de serviço.

Consulte Configurar o AI Gateway em endpoints de entrega de modelos para saber como configurar limites de taxa baseados em token.

Os modelos hospedados pelo Databricks para o Assistant agora estão em Disponibilidade Geral

14 de agosto de 2025

O Databricks Assistant com modelos hospedados pelo Databricks agora está disponível em todas as plataformas de nuvem. Esta versão do Assistente é totalmente alimentada por modelos hospedados e servidos diretamente na infraestrutura Databricks — sem custo adicional para os clientes.

Consulte Usar modelos hospedados pelo Databricks para recursos baseados em IA.

Os modelos OpenAI GPT OSS agora suportam as chamadas de função.

13 de agosto de 2025

Os modelos de base hospedados pelo Databricks, OpenAI GPT OSS 120B e GPT OSS 20B agora suportam funções e chamadas de ferramentas.

Consulte Chamada de função no Azure Databricks.

Modelos OpenAI GPT OSS agora suportados na taxa de transferência provisionada

13 de agosto de 2025

Os modelos de base hospedados pelo Databricks, OpenAI GPT OSS 120B e GPT OSS 20B agora são suportados em APIs de modelo de base de taxa de transferência provisionada.

A computação de GPU sem servidor agora suporta cargas de trabalho de vários nós

13 de agosto de 2025

A computação GPU sem servidor agora suporta cargas de trabalho de vários nós. Consulte Computação de GPU sem servidor.

Agendar trabalhos para cargas de trabalho de computação de GPU sem servidor

13 de agosto de 2025

Agora você pode criar e agendar trabalhos para suas cargas de trabalho de computação GPU sem servidor. Consulte Criar e agendar um trabalho.

Databricks Assistant: Instruções de usuário e espaço de trabalho agora disponíveis

12 de agosto de 2025

Agora você pode personalizar como o Databricks Assistant responde adicionando instruções de usuário personalizadas. Guie o Assistente com preferências, convenções de codificação e diretrizes de resposta.

Os administradores também podem adicionar instruções para todo o espaço de trabalho, que têm prioridade sobre as instruções do usuário.

As instruções aplicam-se a todas as experiências do Assistente, como Assistente Inline, Chat Geral, Sugerir Correção e Modo de Edição. Consulte Personalizar e melhorar as respostas do Databricks Assistant.

A computação de nó único no modo de acesso padrão agora é GA

12 de agosto de 2025

Recursos de computação de nó único com modo de acesso padrão agora estão geralmente disponíveis. Essa configuração permite que vários usuários compartilhem um recurso de computação de nó único com isolamento total do usuário. A computação de nó único é útil para trabalhos pequenos ou cargas de trabalho não distribuídas.

Consulte Referência de configuração de computação.

Máscaras de coluna agora mantidas ao substituir uma tabela

12 de agosto de 2025

Se uma coluna na nova tabela corresponder a um nome de coluna da tabela original, sua máscara de coluna existente será mantida, mesmo que nenhuma máscara seja especificada. Essa alteração impede a remoção acidental de políticas de segurança em nível de coluna durante a substituição da tabela. Anteriormente, a substituição de uma tabela eliminava todas as máscaras de coluna existentes e apenas as máscaras recém-definidas eram aplicadas.

Essa alteração afeta comandos SQL ([CREATE OR] REPLACE TABLE), APIs DataFrame (saveAsTable, replace, createOrReplace) e outras operações de tabela de atualização semelhantes.

Consulte Aplicar manualmente filtros de linha e máscaras de coluna.

Solicitações de acesso no Catálogo Unity (Visualização pública)

11 de agosto de 2025

Agora você pode habilitar solicitações de acesso de autoatendimento no Unity Catalog configurando destinos de solicitação de acesso em objetos protegíveis.

Os usuários podem solicitar acesso aos objetos do Catálogo Unity que descobrirem. Essas solicitações são enviadas para destinos configurados, como e-mails, canais do Slack ou do Microsoft Teams, ou podem ser redirecionadas para um sistema de gerenciamento de acesso interno.

Você também pode habilitar destinos de e-mail padrão para que as solicitações vão automaticamente para o e-mail do proprietário do catálogo ou objeto se nenhum outro destino estiver definido. Isso garante que as solicitações de acesso sejam entregues mesmo quando nenhum destino é configurado manualmente para um objeto.

Consulte Gerenciar destinos de solicitação de acesso.

Desativar recursos herdados para novos espaços de trabalho (Visualização pública)

11 de agosto de 2025

Uma nova configuração de console de conta permite que os administradores de conta desativem determinados recursos herdados em novos espaços de trabalho criados em suas contas. Se definidos, os novos espaços de trabalho não incluirão a raiz e as montagens do DBFS, o metastore do Hive, a computação compartilhada sem isolamento ou as versões do Databricks Runtime anteriores ao 13.3 LTS. Se necessário, os administradores do espaço de trabalho ainda podem habilitar esses recursos herdados em suas configurações de espaço de trabalho.

Consulte Desabilitar o acesso a recursos herdados em novos espaços de trabalho.

Lakebase Public Preview ativado por padrão

11 de agosto de 2025

A visualização do Lakebase: Managed Postgres OLTP Database agora está habilitada por padrão. Os usuários podem começar a criar instâncias de banco de dados do Lakebase sem precisar que os administradores do espaço de trabalho habilitem essa visualização primeiro. Os administradores podem desativar a visualização, se necessário.

Consulte Criar e gerenciar uma instância de banco de dados e Gerenciar visualizações do Azure Databricks.

Conector ServiceNow GA

8 de agosto de 2025

O conector de ingestão ServiceNow totalmente gerenciado no Lakeflow Connect agora está disponível para o público em geral. Consulte Configurar ServiceNow para ingestão de Databricks.

Criar tabelas Delta externas a partir de clientes de terceiros (Pré-visualização Pública)

8 de agosto de 2025

Agora você pode criar tabelas externas do Unity Catalog apoiadas pelo Delta Lake a partir de clientes e sistemas externos, como o Apache Spark.

Consulte Criar tabelas Delta externas a partir de clientes externos.

Venda automática de credenciais de caminho (Visualização pública)

8 de agosto de 2025

Agora você pode usar a venda automática de credenciais de caminho para conceder credenciais de curta duração a locais externos em seu metastore do Catálogo Unity. Consulte distribuição de credenciais do Unity Catalog para acesso a sistemas externos.

Use modelos OpenAI GPT OSS para inferência em lote e saídas estruturadas

7 de agosto de 2025

Os modelos de base hospedados pelo Databricks, OpenAI GPT OSS 120B e GPT OSS 20B agora estão otimizados para funções de IA, o que significa que você pode executar inferência em lote usando esses modelos e funções de IA como ai_query(). As cargas de trabalho de inferência que usam esses modelos agora também oferecem suporte à especificação de saídas estruturadas.

Databricks driver ODBC 2.9.2

5 de agosto de 2025

O Databricks ODBC Driver versão 2.9.2 já está disponível para download na página de download do driver ODBC.

Esta versão inclui as seguintes correções e novos recursos:

  • O nome do processo agora é usado como o padrão UserAgentEntry se o UserAgentEntry não estiver explicitamente definido.
  • Adicionado suporte para domínios cloud.databricks.us Databricks e cloud.databricks.mil.
  • Reconhecimento e manipulação aprimorados de colunas em várias funções de fonte de timestamp_ntz dados, incluindo SQLGetTypeInfo, SQLColumnse SQLColAttribute.
  • Adicionado suporte de cache de CRL (Listas de Revogação de Certificados) no Windows quando UseSystemTruststore habilitado.
  • Adicionado VOID suporte a colunas de tipo, para que VOID as colunas agora estejam listadas corretamente em SQLGetColumns.
  • Ativação da troca de tokens OAuth para IDPs diferentes do host, o que permite a troca de tokens de acesso OAuth (incluindo BYOT) por tokens internos Databricks.
  • Adicionado suporte para Windows Server 2025.
  • Corrigido um vazamento de memória no driver.

Esta versão inclui atualizações para várias bibliotecas de terceiros:

  • OpenSSL atualizado de 3.0.15 para 3.0.16
  • libcURL atualizado de 8.11.0 para 8.12.1
  • Expatriado atualizado de 2.6.3 para 2.7.1

Esta versão inclui as seguintes alterações de comportamento:

  • O conector não suporta mais Databricks Runtime versão 10.4 LTS.
  • O comprimento máximo padrão do nome do catálogo e o comprimento máximo do nome do esquema foram alterados de 128 para 1024.
  • Ubuntu 20.04 não é mais suportado.

Para obter informações completas sobre a configuração, consulte o Guia do driver ODBC do Databricks instalado com o pacote de download do driver.

O conector Power BI Azure Databricks suporta M2M OAuth

5 de agosto de 2025

Agora você pode se autenticar no Power BI Desktop usando credenciais OAuth Machine-to-Machine (M2M). Se você estiver usando tokens de acesso pessoal em nome de entidades de serviço, o Azure Databricks recomenda alternar para a nova opção de autenticação de credenciais de cliente .

Consulte Configurar entidades de serviço no Azure Databricks para Power BI.

Modelos OpenAI GPT OSS agora disponíveis no Mosaic AI Model Serving

5 de agosto de 2025

O Mosaic AI Model Serving agora suporta GPT OSS 120B e GPT OSS 20B da OpenAI como modelos de base hospedados pelo Databricks. Você pode acessar esses modelos usando APIs do Modelo de Base pay-per-token.

4 de agosto de 2025

Agora você pode habilitar o Azure Private Link para recursos em sua VNet (rede virtual) por meio de um SLB (balanceador de carga padrão) da computação sem servidor. Consulte Configurar conectividade privada para recursos em sua rede virtual.

Trabalhos em modo contínuo agora podem ter novas tentativas no nível de tarefa para tarefas com falha

11 de agosto de 2025

Os trabalhos que estão definidos para serem executados no modo contínuo agora têm a opção de repetir tarefas individuais em caso de falha de tarefa.

Consulte Executar tarefas continuamente.

Databricks Runtime 17.1 agora é GA

1 de agosto de 2025

O Databricks Runtime 17.1 agora está disponível para o público em geral. Consulte Databricks Runtime 17.1.

AI Playground agora é GA

1 de agosto de 2025

AI Playground agora é GA. Veja Converse com LLMs e crie protótipos de aplicações de IA generativa usando o AI Playground.

O modo de edição no Assistente faz refatoração de código de várias células e muito mais

1 de agosto de 2025

O Assistente Databricks agora suporta o modo de edição, que executa etapas de raciocínio e edição em várias células em um bloco de anotações. O modo de edição lida com tarefas complexas de várias etapas de forma eficiente, coordenando alterações em várias células sem a necessidade de intervenção manual ou solicitações repetitivas.

Para obter informações sobre como usar o Assistente no código, consulte Obter ajuda de codificação do Assistente do Databricks.