Partilhar via


Dezembro de 2025

Estas funcionalidades e as melhorias da plataforma Azure Databricks foram lançadas em dezembro de 2025.

Observação

Os lançamentos são realizados de forma faseada. Sua conta do Azure Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.

O modo Agente Assistente do Databricks está agora em Beta Público

23 de dezembro de 2025

A versão prévia do Modo Assistente de Agente do Databricks está agora ativada por padrão para a maioria dos clientes.

  • O agente pode automatizar vários passos. A partir de um único prompt, pode recuperar ativos relevantes, gerar e executar código, corrigir erros automaticamente e visualizar resultados. Adiciona a capacidade de amostrar dados e saídas de células para obter melhores resultados.
  • O Assistente em Modo Agente irá escolher entre Azure OpenAI ou Anthropic no Databricks (utiliza endpoints alojados pela Databricks Inc. na AWS dentro do perímetro de segurança do Databricks), estando disponível apenas quando a definição de funcionalidades de IA com parceiro está ativada.
  • Os administradores podem desativar a pré-visualização, se necessário, até a funcionalidade atingir a Disponibilidade Geral.

Veja Usar o Agente de Ciência de Dados, o artigo de blogue e as funcionalidades de IA baseadas em parceiros.

Tokens de atualização de uso único para aplicações OAuth

22 de dezembro de 2025

Agora pode configurar tokens de atualização de uso único para aplicações OAuth integradas com Azure Databricks. Esta funcionalidade de segurança requer a rotação dos tokens após cada utilização, reforçando a proteção dos fluxos de autenticação utilizador-máquina. Veja Tokens de atualização de uso único.

Atualizar os parâmetros do pedido para os eventos de registo de auditoria de destinatários do Delta Sharing

19 de dezembro de 2025

Para os destinatários do Delta Sharing, os eventos do registo de auditoria deltaSharingProxy* agora também incluem o parâmetro de pedido catalog_name, além do share_name (anteriormente nomeado share). Veja eventos para beneficiários do Delta Sharing.

Anthropic Claude Haiku 4.5 agora disponível como modelo alojado no Databricks

19 de dezembro de 2025

O Mosaic AI Model Serving agora suporta o Anthropic Claude Haiku 4.5 como modelo alojado em Databricks. Você pode acessar esse modelo usando APIs de modelo de base pay-per-token.

As novas contas Azure Databricks não terão acesso a funcionalidades legadas

19 de dezembro de 2025

As contas Azure Databricks criadas após 18 de dezembro de 2025 não terão acesso a certas funcionalidades legadas, como acesso à raiz e montagens DBFS, Metastore Hive e computação partilhada sem isolamento. Estas contas irão utilizar exclusivamente o Unity Catalog para governação unificada e segurança de nível empresarial.

Este comportamento aplica a definição de conta Desativar funcionalidades legadas disponível nas contas existentes do Azure Databricks. Consulte Desabilitar o acesso a recursos herdados em novos espaços de trabalho.

Conector MySQL no Lakeflow Connect (Pré-visualização pública)

18 de dezembro de 2025

O conector MySQL totalmente gerido no Lakeflow Connect está em Visualização Pública. Este conector permite a ingestão incremental de dados a partir de bases de dados MySQL, incluindo Amazon RDS for MySQL, Amazon Aurora MySQL, Azure Database for MySQL, Google Cloud SQL for MySQL e MySQL on EC2. Veja Configurar MySQL para ingestão no Azure Databricks.

Contacte a sua equipa de conta Databricks para solicitar acesso à pré-visualização.

Conector Meta Ads (Beta)

18 de dezembro de 2025

Agora pode ingerir dados da Meta Ads. Veja Configurar Meta Ads como fonte de dados.

Veja os resultados mais recentes de tarefas agendadas de notebooks

18 de dezembro de 2025

Os notebooks Databricks podem agora mostrar a execução agendada mais recente diretamente no seu caderno e nos painéis do notebook. Também pode atualizar o caderno com os resultados mais recentes das corridas.

Para mais detalhes, consulte Ver a última execução bem-sucedida e atualizar o notebook.

A interface atualizada do Lakeflow Jobs está geralmente disponível

18 de dezembro de 2025

A interface do Lakeflow Jobs foi atualizada para tornar a criação e edição de empregos mais simples.

Veja Lakeflow Jobs.

O controlo de entrada baseado em contexto está agora em Pré-visualização Pública

17 de dezembro de 2025

O controlo de entrada baseado em contexto está agora em Versão Prévia Pública. Esta funcionalidade permite aos administradores de contas definir regras de permitir e negar regras que combinam quem está a ligar, de onde estão a ligar e o que conseguem alcançar no Azure Databricks. O controle de entrada baseado no contexto garante que apenas combinações confiáveis de identidade, tipo de solicitação e fonte de rede possam chegar ao seu espaço de trabalho. Uma única política pode governar vários espaços de trabalho, garantindo uma aplicação consistente em toda a sua organização.

Consulte Controle de entrada baseado no contexto.

É necessário iniciar sessão para descarregar o driver ODBC

17 de dezembro de 2025

Agora deve iniciar sessão no Databricks e aceitar os termos da licença antes de descarregar o controlador Simba Apache Spark ODBC. Consulte Descarregar e instalar o Driver Databricks ODBC (Simba).

Se usar Databricks no Azure Government, contacte a sua equipa de contas para obter acesso ao driver.

Os tipos de nós flexíveis estão agora geralmente disponíveis

17 de dezembro de 2025

Os tipos de nós flexíveis permitem que o seu recurso de computação volte a tipos de instância alternativos e compatíveis quando o tipo de instância especificado não está disponível. Este comportamento melhora a fiabilidade dos lançamentos de computação ao reduzir falhas de capacidade durante os lançamentos de computação. Veja Melhorar a fiabilidade do lançamento de computação usando tipos flexíveis de nós.

A computação serverless já está disponível no Azure China North 3

17 de dezembro de 2025

Computação serverless para notebooks, jobs, pipelines e armazéns SQL está agora disponível na China North 3. Consulte Disponibilidade sem servidor.

Novos tipos de recursos para aplicações Databricks

17 de dezembro de 2025

Agora pode adicionar experiências MLflow, índices de pesquisa vetorial, funções definidas pelo utilizador (UDFs) e ligações ao Catálogo Unity como recursos do Databricks Apps. Consulte Adicionar recursos a um aplicativo Databricks.

Executar consultas apenas de leitura em secundários legíveis Lakebase (Provisioned) a partir do editor SQL

15 de dezembro de 2025

Agora pode ligar-se a secundários legíveis do Lakebase (Provisioned) e executar consultas apenas de leitura a partir do editor SQL do Azure Databricks. Veja Executar consultas apenas de leitura a partir do Azure Databricks SQL Editor e Aceder a uma instância de base de dados a partir do editor SQL.

A partilha Delta para clientes externos do Iceberg está disponível em Pré-visualização Aberta

15 de dezembro de 2025

Agora pode partilhar tabelas, vistas materializadas e tabelas em streaming com clientes externos da Iceberg, como Snowflake, Trino, Flink e Spark. Clientes externos Iceberg podem consultar tabelas Delta partilhadas com acesso sem cópia. Para mais detalhes, consulte Permitir partilha com clientes Iceberg externos e clientes Iceberg: Leia tabelas Delta partilhadas.

Desativar funcionalidades legadas, as definições estão agora GA

11 de dezembro de 2025

Para ajudar a migrar contas e espaços de trabalho para o Unity Catalog, estão agora geralmente disponíveis duas definições de administrador que desativam funcionalidades legadas:

Conector Confluence (Beta)

16 de dezembro de 2025

O conector do Confluence com gestão completa no Lakeflow Connect permite-lhe ingerir espaços do Confluence, páginas, anexos, blogposts, rótulos e níveis de classificação no Azure Databricks. Consulte Configurar OAuth U2M para a ingestão do Confluence.

Conector PostgreSQL no Lakeflow Connect (Prévia Pública)

16 de dezembro de 2025

O conector PostgreSQL totalmente gerido no Lakeflow Connect está em Pré-visualização Pública. Este conector permite a ingestão incremental de dados a partir de bases de dados PostgreSQL, incluindo Amazon RDS PostgreSQL, Amazon Aurora PostgreSQL, Azure Database for PostgreSQL, Google Cloud SQL para PostgreSQL e bases de dados PostgreSQL on-premises. Consulte Configurar PostgreSQL para ingestão no Azure Databricks.

Conector SharePoint personalizável (Beta)

10 de dezembro de 2025

O conector SharePoint padrão oferece mais flexibilidade do que o conector SharePoint gerido. Permite ingerir ficheiros estruturados, semi-estruturados e não estruturados em tabelas Delta com controlo total sobre inferência de esquemas, opções de análise e transformações. Para começar, consulte Ingestir ficheiros do SharePoint.

Para uma comparação aprofundada dos conectores SharePoint, consulte Escolha o seu conector SharePoint.

Conector NetSuite (Pré-visualização pública)

10 de dezembro de 2025

Agora pode ingerir dados da NetSuite2.com fonte de dados programaticamente usando a API Azure Databricks, a CLI Databricks ou um caderno Azure Databricks. Consulte Configurar NetSuite para ingestão no Azure Databricks.

Alterar o dono para vistas materializadas ou tabelas de streaming definidas em Databricks SQL

10 de dezembro de 2025

Agora pode mudar o proprietário para vistas materializadas ou tabelas de streaming definidas no Databricks SQL através do Explorador de Catálogos. Para detalhes das visualizações materializadas, consulte Configurar vistas materializadas em Databricks SQL. Para detalhes das tabelas de streaming, veja Usar tabelas de streaming em Databricks SQL.

Descobrir ficheiros no Auto Loader de forma eficiente usando eventos de ficheiros

10 de dezembro de 2025

O Auto Loader com eventos de ficheiros está agora em disponibilidade geral. Com esta funcionalidade, o Auto Loader pode descobrir ficheiros com a eficiência das notificações, mantendo a simplicidade de configuração da listagem de diretórios. Esta é a forma recomendada de usar o Auto Loader (e particularmente notificações de ficheiros) com o Unity Catalog. Saiba mais aqui.

Para começar a usar o Auto Loader com eventos de ficheiros, veja o seguinte:

ForEachBatch para Lakeflow Spark Declarative Pipelines está disponível (Prévia Pública)

9 de dezembro de 2025

Agora pode processar fluxos nos Lakeflow Spark Declarative Pipelines como uma série de micro-batches em Python, usando um sumidouro ForEachBatch. O lavatório ForEachBatch está disponível em pré-visualização pública.

Veja Use ForEachBatch para escrever em destinos de dados arbitrários em pipelines.

Databricks Runtime 18.0 e Databricks Runtime 18.0 ML estão em Beta

9 de dezembro de 2025

O Databricks Runtime 18.0 e o Databricks Runtime 18.0 ML estão agora em Beta, alimentados pelo Apache Spark 4.0.0. O lançamento inclui o JDK 21 como padrão, novas funcionalidades para empregos e streaming, e atualizações de bibliotecas.

Consulte Databricks Runtime 18.0 (Beta) e Databricks Runtime 18.0 para Aprendizagem Automática (Beta).

Atualizações de manutenção em tempo de execução do Databricks (12/09)

9 de dezembro de 2025

Novas atualizações de manutenção estão disponíveis para versões suportadas do Databricks Runtime. Essas atualizações incluem correções de bugs, patches de segurança e melhorias de desempenho. Para obter mais detalhes, consulte:

Novas colunas nas tabelas do sistema Lakeflow (Pré-visualização Pública)

9 de dezembro de 2025

Novas colunas estão agora disponíveis nas tabelas do sistema Lakeflow para proporcionar capacidades melhoradas de monitorização de trabalhos e resolução de problemas:

Tabela de empregos: trigger, trigger_type, run_as_user_name, creator_user_name, paused, timeout_secondshealth_rulesdeploymentcreate_time

job_tasks tabela: timeout_seconds, health_rules

tabela job_run_timeline: source_task_run_id, root_task_run_id, compute, termination_type, setup_duration_seconds, queue_duration_seconds, run_duration_seconds, cleanup_duration_seconds, execution_duration_seconds

job_task_run_timeline tabela: compute, termination_type, task_parameters, setup_duration_seconds, cleanup_duration_seconds, execution_duration_seconds

Tabela de Pipelines:create_time

Estas colunas não estão preenchidas para as linhas emitidas antes do início de dezembro de 2025. Consulte a referência da tabela do sistema Jobs .

Nova política de expiração de tokens para partilha aberta Delta

8 de dezembro de 2025

Todos os novos tokens de partilha aberta do Delta Sharing são emitidos com uma expiração máxima de um ano a contar da data de criação. Tokens com um período de expiração superior a um ano ou sem data de validade já não podem ser criados.

Os tokens de partilha aberta existentes emitidos antes de 8 de dezembro de 2025, com datas de expiração após 8 de dezembro de 2026 ou sem data de expiração, expiram automaticamente a 8 de dezembro de 2026. Se atualmente utiliza tokens de destinatário com duração longa ou ilimitada, revise as suas integrações e renove os tokens conforme necessário para evitar alterações disruptivas após esta data.

Veja Criar um objeto destinatário para utilizadores que não são do Databricks usando tokens de autenticação (partilha aberta).

Vector Search reranker está agora disponível de forma geral

8 de dezembro de 2025

O reranqueador Vector Search agora está disponível de forma geral. Reclassificar pode ajudar a melhorar a qualidade da recuperação. Para mais informações, veja Usar o reclassificador numa consulta.

Suporte de formato de ficheiro Excel incorporado (Beta)

2 de dezembro de 2025

O Databricks oferece agora suporte incorporado para leitura de ficheiros Excel. Pode consultar ficheiros Excel diretamente usando Spark DataFrames sem bibliotecas externas. Ver Ler ficheiros Excel.