Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 18.0 (Beta).
O Azure Databricks lançou esta versão em dezembro de 2025.
Importante
O Databricks Runtime 18.0 está em Beta. O conteúdo dos ambientes com suporte pode mudar durante o Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.
Novos recursos e melhorias
- O Script SQL agora está disponível em geral
- Driver JDBC do Redshift atualizado para 2.1.0.28
- Ambiente de execução de isolamento compartilhado para UDFs do Python do Catálogo do Unity
- Funções da janela SQL em exibições de métrica
- Desligamento normal para aplicativos Spark
- Ajuste dinâmico da partição de shuffle em consultas de streaming sem estado
- Execução Adaptativa de Consultas e embaralhamento otimizado automaticamente em consultas de streaming sem estado
-
FILTERcláusula para funções de agregação de medidas em visões de métricas - Coalescência de string literal em todos os lugares
- Marcadores de parâmetro em todos os lugares
- IDENTIFIER cláusula em todos os lugares
- Nova função de BITMAP_AND_AGG
- Nova biblioteca de funções de KLL_Sketch
- Biblioteca do Apache Parquet atualizada para 1.16.0
SQL Scripting agora está disponível para uso geral
O recurso de Script SQL agora está geralmente disponível.
Driver JDBC do Redshift atualizado para 2.1.0.28
O driver JDBC do Redshift foi atualizado para a versão 2.1.0.28.
Ambiente de execução compartilhada de isolamento para UDFs em Python do Unity Catalog
UDFs Python do Unity Catalog do mesmo proprietário agora podem compartilhar um ambiente de isolamento padrão. Isso pode melhorar o desempenho e reduzir o uso de memória reduzindo o número de ambientes separados que precisam ser iniciados.
Para garantir que uma UDF sempre seja executada em um ambiente totalmente isolado, adicione a STRICT ISOLATION cláusula característica. Consulte isolamento de ambiente.
Funções da janela SQL em exibições de métrica
Agora você pode usar funções de janela SQL em exibições de métricas para calcular totais acumulados, classificações e outros cálculos baseados em janela.
Desligamento normal para aplicativos Spark
Os aplicativos Spark agora dão suporte ao desligamento normal, permitindo que as tarefas em andamento sejam concluídas antes que o aplicativo seja encerrado.
Ajuste dinâmico de partição de baralhamento em consultas de streaming sem estado
Agora você pode alterar o número de partições embaralhadas em consultas de streaming sem estado sem reiniciar a consulta.
Execução Adaptativa de Consultas e embaralhamento otimizado automaticamente em consultas de streaming sem estado
Execução de Consulta Adaptável (AQE) e embaralhamento auto-otimizado (AOS) agora têm suporte em consultas de streaming sem estado.
FILTER cláusula para funções de agregação de métricas em visões de métricas
Agora você pode usar a cláusula FILTER com funções de agregação de medidas em visualizações de métricas para definir filtros individuais por agregação ao referenciar medidas nas visualizações de métricas.
Associação de cadeia de caracteres literal em todos os lugares
A capacidade de unir literais de cadeias de caracteres sequenciais, como de 'Hello' ' World' em 'Hello World', foi expandida de expressões para qualquer lugar onde literais de cadeias de caracteres são permitidos.
Por exemplo, COMMENT 'This' ' is a ' 'comment'. Consulte tipoSTRING para mais detalhes.
Marcadores de parâmetro em todos os lugares
Agora você pode usar marcadores de parâmetro nomeados (:param) e não nomeados (?) praticamente em qualquer lugar em que um valor literal do tipo apropriado possa ser usado.
Isso inclui marcadores de parâmetro em instruções DDL, como CREATE VIEW v AS SELECT ? AS c1, tipos de coluna DECIMAL(:p, :s) ou COMMENT ON t IS :comment.
Com essa capacidade, você pode parametrizar uma grande variedade de instruções SQL sem expor seu código a ataques de injeção de SQL.
Consulte marcadores de parâmetro para obter detalhes.
IDENTIFIER cláusula por toda parte
O alcance da IDENTIFIER cláusula, que converte cadeias de caracteres em nomes de objeto SQL, foi expandido para quase todos os lugares em que um identificador é permitido.
Juntamente com as melhorias na cadeia de caracteres Literal unindo marcadores de parâmetro, agora você pode parametrizar qualquer coisa, desde aliases de coluna (AS IDENTIFIER(:name)) até definições de coluna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte IDENTIFIER cláusula para obter detalhes.
Nova função de BITMAP_AND_AGG
A biblioteca de BITMAP funções existente foi arredondada com uma nova função BITMAP_AND_AGG .
Nova biblioteca de funções de KLL_Sketch
Agora você pode usar uma nova biblioteca de funções que criam esboços KLL para computação quântica aproximada:
-
kll_sketch_agg_bigintfunção de agregação -
kll_sketch_get_quantile_bigintfunção -
kll_sketch_merge_bigintfunção -
kll_sketch_agg_doublefunção de agregação -
kll_sketch_get_quantile_doublefunção -
kll_sketch_merge_doublefunção -
kll_sketch_agg_floatfunção de agregação -
kll_sketch_get_quantile_floatfunção -
kll_sketch_merge_floatfunção -
kll_sketch_get_n_bigintfunção -
kll_sketch_get_rank_bigintfunção -
kll_sketch_to_string_bigintfunção -
kll_sketch_get_n_doublefunção -
kll_sketch_get_rank_doublefunção -
kll_sketch_to_string_doublefunção -
kll_sketch_get_n_floatfunção -
kll_sketch_get_rank_floatfunção -
kll_sketch_to_string_floatfunção
Biblioteca do Apache Parquet atualizada para 1.16.0
A biblioteca do Apache Parquet foi atualizada para a versão 1.16.0.
Alterações comportamentais
- O JDK 21 agora é o Kit de Desenvolvimento Java padrão
-
FSCK REPAIR TABLEinclui reparo de metadados por padrão - Nullabilidade preservada para tipos de array e mapa no cliente Spark Connect Scala
-
FSCK REPAIR TABLE DRY RUNesquema de saída atualizado -
SHOW TABLES DROPPEDrespeita aLIMITcláusula - Fatores de proração alinhados entre leituras e gravações com otimização automática
- Execução de UDF do Python unificada no PySpark e no Catálogo do Unity
- Mensagens de erro aprimoradas para problemas do módulo de logon do conector kafka
-
Restrições de viagem no tempo e
VACUUMcomportamento de retenção -
BinaryTypemapeia parabytespor padrão no PySpark - Structs NULL preservados no Delta MERGE UPDATEe operações de escrita em streaming
- Colunas de partição materializadas em arquivos Parquet
O JDK 21 agora é o Kit de Desenvolvimento Java padrão
O Databricks Runtime 18.0 usa o JDK 21 como o Kit de Desenvolvimento Java padrão. O JDK 21 é uma versão LTS (suporte de longo prazo). Anteriormente, o padrão era o JDK 17, que agora está disponível como uma opção de fallback.
Para obter informações sobre como configurar versões do JDK para seus clusters, consulte Criar um cluster com uma versão específica do JDK.
FSCK REPAIR TABLE inclui reparo de metadados por padrão
O FSCK REPAIR TABLE comando agora inclui uma etapa inicial de reparo de metadados antes de verificar se há arquivos de dados ausentes. O comando pode funcionar em tabelas com pontos de verificação corrompidos ou valores de partição inválidos.
Nulidade preservada para tipos de array e mapa no cliente Spark Connect Scala
A nulidade de tipos de matriz e mapa agora é preservada para literais digitados no cliente Do Spark Connect Scala. Anteriormente, elementos de matrizes e valores de mapas eram sempre anuláveis.
FSCK REPAIR TABLE DRY RUN esquema de saída atualizado
A dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída agora é anulável para dar suporte ao relatório de novos tipos de problema em que o caminho do arquivo de dados não é aplicável.
SHOW TABLES DROPPED respeita a cláusula LIMIT
O SHOW TABLES DROPPED comando agora respeita corretamente a LIMIT cláusula.
Fatores de proração alinhados entre leituras e gravações com otimização automática
Os fatores de proração para dimensionamento de partição agora usam valores fracionários consistentemente em operações de leitura e gravações com otimização automática. Essa alteração pode resultar em um número diferente de tarefas para operações de leitura.
Execução de UDF do Python unificada no PySpark e no Catálogo do Unity
As UDFs Python do Unity Catalog agora usam Apache Arrow como formato de intercâmbio padrão, melhorando o desempenho geral e alinhando-se com o comportamento das UDFs Python otimizadas com Arrow no Apache Spark. Como parte dessa alteração, os valores passados para UDFs do Python TIMESTAMP não incluem mais informações de fuso horário no atributo do objeto datetimetzinfo. Os próprios valores de carimbo de data/hora permanecem em UTC, mas os metadados de fuso horário agora são descartados.
Se a UDF depender das informações de fuso horário, você precisará restaurá-la com date = date.replace(tzinfo=timezone.utc). Para obter mais informações, explore o comportamento do fuso horário de carimbos de data e hora para dados de entrada.
Mensagens de erro aprimoradas para problemas do módulo de logon do conector kafka
Ao usar o conector kafka com uma classe de módulo de logon sem sombra, o Azure Databricks agora fornece mensagens de erro que sugerem o uso do prefixo de classe sombreado correto (kafkashaded.org.apache.kafka ou kafkashaded.software.amazon.msk.auth.iam).
Restrições de viagem no tempo e comportamento de retenção VACUUM
O Azure Databricks agora bloqueia consultas de viagem no tempo que excedam o deletedFileRetentionDuration limite para todas as tabelas. O VACUUM comando ignora o argumento de duração de retenção, exceto quando o valor é de 0 horas. Você não pode definir deletedFileRetentionDuration maior que logRetentionDuration ou vice-versa.
BinaryType mapeia para bytes por padrão no PySpark
BinaryType agora faz um mapeamento consistente para Python bytes no PySpark. Anteriormente, o PySpark mapeou BinaryType para bytes ou bytearray dependendo do contexto. Para restaurar o comportamento antigo, defina spark.sql.execution.pyspark.binaryAsBytes como false.
Structs NULL preservados no Delta MERGE, UPDATE, e nas operações de gravação de streaming
Os structs NULL agora são preservados como NULL no Delta MERGE UPDATEe operações de gravação de streaming que incluem conversões de tipo de struct. Anteriormente, as estruturas NULL eram expandidas para estruturas com campos NULL. Por exemplo, um struct NULL agora permanece NULL em vez de ser expandido para um struct com todos os valores de campo NULL.
Colunas de partição materializadas em arquivos Parquet
As tabelas Delta particionadas agora materializam colunas de partição em arquivos de dados Parquet recém-gravados. Anteriormente, os valores de partição eram armazenados nos metadados do log de transações Delta e refletidos em caminhos de diretório, mas não gravados como colunas nos próprios arquivos Parquet. Essa alteração se alinha ao comportamento do Apache Iceberg e UniForm e pode afetar cargas de trabalho que leem diretamente arquivos Parquet gravados pelo Delta Lake, pois os arquivos gravados recentemente incluem colunas de partição adicionais.
Atualizações de biblioteca
Bibliotecas do Python atualizadas:
- anyio de 4.6.2 a 4.7.0
- asttokens de 2.0.5 a 3.0.0
- azure-core de 1.34.0 a 1.36.0
- azure-mgmt-core de 1.5.0 a 1.6.0
- azure-storage-blob de 12.23.0 a 12.27.1
- azure-storage-file-datalake de 12.17.0 a 12.22.0
- boto3 de 1.36.2 a 1.40.45
- botocore de 1.36.3 a 1.40.45
- certificação de 31/01/2025 a 26/04/2025
- clique em 8.1.7 para 8.1.8
- criptografia de 43.0.3 a 44.0.1
- Cython de 3.0.12 a 3.1.5
- databricks-sdk de 0.49.0 a 0.67.0
- Depreciado a partir de 1.2.13 até 1.2.18
- executing de 0.8.3 para 1.2.0
- fastapi de 0.115.12 a 0.121.0
- google-api-core de 2.20.0 a 2.28.1
- Atualização do google-auth da versão 2.40.0 para 2.43.0
- google-cloud-core de 2.4.3 a 2.5.0
- google-cloud-storage de 3.1.0 a 3.5.0
- h11 de 0.14.0 para 0.16.0
- httpcore de 1.0.2 a 1.0.9
- httpx de 0.27.0 a 0.28.1
- isodate de 0.6.1 a 0.7.2
- Jinja2 de 3.1.5 a 3.1.6
- jupyter-events de 0.10.0 a 0.12.0
- jupyter-lsp de 2.2.0 a 2.2.5
- jupyter_server de 2.14.1 a 2.15.0
- jupyter_server_terminals da versão 0.4.4 para a 0.5.3
- mistune de 2.0.4 para 3.1.2
- mlflow-skinny de 3.0.1 a 3.5.1
- mmh3 de 5.1.0 para 5.2.0
- msal de 1.32.3 a 1.34.0
- nbclient de 0.8.0 a 0.10.2
- nbconvert de 7.16.4 para 7.16.6
- notebook_shim da versão 0.2.3 para a 0.2.4
- Atualização do opentelemetry-api de 1.32.1 para 1.38.0
- opentelemetry-sdk versão de 1.32.1 a 1.38.0
- opentelemetry-semantic-conventions de 0,53b1 a 0,59b0
- platformdirs versão 3.10.0 a 4.3.7
- prometheus_client de 0,21.0 a 0.21.1
- psycopg2 de 2.9.3 a 2.9.11
- Atualização do pyarrow da versão 19.0.1 para a versão 21.0.0
- Pygments de 2.15.1 a 2.19.1
- Atualização do pyiceberg da versão 0.9.0 para a 0.10.0
- python-lsp-server de 1.12.0 a 1.12.2
- corda de 1.12.0 a 1.13.0
- s3transfer de 0.11.3 para 0.14.0
- scipy de 1.15.1 a 1.15.3
- setuptools de 74.0.0 a 78.1.1
- seis de 1.16.0 a 1.17.0
- stack-data da versão 0.2.0 à 0.6.3
- starlette de 0.46.2 a 0.49.3
- tornado de 6.4.2 a 6.5.1
- types-python-dateutil de 2.9.0.20241206 a 2.9.0.20251008
- uvicorn de 0.34.2 a 0.38.0
- webcolors de 24.11.1 a 25.10.0
Bibliotecas R atualizadas:
- seta de 19.0.1 a 22.0.0
- base de 4.4.2 a 4.5.1
- bigD de 0.3.0 a 0.3.1
- broom atualizado de 1.0.7 para 1.0.10
- relógio de 0.7.2 a 0.7.3
- commonmark da versão 1.9.5 para a 2.0.0
- compilador de 4.4.2 a 4.5.1
- credenciais de 2.0.2 a 2.0.3
- curl de 6.4.0 para 7.0.0
- data.table de 1.17.0 a 1.17.8
- conjuntos de dados de 4.4.2 a 4.5.1
- dbplyr de 2.5.0 a 2.5.1
- devtools de 2.4.5 a 2.4.6
- diffobj de 0.3.5 a 0.3.6
- digest de 0.6.37 a 0.6.39
- downlit de 0.4.4 para 0.4.5
- dtplyr de 1.3.1 a 1.3.2
- avaliar de 1.0.3 a 1.0.5
- fansi de 1.0.6 a 1.0.7
- forcats de 1.0.0 a 1.0.1
- fs de 1.6.5 a 1.6.6
- futuro a partir da versão 1.34.0 até a 1.68.0
- future.apply de 1.11.3 a 1.20.0
- gargle de 1.5.2 a 1.6.0
- gert de 2.1.4 a 2.2.0
- ggplot2 de 3.5.1 a 4.0.1
- gh de 1.4.1 a 1.5.0
- git2r de 0.35.0 a 0.36.2
- glmnet de 4.1-8 a 4.1-10
- googledrive de 2.1.1 para 2.1.2
- googlesheets4 de 1.1.1 a 1.1.2
- gráficos de 4.4.2 a 4.5.1
- grDevices de 4.4.2 a 4.5.1
- grade de 4.4.2 a 4.5.1
- gt de 0.11.1 para 1.1.0
- hardhat de 1.4.1 para 1.4.2
- Atualização do haven da versão 2.5.4 para a 2.5.5
- hms de 1.1.3 a 1.1.4
- httpuv de 1.6.15 a 1.6.16
- httr2 de 1.1.1 a 1.2.1
- jsonlite de 1.9.1 a 2.0.0
- posteriormente, de 1.4.1 a 1.4.4
- lava de 1.8.1 a 1.8.2
- listenv de 0.9.1 para 0.10.0
- magrittr de 2.0.3 a 2.0.4
- markdown do 1.13 ao 2.0
- métodos de 4.4.2 a 4.5.1
- miniUI de 0.1.1.1 a 0.1.2
- mlflow de 2.20.4 a 3.6.0
- openssl de 2.3.3 a 2.3.4
- paralelo de 4.4.2 a 4.5.1
- paralelamente de 1.42.0 a 1.45.1
- pilar de 1.11.0 a 1.11.1
- pkgbuild de 1,4,6 a 1,4,8
- pkgdown de 2.1.1 para 2.2.0
- pkgload de 1.4.0 a 1.4.1
- pROC de 1.18.5 a 1.19.0.1
- prodlim de 2024.06.25 a 2025.04.28
- progressr de 0,15.1 para 0.18.0
- promessas das versões 1.3.2 a 1.5.0
- ps de 1.9.0 para 1.9.1
- Atualização do purrr da versão 1.0.4 para a 1.2.0
- ragg de 1.3.3 para 1.5.0
- Rcpp de 1.0.14 a 1.1.0
- readr de 2.1.5 a 2.1.6
- receitas de 1.2.0 a 1.3.1
- remodelar2 de 1.4.4 para 1.4.5
- rmarkdown de 2.29 a 2.30
- roxygen2 de 7.3.2 a 7.3.3
- rprojroot de 2.0.4 a 2.1.1
- RSQLite de 2.3.9 a 2.4.4
- rversions de 2.1.2 a 3.0.0
- Atualização de rvest da versão 1.0.4 para a versão 1.0.5
- sass da versão 0.4.9 para 0.4.10
- escala de 1.3.0 para 1.4.0
- brilhante de 1.10.0 a 1.11.1
- sparklyr de 1.9.1 a 1.9.3
- SparkR de 4.0.0 a 4.1.0
- sparsevctrs da versão 0.3.1 a 0.3.4
- splines de 4.4.2 a 4.5.1
- estatísticas de 4.4.2 a 4.5.1
- stats4 de 4.4.2 a 4.5.1
- stringr de 1.5.1 a 1.6.0
- systemfonts de 1.2.1 a 1.3.1
- tcltk de 4.4.2 a 4.5.1
- testthat de 3.2.3 a 3.3.0
- textshaping de 1.0.0 para 1.0.4
- timeDate de 4041.110 a 4051.111
- tinytex de 0,56 a 0,58
- ferramentas de 4.4.2 a 4.5.1
- usethis de 3.1.0 até 3.2.1
- utilitários de 4.4.2 até 4.5.1
- V8 de 6.0.2 a 8.0.1
- vroom de 1.6.5 a 1.6.6
- waldo de 0.6.1 a 0.6.2
- xfun de 0,51 a 0,54
- xml2 de 1.3.8 a 1.5.0
- zeallot de 0.1.0 a 0.2.0
- zip de versão 2.3.2 para versão 2.3.3
Bibliotecas Java atualizadas:
- com.amazonaws.amazon-kinesis-client de 1.12.0 a 1.15.3
- com.amazonaws.aws-java-sdk-autoscaling da versão 1.12.638 para a versão 1.12.681
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-config de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-core de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-sql-scriptdatapipeline de 1.12.638 para 1.12.681
- com.amazonaws.aws-java-sdk-directconnect de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-directory de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-dynamodb de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-ec2 de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-ecs de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-efs de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-elasticache de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-emr de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-glacier de 1.12.638 para 1.12.681
- com.amazonaws.aws-java-sdk-glue de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-iam de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-importexport de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-kinesis de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-kms de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-lambda de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-logs de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-opsworks de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-rds de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-redshift de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-route53 de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-s3 de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-ses de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-simpledb de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-simpleworkflow de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-sns de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-sqs de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-ssm de 1.12.638 a 1.12.681
- Atualização do com.amazonaws.aws-java-sdk-storagegateway de 1.12.638 para 1.12.681
- com.amazonaws.aws-java-sdk-sts de 1.12.638 a 1.12.681
- com.amazonaws.aws-java-sdk-support da versão 1.12.638 para 1.12.681
- com.amazonaws.aws-java-sdk-workspaces de 1.12.638 a 1.12.681
- com.amazonaws.jmespath-java de 1.12.638 a 1.12.681
- com.databricks.databricks-sdk-java de 0.27.0 a 0.53.0
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.18.2 a 2.18.3
- com.github.luben.zstd-jni de 1.5.6-10 a 1.5.7-6
- com.google.flatbuffers.flatbuffers-java de 24.3.25 a 25.2.10
- com.google.guava.failureaccess de 1.0.2 a 1.0.3
- com.google.guava.guava de 33.4.0-jre a 33.4.8-jre
- com.microsoft.sqlserver.mssql-jdbc de 11.2.3.jre8 a 12.8.0.jre8
- commons-cli.commons-cli de 1.9.0 a 1.10.0
- commons-codec.commons-codec de 1.17.2 a 1.19.0
- commons-fileupload.commons-fileupload de 1.5 a 1.6.0
- commons-io.commons-io de 2.18.0 a 2.21.0
- dev.ludovic.netlib.arpack de 3.0.3 a 3.0.4
- dev.ludovic.netlib.blas da versão 3.0.3 para a versão 3.0.4
- dev.ludovic.netlib.lapack de 3.0.3 a 3.0.4
- io.delta.delta-sharing-client_2.13 de 1.3.5 a 1.3.6
- io.dropwizard.metrics.metrics-annotation de 4.2.30 para 4.2.37
- io.dropwizard.metrics.metrics-core de 4.2.30 para 4.2.37
- atualização da versão de io.dropwizard.metrics.metrics-graphite de 4.2.30 para 4.2.37
- io.dropwizard.metrics.metrics-healthchecks de 4.2.30 a 4.2.37
- io.dropwizard.metrics.metrics-jmx de 4.2.30 para 4.2.37
- io.dropwizard.metrics.metrics-json de 4.2.30 para 4.2.37
- io.dropwizard.metrics.metrics-jvm de 4.2.30 para 4.2.37
- io.dropwizard.metrics.metrics-servlets da versão 4.2.30 para a 4.2.37
- io.netty.netty-all de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-buffer de 4.1.118.Final para 4.2.7.Final
- io.netty.netty-codec de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-codec-http de 4.1.118.Final para 4.2.7.Final
- io.netty.netty-codec-http2 de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-codec-socks de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-common de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-handler de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-handler-proxy de 4.1.118.Final para 4.2.7.Final
- io.netty.netty-resolvedor de 4.1.118.Final para 4.2.7.Final
- io.netty.netty-tcnative-boringssl-static de 2.0.70.Final-db-r0-windows-x86_64 a 2.0.74.Final-db-r0-windows-x86_64
- io.netty.netty-tcnative-classes de 2.0.70.Final a 2.0.74.Final
- io.netty.netty-transport de 4.1.118.Final para 4.2.7.Final
- io.netty.netty-transport-classes-epoll de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-transport-classes-kqueue de 4.1.118.Final a 4.2.7.Final
- io.netty.netty-transport-native-epoll de 4.1.118.Final-linux-x86_64 para 4.2.7.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.118.Final-osx-x86_64 para 4.2.7.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.118.Final a 4.2.7.Final
- joda-time.joda-time de 2.13.0 a 2.14.0
- org.apache.arrow.arrow-format de 18.2.0 a 18.3.0
- O pacote org.apache.arrow.arrow-memory-core foi atualizado de 18.2.0 para 18.3.0.
- org.apache.arrow.arrow-memory-netty de 18.2.0 a 18.3.0
- org.apache.arrow.arrow-memory-netty-buffer-patch de 18.2.0 para 18.3.0
- org.apache.arrow.arrow-vector de 18.2.0 a 18.3.0
- org.apache.avro.avro de 1.12.0 a 1.12.1
- org.apache.avro.avro-ipc de 1.12.0 a 1.12.1
- org.apache.avro.avro-mapred de 1.12.0 a 1.12.1
- org.apache.commons.commons-collections4 de 4.4 a 4.5.0
- org.apache.commons.commons-compress de 1.27.1 para 1.28.0
- org.apache.commons.commons-lang3 de 3.17.0 a 3.19.0
- org.apache.commons.commons-text de 1.13.0 a 1.14.0
- org.apache.curator.curator-client de 5.7.1 a 5.9.0
- org.apache.curator.curator-framework de 5.7.1 para 5.9.0
- org.apache.curator.curator-recipes da versão 5.7.1 para 5.9.0
- org.apache.datasketches.datasketches-java de 6.1.1 a 6.2.0
- org.apache.hadoop.hadoop-client-runtime da versão 3.4.1 para 3.4.2
- org.apache.orc.orc-core de 2.1.1-shaded-protobuf a 2.2.0-shaded-protobuf
- org.apache.orc.orc-format de 1.1.0-shaded-protobuf a 1.1.1-shaded-protobuf
- org.apache.orc.orc-mapreduce de "2.1.1-shaded-protobuf" a "2.2.0-shaded-protobuf"
- org.apache.orc.orc-shims de 2.1.1 a 2.2.0
- org.apache.xbean.xbean-asm9-shaded de 4.26 a 4.28
- org.apache.zookeeper.zookeeper de 3.9.3 a 3.9.4
- org.apache.zookeeper.zookeeper-jute de 3.9.3 a 3.9.4
- org.eclipse.jetty.jetty-client de 9.4.53.v20231009 até 10.0.26
- org.eclipse.jetty.jetty-http de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-io de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-jndi de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-plus de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-proxy de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-security de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-server de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-servlet de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-servlets de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-util de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-webapp de 9.4.53.v20231009 a 10.0.26
- org.eclipse.jetty.jetty-xml de 9.4.53.v20231009 a 10.0.26
- org.mlflow.mlflow-spark_2.13 de 2.9.1 a 2.22.1
- org.objenesis.objenesis de 3.3 a 3.4
- org.scala-lang.modules.scala-xml_2.13 de 2.3.0 a 2.4.0
Apache Spark
O Databricks Runtime 18.0 (Beta) inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão anterior, bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:
- SPARK-54536 Tempo de Espera para Busca em Embaralhamento ausente coletar cria cliente/custo de espera
- SPARK-54534 Migrar códigos de erro herdados relacionados ao Hive para condições de erro adequadas
-
SPARK-54565 SparkBuildInfo deve carregar
spark-version-info.propertiesde seu próprio classloader - SPARK-54533 Definir a métrica ExecutorSource.METRIC_RESULT_SIZE com o valor correto
- SPARK-54478 Habilitar novamente testes de transmissão para teste de compatibilidade de conexão para a CI
-
SPARK-54552 Correção de
SparkConnectResultSet.getStringpara lidar com o tipo de dados BINARY comUTF_8 - SPARK-54501 Melhorar o tratamento de erros para falhas no filtro de partições do metastore do Hive
-
SPARK-54550 Manipule
ConnectExceptionnormalmente emSparkConnectStatement.close() - SPARK-54020 Suporte à API do Python dentro das funções de consulta para o Pipeline Declarativo do Spark
- SPARK-53127 Corrigir LIMIT ALL para recursão ilimitada com normalização de CTE
- SPARK-50072 Manipular ArithmeticException na análise de intervalo com valores grandes
-
SPARK-54299 Corrigir a consulta de exemplo incorreta em
WindowGroupLimit - SPARK-54505 Corrigir a ordem de argumentos da chamada createMetrics em makeNegative
-
SPARK-54462 Adicionar
SupportsV1OverwriteWithSaveAsTablemixin paraTableProvider - SPARK-54540 Algumas correções menores para o driver JDBC Connect
-
SPARK-54508 Corrigir
spark-pipelinespara resolver de forma mais robusta o caminho do arquivospec - SPARK-54087 Quando a inicialização da tarefa do Spark Executor falha, deve retornar uma mensagem de tarefa encerrada.
-
SPARK-53797 Corrigir
FileStreamSource.takeFilesUntilMaxpara usarzipWithIndexpara evitarindicesuso - SPARK-54418 Corrigir mensagens de erro e formatação de código
- SPARK-54114 Suporte a getColumns para SparkConnectDatabaseMetaData
- SPARK-54209 Suporte ao tipo TIMESTAMP no SparkConnectResultSet
- SPARK-54208 Suporte ao tipo TIME no SparkConnectResultSet
- SPARK-54528 Fechar o URLClassLoader ansiosamente para evitar o OOM
-
SPARK-54464 Remover chamadas duplicadas
output.reserveemassembleVariantBatch - SPARK-53635 Suporte para UDFs do Scala com argumentos de entrada do tipo Seq[Row]
- SPARK-54493 Corrigir a função assertSchemaEqual para MapType
- SPARK-52515 Testar approx_top_k com sinalizador ativado e desativado
- SPARK-54413 Atualizar o Bootstrap v4.4.1 para v4.6.2
-
SPARK-54497 Aplicar
functools.lru_cachena cache do conversor - SPARK-54306 Anotar colunas Variant com anotação lógica do tipo Variant
- SPARK-54350 O SparkGetColumnsOperation ORDINAL_POSITION deve ser baseado em 1
- SPARK-54130 Adicionar mensagens de erro detalhadas para falhas de declaração de catálogo
- SPARK-54220 Suporte ao tipo NullType/VOID/UNKNOWN no Parquet
- SPARK-54163 Análise de canonização de informações para particionamento e ordenação
- SPARK-54377 Corrigir COMMENT ONTABLE IS NULL para remover corretamente o comentário da tabela
- SPARK-52767 Otimizar maxRows e maxRowsPerPartition para junção e união
- SPARK-54063 Criar instantâneo para o próximo lote quando houver atraso de upload
- SPARK-54384 Modernizar o método _batched para BatchedSerializer
-
SPARK-54378 Remover
CreateXmlParser.scalamódulo docatalyst - SPARK-53103 Reverter "[SC-204946][ss] Lançar um erro se o diretório de estado não estiver vazio quando a consulta é iniciada"
- SPARK-53103 Gerar um erro se o diretório de estado não estiver vazio quando a consulta for iniciada
-
SPARK-54397 Tornar
UserDefinedTypehashable -
SPARK-54440 Dê ao arquivo de especificação de pipeline padrão um nome mais idiomático,
spark-pipeline.yml - SPARK-54324 Adicionar teste para extensões de contexto do cliente-usuário
- SPARK-54456 Importar módulo de execução após o processo de fork para evitar deadlock
-
SPARK-54427 Permitir que ColumnarRow chame
copycom tipos variantes -
SPARK-54136 Extrair a lógica de fusão do plano de
MergeScalarSubqueriesparaPlanMerger - SPARK-54389 Correção do erro de carimbo inválido do Repositório de Estado do RocksDB quando a tarefa é marcada como falha durante a inicialização
- SPARK-54346 Introduzir a API de repartição de estado e o executor de repartição
- SPARK-53809 Adicionar canonicalização para DataSourceV2ScanRelation
- SPARK-54280 Exigir que o diretório de armazenamento do ponto de verificação do pipeline seja um caminho absoluto
- SPARK-54206 Dar suporte a dados de tipo BINARY no SparkConnectResultSet
- SPARK-54319 Atualização do BHJ LeftAnti reportando o numOutputRows de forma errada quando o codegen está desabilitado.
-
SPARK-54355 Criar
spark.connect.session.planCompression.defaultAlgorithmpara dar suporteNONE - SPARK-54341 Guarde o TimeTravelSpec para tabelas carregadas via TableProvider
- SPARK-54280 Reversão de "[SC-212148][sdp] Exigir que o diretório de armazenamento do ponto de verificação de pipeline seja um caminho absoluto"
- SPARK-54354 Corrigir o Spark travando quando não houver memória de heap JVM suficiente para a relação de hash transmitida
- SPARK-54439 Incompatibilidade entre KeyGroupedPartitioning e tamanho da chave de junção
- SPARK-54280 Exigir que o diretório de armazenamento do ponto de verificação do pipeline seja um caminho absoluto
- SPARK-54395 A classe RemoteBlockPushResolver inicializa repetidamente ObjectMapper
- SPARK-54207 Suporta dados do tipo date no SparkConnectResultSet
-
SPARK-54182 Otimizar a conversão sem uso de Arrow de
df.toPandas - SPARK-54312 Evite agendar repetidamente tarefas para SendHeartbeat/WorkDirClean no trabalhador independente
-
SPARK-54394 Mover
isJavaVersionAtMost17eisJavaVersionAtLeast21decoreparacommon/utils - SPARK-53927 Atualizar cliente kinesis
- SPARK-54358 Diretórios de checkpoint colidem quando tabelas de streaming em diferentes schemas possuem o mesmo nome
-
SPARK-54310 Reverter "[SC-212003][sql] Adicionar
numSourceRowsmétrica paraMergeIntoExec" -
SPARK-54310 Adicionar
numSourceRowsmétrica paraMergeIntoExec - SPARK-53322 Selecione um KeyGroupedShuffleSpec somente quando as posições de chave de junção puderem ser totalmente enviadas por push para baixo
- SPARK-54270 Os métodos get* do SparkConnectResultSet devem chamar checkOpen e verificar o limite do índice
- SPARK-53849 Atualizar netty e netty tc nativo
- SPARK-54205 Dá suporte a dados de tipo decimal no SparkConnectResultSet
- SPARK-54417 Corrigir mensagem de erro para subconsulta escalar na IDENTIFIER cláusula
- SPARK-54113 Suporte a getTables para SparkConnectDatabaseMetaData
- SPARK-54303 Canonicalizar a condição de erro MISSING_CATALOG_ABILITY
- SPARK-54153 Suporte ao perfilamento de UDFs do Python com base em iterador
- SPARK-54349 Refatorar um pouco o código para simplificar a extensão de integração do manipulador de falhas
- SPARK-54317 Unificar a lógica de conversão de Arrow para Classic e Connect toPandas
- SPARK-54339 Corrigir o não determinismo de AttributeMap
- SPARK-54112 Suporte a getSchemas para SparkConnectDatabaseMetaData
- SPARK-54180 Sobrescrever o toString de BinaryFileFormat
- SPARK-54213 Remover o Python 3.9 do Spark Connect
- SPARK-54215 Adicionar a característica SessionStateHelper a FilePartition
- SPARK-54115 Aumentar a priorização da ordem de exibição dos threads de operação do servidor de conectividade na página de despejo de thread
- SPARK-54193 spark.shuffle.server.finalizeShuffleMergeThreadsPercent obsoleto
- SPARK-54149 Habilitar a recursão final sempre que possível
- SPARK-54185 Spark.shuffle.server.chunkFetchHandlerThreadsPercent obsoleto
- SPARK-54056 resolve substituição para configurações do SQLConf em Catálogos
- SPARK-54147 Definir OMP_NUM_THREADS como spark.task.cpus por padrão em BaseScriptTransformationExec
- SPARK-54229 Fazer com que o PySparkLogger nas UDFs armazene uma entrada de log por chamada de função de log.
- SPARK-53337 XSS: garantir que o nome do aplicativo na página de histórico seja escapado
- SPARK-54229 Reverter "[SC-211321][python] Fazer PySparkLogger nos UDFs armazenar uma entrada de log por chamada de função de log"
- SPARK-54373 Ampliar o atributo viewBox do SVG na inicialização do DAG de Tarefas
- SPARK-54323 Mudar o acesso aos logs para TVF em vez de visão do sistema
- SPARK-54229 Fazer com que o PySparkLogger nas UDFs armazene uma entrada de log por chamada de função de log.
- SPARK-53978 Suporte ao registro em log em trabalhos do lado do driver
- SPARK-54146 Limpar o uso da API Jackson obsoleta
- SPARK-54383 Adicionar variante de esquema pré-compilado para InternalRowComparableWrapper util
- SPARK-54030 Adicionar mensagem de declaração amigável para exibir a corrupção de metadados
- SPARK-54144 Inferências de tipo de avaliação de curto circuito
- SPARK-54030 Reverter "[SC-210301][sql] Adicionar mensagem de declaração amigável para exibir a corrupção de metadados"
- SPARK-54028 Usar esquema vazio ao alterar uma visão que não é compatível com Hive
- SPARK-54030 Adicionar mensagem de declaração amigável para exibir a corrupção de metadados
-
SPARK-54085 Corrigir
initializepara adicionarCREATEuma opção emDriverRunneradicionalmente - SPARK-53482MERGE INTO suporte para casos em que a origem tem menos campos aninhados do que o destino
- SPARK-53905 Refatorar RelationResolution para habilitar a reutilização de código
- SPARK-53732 Relembrar TimeTravelSpec em DataSourceV2Relation
- SPARK-54014 Suporte ao máximo de linhas para SparkConnectStatement
- SPARK-50906 Corrigir a verificação de nulidade do Avro para campos de struct reordenados
- SPARK-54396 Otimizar chamadas Py4J em Dataframe.toArrow
- SPARK-54344 Matar o trabalhador se a liberação falhar no daemon.py
- SPARK-53977 Suporte para log em UDTFs
- SPARK-52515 Reaplicar "[SC-199815][sql] Adicionar approx_top_k função"
- SPARK-54340 Adicionar a capacidade de usar o viztracer em daemon/trabalhadores do pyspark
-
SPARK-54379 Mover a associação lambda para um objeto separado
LambdaBinder - SPARK-54029 Adicionar mensagem de erro para detalhar a corrupção de metadados de tabela para que se facilite a depuração
- SPARK-54002 Suporte à integração do BeeLine com o driver JDBC Connect
-
SPARK-54336 Corrigir
BloomFilterMightContaina verificação de tipo de entrada comScalarSubqueryReference - SPARK-53406 Evitar junção aleatória desnecessária na ID de embaralhamento de passagem direta
- SPARK-54347 Otimizar chamadas Py4J no dataframe clássico
- SPARK-54062 Limpeza de código MergeScalarSubqueries
- SPARK-54054 Posição da linha de suporte para SparkConnectResultSet
-
SPARK-54330 Otimizar chamadas Py4J em
spark.createDataFrame - SPARK-54332 Não é necessário incluir PlanId nos nomes de coluna de agrupamento em rollup/cube/groupingSets
- SPARK-53976 Suporte ao registro de logs em UDFs Pandas/Arrow
- SPARK-54123 Adicionar fuso horário para tornar o timestamp um horário absoluto
- SPARK-54356 Corrige falha em EndToEndAPISuite causada por um esquema raiz de armazenamento ausente
- SPARK-54292 Suporte a funções de agregação em operadores de pipe e GROUP BY no |>SELECT (#180106) (#180368)
- SPARK-54376 Marcar a maioria das opções de configuração de pipeline como internas
- SPARK-53975 Adiciona suporte básico ao log de trabalho do Python
- SPARK-54361 Corrigir a versão do Spark para o valor desejado de 4.2.0 para spark.sql.parser.singleCharacterPipeOperator.enabled
- SPARK-51518 Suporte | como alternativa para |> para o operador de canalização SQL
- SPARK-53535 Corrigir structs ausentes sempre sendo considerados nulos
- SPARK-54294 Normalizar o endereço IP impresso do servidor Connect
- SPARK-52439 Restrição de verificação de suporte com valor nulo
-
SPARK-54352 Introduzir
SQLConf.canonicalizepara centralizar a normalização de cadeias de caracteres - SPARK-54183 Reverter "[SC-211824][python][CONNECT] Evite um quadro de dados temporário intermediário durante o spark connect toPandas()"
- SPARK-53573IDENTIFIER em toda parte
- SPARK-53573 Permitir literais de string em coalescimento em todos os contextos
- SPARK-54240 Traduzir a expressão do catalisador de obtenção de item de matriz para expressão de conector
-
SPARK-54334 Mover a validação de expressões de subconsulta em funções lambda e de ordem superior para
SubqueryExpressionInLambdaOrHigherOrderFunctionValidator - SPARK-54183 Reverta "[SC-211824][python][CONNECT] Evite um quadro de dados temporário intermediário durante o spark connect toPandas()"
- SPARK-54183 Evite um quadro de dados temporário intermediário durante a conexão do Spark com oPandas()
- SPARK-54264 O operador DeDup pode usar o keyExists() do RocksDB
-
SPARK-54269 Atualizar
cloudpicklepara 3.1.2 para Python 3.14 -
SPARK-54300 Otimizar chamadas Py4J em
df.toPandas - SPARK-54307 Gerar um erro se a consulta de streaming for reiniciada com operação stateful, mas houver diretório de estado vazio
- SPARK-54117 Fornecer uma mensagem de erro mais clara para indicar que o TWS só é suportado com o provedor de armazenamento de estado RocksDB
- SPARK-53917 Suporte a grandes relações locais – acompanhamentos
-
SPARK-54275 Limpar código não utilizado do
pipelinemódulo -
SPARK-54287 Adicionar suporte ao Python 3.14 e
pyspark-clientpyspark-connect -
SPARK-53614 Adicionar
Iterator[pandas.DataFrame]suporte aapplyInPandas - SPARK-54191 Adicionar uma vez ao Defineflow Proto
- SPARK-54234 Não é necessário anexar o PlanId aos nomes das colunas de agrupamento em df.groupBy
- SPARK-54231 Preencher lacunas em documentos do SDP
- SPARK-54199 Adicionar suporte à API do DataFrame para novas funções de esboço de quantiles KLL (#178526)
- SPARK-52463 Reaplicar "[SC-211221][sdp] Adicionar suporte para cluster_by em APIs do Python Pipelines"
- SPARK-52463 Reverter "[SC-211221][sdp] Adicionar suporte para cluster_by em APIs do Python Pipelines"
- SPARK-53786 O valor padrão com o nome da coluna especial não deve entrar em conflito com a coluna real
- SPARK-54200 Atualizar KafkaConsumerPoolRealTimeModeSuite para usar groupIdPrefix para segurança de execuções simultâneas
- SPARK-52463 Adicionar suporte para cluster_by em APIs do Python Pipelines
-
SPARK-52509 Limpar embaralhamentos individuais do armazenamento de fallback no
RemoveShuffleevento - SPARK-54187 Reaplicar "[SC-211150][python][CONNECT] Obter todas as configurações de uma vez em toPandas"
- SPARK-53942 Suporte à alteração de partições de embaralhamento sem estado após a reinicialização da consulta de streaming
- SPARK-52515 Reverter "[SC-199815][sql] Adicionar a função approx_top_k"
- SPARK-52515 Adicionar função approx_top_k
-
SPARK-54078 Novo teste para
StateStoreSuite SPARK-40492: maintenance before unload, e remover infra do teste antigo - SPARK-54178 Melhorar o erro para ResolveSQLOnFile
-
SPARK-53455 Adicionar
CloneSessionRPC - SPARK-54178 Reverter "[SC-211111][sql] Melhorar o erro para ResolveSQLOnFile"
-
SPARK-53489 Remover o uso do
v2ColumnsToStructTypeemApplyDefaultCollationToStringType - SPARK-54178 Melhorar o erro para ResolveSQLOnFile
- SPARK-54187 Reverter "[SC-211150][python][CONNECT] Buscar todas as configurações em conjunto no toPandas"
- SPARK-53942 Reverter "[SC-209873][ss] Suporte à alteração de partições de embaralhamento sem estado após a reinicialização da consulta de streaming"
- SPARK-54187 Obter todas as configurações em um lote em toPandas
- SPARK-54145 Corrigir a análise de coluna de tipo aninhado na agregação numérica
- SPARK-53942 Suporte à alteração de partições de embaralhamento sem estado após a reinicialização da consulta de streaming
- SPARK-53991 Adicionar suporte a SQL para funções de quantiles KLL com base em DataSketches (#178089) (#178234)
- SPARK-53128 Incluir bytes de memória não gerenciados no log de uso antes do OOM de memória de execução
- SPARK-53731 Atualizar as anotações de tipo de APIs de iterador
-
SPARK-53967 Evitar a criação de um data frame intermediário do Pandas em
df.toPandas -
SPARK-53455 Reverter "[SC-208758][conectar] Adicionar
CloneSessionRPC" - SPARK-54108 Revisar métodos execute* de SparkConnectStatement
- SPARK-54052 Adicionar um objeto de ponte para solucionar a limitação de Py4J
- SPARK-54128 Converter IllegalArgumentException em SparkException com classes de erro adequadas no servidor Spark Connect
- SPARK-53880 Corrigir DSv2 em PushVariantIntoScan adicionando SupportsPushDownVariants
- SPARK-54111 Suporte à obtenção de catálogos para SparkConnectDatabaseMetaData
-
SPARK-53455 Adicionar
CloneSessionRPC - SPARK-54118 Melhorar a operação put/merge em ListState quando houver vários valores
- SPARK-54038 Compatibilidade com getSQLKeywords para SparkConnectDatabaseMetaData
- SPARK-54013 Implementar métodos simples SparkConnectDatabaseMetaData
- SPARK-53934 Implementação inicial do driver JDBC do Connect
- SPARK-53959 Lançar um erro do lado do cliente ao criar um quadro de dados a partir de um dataframe pandas com um índice, mas sem dados
- SPARK-53573 Reverter "[SC-210255][sql] Permitir literais de cadeia de caracteres de associação em todos os lugares"
- SPARK-54094 Extrair métodos comuns para KafkaOffsetReaderBase
- SPARK-53573 Permitir literais de string em coalescimento em todos os contextos
- SPARK-54039 Adicionar informações do TaskContext aos logs de liberação do KafkaDataConsumer para melhor depuração
- SPARK-54031 Adicionar novos testes de arquivo padrão para análise de casos extremos
-
SPARK-54067 Melhorar
SparkSubmitpara invocarexitFncom a causa raiz em vez deSparkUserAppException - SPARK-54047 Usar um erro de diferença quando ocorrer encerramento por tempo limite de inatividade
-
SPARK-54078 Deflake StateStoreSuite
SPARK-40492: maintenance before unload - SPARK-54061 Encapsular IllegalArgumentException com o código de erro adequado para padrões de datetime inválidos
- SPARK-54031 Reverta "[SC-210084][sql] Adicionar novos testes de arquivo de referência para análise de casos extremos"
-
SPARK-54075 Tornar
ResolvedCollationavaliável - SPARK-54001 Otimizar o uso de memória na clonagem de sessão com relações locais em cache contadas novamente
- SPARK-54031 Adicionar novos testes de arquivo padrão para análise de casos extremos
-
SPARK-53923 Renomear
spark.executor.(log -> logs).redirectConsoleOutputs -
SPARK-54007 Usar Java
Set.ofem vez deCollections.emptySet - SPARK-53755 Adicionar suporte de log no BlockManager
- SPARK-54041 Refatorar validação de argumentos de ParameterizedQuery
- SPARK-53696 Definir bytes como padrão para BinaryType no PySpark
- SPARK-53921 Introduzir GeometryType e GeographyType à API do PySpark
-
SPARK-53788 Mover VersionUtils para o módulo
common - SPARK-53999 Suporte ao Transporte KQueue nativo no BSD/MacOS
- SPARK-54021 Implementar acessores de Geografia e Geometria dentro do Catalyst
- SPARK-53921 Reverter "[SC-209482][geo][PYTHON] Introduzir GeometryType e GeographyType à API do PySpark"
- SPARK-53920 Introduzir GeometryType e GeographyType à API Java
- SPARK-53610 Limitar tamanhos de lote de Arrow em CoGrouped applyInPandas e applyInArrow
- SPARK-53659 Inferir o esquema de particionamento de variantes ao gravar em Parquet
- SPARK-53922 Introduzir tipos físicos de Geometria e Geografia
- SPARK-54059 Reduzir o tamanho da página padrão por LONG_ARRAY_OFFSET se ZGC ou ShenandoahGC e ON_HEAP forem usados
- SPARK-53921 Introduzir GeometryType e GeographyType à API do PySpark
-
SPARK-54048 Atualizar
dev/requirements.txtpara instalartorch(vision)no Python 3.14 - SPARK-53917 Dar suporte a grandes relações locais
- SPARK-53760 Introduzir GeometryType e GeographyType
-
SPARK-53530 Limpar o código inútil relacionado a
TransformWithStateInPySparkStateServer - SPARK-53636 Corrigir problema de segurança de thread em SortShuffleManager.unregisterShuffle
- SPARK-52762 Adicionar mensagem PipelineAnalysisContext para dar suporte à análise de pipeline durante a execução da consulta do Spark Connect
- SPARK-53631 Otimizar memória e desempenho no bootstrap do SHS
- SPARK-53857 Habilitar a propagação messageTemplate para SparkThrowable
- SPARK-53891 API de resumo de gravação de confirmação DSV2 do modelo
- SPARK-53966 Adicionar funções utilitárias para detectar GCs da JVM
- SPARK-53149 Corrigir o teste se o processo do BeeLine é executado em segundo plano
- SPARK-53738 Corrigir a gravação planejada quando a saída da consulta contiver ordenações dobráveis
-
SPARK-53949 Usar
Utils.getRootCauseem vez deThrowables.getRootCause - SPARK-53696 Reverter "[SC-209330][python][CONNECT][sql] Definir padrão como bytes para BinaryType no PySpark"
- SPARK-53804 Suporte ao ordenamento de radix TIME
- SPARK-54004 Corrigir a remoção da tabela do cache pelo nome sem efeito cascata
-
SPARK-53261 Usar Java
String.join|StringJoinerem vez de GuavaJoiner - SPARK-53319 Suporte ao tipo de tempo com try_make_timestamp_ltz()
-
SPARK-53280 Usar Java
instanceofem vez deThrowables.throwIf*métodos - SPARK-53696 Definir bytes como padrão para BinaryType no PySpark
-
SPARK-53258 Usar
JavaUtilsdecheck(Argument|State) -
SPARK-53773 Recuperar a ordem alfabética de regras em
RuleIdCollection -
SPARK-53256 Promover
check(Argument|State)paraJavaUtils - SPARK-54008 Ignorar QO para DESCRIBE QUERY
- SPARK-53573 Usar o pré-processador para manipulação generalizada de marcador de parâmetro
-
SPARK-53980 Adicionar
SparkConf.getAllWithPrefix(String, String => K)API -
SPARK-54009 Apoio
spark.io.mode.default - SPARK-51903 Validar dados sobre como adicionar uma restrição CHECK
- SPARK-53573 Reverter "[SC-209126][sql] Usar o pré-processador para tratamento generalizado do marcador de parâmetro"
- SPARK-53573 Usar o pré-processador para manipulação generalizada de marcador de parâmetro
- SPARK-53573 Reverter "[SC-209126][sql] Usar o pré-processador para tratamento generalizado do marcador de parâmetro"
- SPARK-53956 Adicionar suporte ao tipo TIME na função try_make_timestamp no PySpark
- SPARK-53930 Suporte ao tipo TIME na função make_timestamp no PySpark
- SPARK-53573 Usar o pré-processador para manipulação generalizada de marcador de parâmetro
- SPARK-53564 Evitar encerramentos do DAGScheduler devido ao timeout de RPC do blockManager no DAGSchedulerEventProcessLoop
-
SPARK-53879 Atualizar
Ammonitepara 3.0.3 - SPARK-53938 Corrigir o redimensionamento decimal em LocalDataToArrowConversion
- SPARK-53845 Coletores SDP
- SPARK-53908 Corrigir observações no Spark Connect com o cache de planos
-
SPARK-53841 Implementar
transform()na API de Coluna - SPARK-53929 Suporte para TIME nas funções make_timestamp e try_make_timestamp no Scala
-
SPARK-53902 Adicionar bits de padrão de árvore para as expressões suportadas na
ParameterizedQuerylista de argumentos - SPARK-53064 Reescrever o LogKey do MDC em Java
- SPARK-53762 Adicionar regra simplificadora de conversões de data e hora ao otimizador
- SPARK-53916 Deduplicar as variáveis em PythonArrowInput
- SPARK-53690 Corrigir a formatação exponencial de avgOffsetsBehindLatest e estimatedTotalBytesBehindLatest no objeto de fontes kafka em progresso json
- SPARK-53789 Canonicalizar a condição de erro CANNOT_MODIFY_STATIC_CONFIG
- SPARK-53720 Simplificar a extração de tabela de DataSourceV2Relation (nº 52460)
-
SPARK-45530 Usar
java.lang.ref.Cleanerem vez definalizeparaNioBufferedFileInputStream - SPARK-53789 Reverter "[SC-208902][sql][CONNECT] Canonizar condição de erro CANNOT_MODIFY_STATIC_CONFIG"
- SPARK-53789 Canonicalizar a condição de erro CANNOT_MODIFY_STATIC_CONFIG
- SPARK-53111 Implementar a função time_diff no PySpark
-
SPARK-53896 Habilitar
spark.io.compression.lzf.parallel.enabledpor padrão -
SPARK-53856 Remover
denylistnomes de configuração alternativos - SPARK-53611 Limitar os tamanhos dos lotes de Arrow em UDFs de agregação em janelas
- SPARK-53575 Repetir todos os estágios de processamento quando uma divergência de checksum for detectada para uma tarefa de mapa de shuffle repetida
- SPARK-53867 Limitar os tamanhos de lote do Arrow no SQL_GROUPED_AGG_ARROW_UDF
- SPARK-53877 Introduzir a função BITMAP_AND_AGG
- SPARK-51426 Corrigir 'Configurar metadados para dicionário vazio não funciona'
- SPARK-53868 Usar a verificação de comprimento da matriz em vez da verificação de referência direta no V2ExpressionBuilder
- SPARK-53609 Limitar tamanhos de lote do Arrow no SQL_GROUPED_AGG_PANDAS_UDF
-
SPARK-53892 Usar
DescribeTopicsResult.allTopicNamesem vez da API preteridaall - SPARK-53878 Corrigir problema de condição de corrida relacionado a ObservedMetrics
-
SPARK-53796 Adicionar
extensioncampo a alguns protos de pipeline para dar suporte à compatibilidade futura - SPARK-53850 Definir proto para coletores e renomear DefineDataset para DefineOutput
- SPARK-53812 Refatorar os protos DefineDataset e DefineFlow para agrupar propriedades relacionadas e preparar para o futuro
- SPARK-53870 Corrigir bug de leitura parcial para grandes mensagens proto em TransformWithStateInPySparkStateServer
- SPARK-53751 Local de ponto de verificação com controle de versão explícito
- SPARK-52407 Adicionar suporte para o Esboço de Theta (#171135)
-
SPARK-53779 Implementar
transform()na API de Coluna -
SPARK-49547 Adicionar iterador de
RecordBatchAPI aapplyInArrow - SPARK-53802 Suporte a valores de cadeia de caracteres para esquema especificado pelo usuário em tabelas SDP
- SPARK-53865 Extrair lógica comum da regra ResolveGenerate
- SPARK-53113 Suporte ao tipo de tempo com try_make_timestamp()
-
SPARK-53868 Utilize apenas a assinatura com Expression[] de
visitAggregateFunctionno V2ExpressionSQBuilder - SPARK-53792 Corrigir o uso de memória do rocksdbPinnedBlocks quando a memória está limitada...
-
SPARK-53248 Suporte
checkedCastemJavaUtils - SPARK-52640 Propagar o local de localização do código-fonte em Python
- SPARK-52924 Suporte ZSTD_strategy para compactação
- SPARK-53562 Reaplicar "[SC-207233][python] Limitar tamanhos de lote de Arrow em applyInArrow e applyInPandas"
- SPARK-51272 Anulando em vez de continuar parcialmente concluído estágio de resultado indeterminado em ResubmitFailedStages
- SPARK-53795 Remover parâmetros não utilizados no LiteralValueProtoConverter
-
SPARK-53808 Permitir passar args de JVM opcionais para
spark-connect-scala-client - SPARK-52614 Suporte ao RowEncoder dentro do Codificador de Produto
-
SPARK-53833 Atualizar
dev/requirements.txtpara omitirtorch/torchvisionno Python 3.14 - SPARK-53715 Refatorar getWritePrivileges para MergeIntoTable
-
SPARK-53516 Corrigir
spark.api.modeo processo de arg no SparkPipelines - SPARK-53507 Não use a classe de caso para BreakingChangeInfo
-
SPARK-53645 Implementar
skipnaparâmetro para ps.DataFrameany() -
SPARK-53717
MapType.valueContainsNullRevisar o comentário do parâmetro mais corretamente -
SPARK-53700 Remover redundância em
DataSourceV2RelationBase.simpleString - SPARK-53667 Corrigir EXPLAIN para CALL com IDENTIFIER
-
SPARK-53562 Reverter "[SC-207233][python] Limitar tamanhos de lote do Apache Arrow em
applyInArroweapplyInPandas" - SPARK-51169 Adicionar suporte ao Python 3.14 no Spark Classic
-
SPARK-53562 Limitar tamanhos de lote de Arrow em
applyInArroweapplyInPandas - SPARK-53806 Permitir que a entrada vazia no descriptografo do AES tenha classe de erro
- SPARK-51756 Computa RowBasedChecksum em ShuffleWriters
- SPARK-52807 Alterações de proto para dar suporte à análise dentro de funções de consulta de Pipelines Declarativos
- SPARK-53728 Imprimir mensagem de PipelineEvent com erro ao testar
- SPARK-53207 Enviar evento de pipeline para o cliente de forma assíncrona
-
SPARK-53829 Suporte para
datetime.timeem operadores de coluna - SPARK-53638 Limitar o tamanho em bytes do lote Arrow para TWS para evitar OOM
- SPARK-53593 Correção: Usar campos sem aspas para resposta
- SPARK-53734 Preferir coluna de tabela em vez de LCA ao resolver índice de matriz
- SPARK-53593 Adicionar campo de resposta para DefineDataset e DefineFlow RPC
- SPARK-53734 Reverter "[SC-207697][sql] Preferir coluna de tabela em vez de LCA ao resolver índice de matriz"
- SPARK-53621 Adicionando suporte para executar o CONTINUE HANDLER
- SPARK-53734 Preferir coluna de tabela em vez de LCA ao resolver índice de matriz
- SPARK-53507 Adicionar informações de mudanças significativas aos erros
- SPARK-53707 Melhorar o manuseio de metadados de atributos.
- SPARK-53629 Implementar a ampliação de tipo para MERGE INTO WITH SCHEMA EVOLUTION
-
SPARK-53719 Aprimorar a verificação de tipo na
_to_colfunção - SPARK-53735 Ocultar traces de pilha JVM do servidor por padrão na saída de pipelines do Spark
- SPARK-53651 Adicionar suporte para exibições persistentes em pipelines
- SPARK-53678 Correção de NPE quando a subclasse de ColumnVector é criada com DataType nulo
- SPARK-46679 Correção para SparkUnsupportedOperationException Não encontrado um codificador do tipo T ao usar a classe Parameterized
- SPARK-53444 Retrabalho executar retrabalho imediato executar imediatamente
- SPARK-53578 Simplificar o tratamento de tipo de dados no LiteralValueProtoConverter
- SPARK-53438 Usar CatalystConverter em LiteralExpressionProtoConverter
- SPARK-53444 Reverter "[SC-206535][sql][CORE] Retrabalho executar retrabalho imediato executar imediatamente"
- SPARK-53444 Retrabalho executar retrabalho imediato executar imediatamente
- SPARK-53112 Suporte para TIME nas funções make_timestamp_ntz e try_make_timestamp_ntz no PySpark
- SPARK-53492 Rejeitar o segundo ExecutePlan com um id de operação que já esteja concluída
- SPARK-52772 Corrigir e atualizar arquivos padrão
- SPARK-53591 Simplificar a correspondência de glob de padrão de especificação de pipeline
- SPARK-53553 Corrigir o tratamento de valores nulos em LiteralValueProtoConverter
- SPARK-52772 Tratamento inconsistente de atributo de tabela durante atualizações
- SPARK-53544 Suporte a tipos complexos em observações
-
SPARK-53357 Atualização
pandaspara 2.3.2 - SPARK-53402 Suporte à API do conjunto de dados de particionamento de passagem direta no Spark Connect no Scala
- SPARK-53372 Pacote de testes de ponta a ponta do SDP
- SPARK-53402 Reverta "[SC-206163][connect] Suporte à API do conjunto de dados de partição de passagem direta no Spark Connect no Scala"
- SPARK-53402 Suporte à API do conjunto de dados de particionamento de passagem direta no Spark Connect no Scala
-
SPARK-53233 Tornar o código relacionado a
streamingusar o nome do pacote correto -
SPARK-53233 Reverta "[SC-203716][sql][SS][mllib][CONNECT] Faça o código relacionado ao
streaminguso do nome do pacote correto" -
SPARK-53233 Tornar o código relacionado a
streamingusar o nome do pacote correto - SPARK-53561 Capturar a exceção de interrupção em TransformWithStateInPySparkStateServer durante a execução de outputStream.flush para evitar a falha do processo
-
SPARK-53486 Evitar a configuração
weights_only=Falsena carga do modelo de tocha - SPARK-53391 Remover PrimitiveKeyOpenHashMap não utilizado
- SPARK-52431 Toques finais no runner do Declarative Pipelines
- SPARK-52980 Suporte a UDTFs Python do Arrow
- SPARK-53453 Desbloquear 'torch<2.6.0'
- SPARK-52582 Remerge "[SC-199314][sc-204581][SQL] Melhorar o uso de memória do analisador XML"
- SPARK-52582 Reverter "[SC-199314][sc-204581][SQL] Melhorar o uso de memória do analisador XML"
- SPARK-52582 Melhorar o uso de memória do analisador XML
- SPARK-51906 Expressões Dsv2 em alterar tabela adicionar colunas
-
SPARK-53150 Melhorar
list(File|Path)spara lidar com entradas inexistentes, não diretórios e links simbólicos -
SPARK-53091 Banir
org.apache.commons.lang3.Strings - SPARK-52844 Atualizar o numpy para 1.22
-
SPARK-52912 Melhorar
SparkStringUtilspara suportaris(Not)?(Blank|Empty) - SPARK-52877 Melhorar o desempenho do serializador de seta de UDF do Python
- SPARK-52877 Reverter "[SC-201914][python] Melhorar o desempenho do Serializador Arrow UDF no Python"
- SPARK-52238 Cliente Python para Pipelines Declarativos
- SPARK-52877 Melhorar o desempenho do serializador de seta de UDF do Python
- SPARK-53287 Adicionar guia de migração ansi
- SPARK-52110 Implementar o suporte à sintaxe do SQL para pipelines
-
SPARK-52897 Atualização
pandaspara 2.3.1 - SPARK-52451 Reverter "[SC-202894][connect][SQL] Tornar WriteOperation em SparkConnectPlanner sem efeitos colaterais"
- SPARK-52976 Correção na UDF do Python que não aceita cadeia de caracteres ordenada como tipo de parâmetro de entrada/retorno
- SPARK-52904 Habilitar convertToArrowArraySafely por padrão
- SPARK-52821 add int-DecimalType> pyspark udf return type coercion
- SPARK-52971 Limitar o tamanho da fila de trabalho do Python ocioso
- SPARK-53013 Corrigir UDTF do Python com otimização de seta que não retorna linhas na junção lateral
- SPARK-51834 Sincronizar OSS: dar suporte à restrição de tabela de ponta a ponta altere a restrição adicionar/soltar
- SPARK-52675 Interromper manipuladores de ML deslocados em testes
- SPARK-52959 Suporte a UDT no UDTF do Python com otimização de seta
- SPARK-52961 Corrigir UDTF otimizado por Arrow do Python com avaliação de 0 argumentos em junções laterais
- SPARK-52949 Evitar a viagem de ida e volta entre RecordBatch e Table no UDTF do Python com otimização de seta
- SPARK-52946 Corrigir UDTF do Python otimizado por Arrow para dar suporte a grandes tipos de variáveis
- SPARK-52934 Permitir o retorno de valores escalares com o UDTF de Python otimizado por Arrow
- SPARK-52861 Ignorar a criação de objeto Row na execução de UDTF com otimização Arrow
- SPARK-51834 Sincronizar o suporte do OSS criar/substituir tabela de ponta a ponta por restrição
- SPARK-44856 Melhorar o desempenho do serializador de seta UDTF do Python
- SPARK-51834 Reverter "[SQL] Corrigir TableSpec ao adicionar construtor"
- SPARK-51834 Corrigir TableSpec adicionando construtor
- SPARK-51834 Reversão de "[SQL] Sincronizar OSS (parcial): Suporte à restrição de tabela de ponta a ponta em operações de criação/substituição de tabela"
- SPARK-51834 Sincronizar OSS (parcial): Suporte a restrições de tabela de ponta a ponta na criação/substituição de tabela
- SPARK-52885 Implementar as funções de hora, minuto e segundo no Scala para o tipo TIME
- SPARK-51834 Sincronizar chamadas de atualização do OSS ResolvedIdentifier
- SPARK-44856 Reverter "[SC-195808][python] Melhorar o desempenho do serializador de seta UDTF do Python"
- SPARK-51834 Reverter "[SQL] Sincronizar chamadas de atualização do OSS ResolvedIdentifier"
- SPARK-44856 Melhorar o desempenho do serializador de seta UDTF do Python
- SPARK-51834 Sincronizar chamadas de atualização do OSS ResolvedIdentifier
- SPARK-52787 Reorganizar a execução de streaming dir em torno de áreas de runtime e ponto de verificação
- SPARK-51695 Sincronizar tabela de criação/substituição/alteração do OSS para restrição exclusiva via DSv2
- SPARK-51695 Sincronizar restrição de descarte do OSS via DSv2
- SPARK-51695 Introduzir alterações de analisador para restrições de tabela (CHECK, PK, FK)
- SPARK-51695 Reverter "[SQL] Introduzir alterações de analisador para restrições de tabela (CHECK, PK, FK)"
- SPARK-51695 Introduzir alterações de analisador para restrições de tabela (CHECK, PK, FK)
- SPARK-49428 Mover o cliente Connect Scala do conector para o SQL
-
SPARK-52422 Atualização
pandaspara 2.3.0 - SPARK-52228 Integrar o microbenchmark de interação de estado ao Quicksilver (TCP)
- SPARK-52300 Fazer com que a resolução UDTVF do SQL use configurações consistentes com a resolução de exibição
- SPARK-52228 Construir o servidor de estado TWS dedicado ao benchmarking, com implementações de estado na memória e o código de benchmarking em Python
-
SPARK-52174 Habilitar
spark.checkpoint.compresspor padrão - SPARK-52224 Introduzir o pyyaml como uma dependência para o cliente Python
- SPARK-52122 Corrigir a vulnerabilidade defaultParamsReader RCE
- SPARK-51147 Refatorar classes relacionadas ao streaming para um diretório de streaming dedicado
- SPARK-51789 Respeitar spark.api.mode e spark.remote corretamente ao analisar argumentos na Submissão do Spark
- SPARK-51212 Adicionar um pacote PySpark separado para o Spark Connect por padrão
- SPARK-50762 Adicionar regra do Analisador para resolver UDFs escalares do SQL
-
SPARK-49748 Adicionar
getConditione preterirgetErrorClassemSparkThrowable - SPARK-50605 Suporte ao modo de API do SQL para facilitar a migração para o Spark Connect
- SPARK-50458 Tratamento de erro adequado ao ler arquivos em sistemas de arquivos sem suporte
- SPARK-49700 Interface Scala unificada para o Connect e o Classic
- SPARK-51779 Usar famílias de colunas virtuais para junções fluxo a fluxo
-
SPARK-51820 Mover a construção
UnresolvedOrdinalantes da análise para evitar problemas com o grupo por ordinal -
SPARK-51814 Introduzir uma nova API
transformWithStateno PySpark - SPARK-51635 Mesclar PushProjectionThroughLimit e PushProjectionThroughOffset
-
SPARK-51165 Habilitar
spark.master.rest.enabledpor padrão - SPARK-51688 Usar soquete de domínio unix entre a comunicação do Python e da JVM
- SPARK-51503 Suporte ao tipo Variant na verificação XML
-
SPARK-50564 Atualizar
protobufo pacote do Python para 5.29.1 - SPARK-50359 Atualizar o PyArrow para 18.0
- SPARK-51340 Estimativa de tamanho do modelo
-
SPARK-50657 Atualizar a versão mínima para
pyarrow11.0.0 - SPARK-49282 Crie uma interface do SparkSessionBuilder compartilhada.
- SPARK-51371 Alterar toString para toPrettySQL ao criar Aliases em ResolveAggregateFunctions
- SPARK-50694 Suporte a renomeações em subconsultas
- SPARK-50601 Reverta "[SC-186342][sql] Suporte comColumns/withColumnsRenamed em subconsultas"
- SPARK-50601 Suporte para withColumns / withColumnsRenamed em subconsultas
Suporte ao driver ODBC/JDBC do Azure Databricks
O Azure Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).
Atualizações de manutenção
Confira as atualizações de manutenção do Databricks Runtime.
Ambiente do sistema
- Sistema operacional: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.0
Bibliotecas do Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| documento-anotado | 0.0.3 | annotated-types | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| flecha | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | atributos | 24.3.0 | comando automático | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.36.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | Armazenamento em Blob do Azure | 12.27.1 |
| azure-storage-file-datalake | 12.22.0 | babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | preto | 24.10.0 | bleach | 6.2.0 |
| blinker | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| ferramentas de cache | 5.5.1 | certificado | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | normalizador de conjunto de caracteres | 3.3.2 | click | 8.1.8 |
| cloudpickle | 3.0.0 | comm | 0.2.1 | contourpy | 1.3.1 |
| criptografia | 44.0.1 | ciclista | 0.11.0 | Cython | 3.1.5 |
| agentes do databricks | 1.4.0 | databricks-connect | 17.3.1 | databricks-sdk | 0.67.0 |
| dataclasses-json | 0.6.7 | dbus-python | 1.3.2 | debugpy | 1.8.11 |
| decorador | 5.1.1 | defusedxml | 0.7.1 | deltalake | 1.1.4 |
| Deprecated | 1.2.18 | distlib | 0.3.9 | de docstring para markdown | 0.11 |
| em execução | 1.2.0 | Visão geral de facetas | 1.1.1 | fastapi | 0.121.0 |
| fastjsonschema | 2.21.1 | bloqueio de arquivo | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (autenticação do Google) | 2.43.0 |
| google-cloud-core | 2.5.0 | armazenamento na nuvem do Google | 3.5.0 | google-crc32c | 1.7.1 |
| google-mídia-retomável | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | httpcore | 1.0.9 |
| httplib2 | 0.20.4 | httpx | 0.28.1 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | inflect | 7.3.1 | iniconfig | 1.1.1 |
| ipyflow-core | 0.0.209 | ipykernel | 6.29.5 | ipython | 8.30.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 | isodate | 0.7.2 |
| isoduration | 20.11.0 | jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.6 | jiter | 0.11.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | json5 | 0.9.25 | jsonpatch | 1.33 |
| jsonpointer | 3.0.0 | jsonschema | 4.23.0 | Especificações do JSON Schema | 2023.7.1 |
| eventos Jupyter | 0.12.0 | jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 |
| jupyter_core | 5.7.2 | Servidor Jupyter | 2.15.0 | Terminais do servidor Jupyter | 0.5.3 |
| jupyterlab | 4.3.4 | jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 |
| jupyterlab_widgets | 1.1.11 | kiwisolver | 1.4.8 | langchain-core | 1.0.3 |
| langchain-openai | 1.0.2 | langsmith | 0.4.41 | launchpadlib | 1.11.0 |
| lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | marshmallow | 3.26.1 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 3.1.2 | mlflow-skinny | 3.5.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.10.2 | nbconvert | 7.16.6 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.4 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | openai | 2.7.1 | opentelemetry-api | 1.38.0 |
| opentelemetry-proto | 1.38.0 | opentelemetry-sdk | 1.38.0 | Convenções Semânticas do OpenTelemetry | 0,59b0 |
| orjson | 3.11.4 | substituições | 7.4.0 | empacotamento | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| almofada | 11.1.0 | pip | 25.0.1 | platformdirs | 4.3.7 |
| enredo | 5.24.1 | Pluggy | 1.5.0 | prometheus_client | 0.21.1 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.11 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | py4j | 0.10.9.9 | Pyarrow | 21.0.0 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 |
| pycparser | 2.21 | pydantic | 2.10.6 | pydantic_core | 2.27.2 |
| pyflakes | 3.2.0 | Pygments | 2.19.1 | PyGObject | 3.48.2 |
| pyiceberg | 0.10.0 | PyJWT | 2.10.1 | pyodbc | 5.2.0 |
| pyparsing | 3.2.0 | pyright | 1.1.394 | piroaring | 1.0.3 |
| pytest | 8.3.5 | python-dateutil | 2.9.0.post0 | python-dotenv | 1.2.1 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server (servidor LSP para Python) | 1.12.2 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referência | 0.30.2 | regex | 2024.11.6 |
| requests | 2.32.3 | requests-toolbelt | 1.0.0 | rfc3339-validator | 0.1.4 |
| rfc3986-validator (validador de RFC 3986) | 0.1.1 | rico | 13.9.4 | corda | 1.13.0 |
| rpds-py | 0.22.3 | rsa | 4.9.1 | s3transfer | 0.14.0 |
| scikit-aprender | 1.6.1 | scipy | 1.15.3 | seaborn (biblioteca de visualização em Python) | 0.13.2 |
| Send2Trash | 1.8.2 | Ferramentas de configuração | 78.1.1 | seis | 1.17.0 |
| smmap | 5.0.0 | sniffio | 1.3.0 | sortedcontainers | 2.4.0 |
| soupsieve | 2,5 | sqlparse | 0.5.3 | ssh-import-id | 5.11 |
| dados empilhados | 0.6.3 | starlette | 0.49.3 | strictyaml | 1.7.3 |
| tenacidade | 9.0.0 | terminado | 0.17.1 | threadpoolctl | 3.5.0 |
| tiktoken | 0.12.0 | tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | guarda-tipo | 4.3.0 | types-python-dateutil | 2.9.0.20251008 |
| inspecionar digitação | 0.9.0 | typing_extensions | 4.12.2 | tzdata | 2024.1 |
| ujson | 5.10.0 | atualizações não supervisionadas | 0.1 | uri-template | 1.3.0 |
| urllib3 | 2.3.0 | uvicorn | 0.38.0 | virtualenv | 20.29.3 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | webcolors | 25.10.0 |
| codificações web | 0.5.1 | websocket-client (cliente WebSocket) | 1.8.0 | whatthepatch | 1.0.2 |
| wheel | 0.45.1 | quando | 0.7.3 | widgetsnbextension | 3.6.6 |
| embrulhado | 1.17.0 | yapf | 0.40.2 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit em 2025-03-20.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| flecha | 22.0.0 | AskPass | 1.2.1 | afirme isso | 0.2.1 |
| backports | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | ciar | 1.3-30 |
| Fabricação de cerveja | 1.0-10 | brio | 1.1.5 | vassoura | 1.0.10 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| sinal de interpolação | 7.0-1 | Cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | clipr | 0.8.0 |
| relógio | 0.7.3 | cluster | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | compilador | 4.5.1 | config | 0.3.2 |
| conflituoso | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| credenciais | 2.0.3 | encurvar | 7.0.0 | Tabela de Dados | 1.17.8 |
| conjuntos de dados | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| Descrição | 1.4.3 | devtools | 2.4.6 | diagrama | 1.6.5 |
| diffobj | 0.3.6 | hash | 0.6.39 | downlit | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| reticências | 0.3.2 | avaliar | 1.0.5 | fansi | 1.0.7 |
| cores | 2.1.2 | mapa rápido | 1.2.0 | fontawesome | 0.5.3 |
| forcats | 1.0.1 | foreach | 1.5.2 | estrangeiro | 0.8 - 86 |
| fs | 1.6.6 | futuro | 1.68.0 | future.apply | 1.20.0 |
| gargle | 1.6.0 | genéricos | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| cola | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| gower | 1.0.2 | Gráficos | 4.5.1 | grDevices | 4.5.1 |
| grade | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | capacete de segurança | 1.4.2 |
| refúgio | 2.5.5 | mais alto | 0.11 | hms | 1.1.4 |
| ferramentas HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| Iteradores | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1.50 |
| rotulagem | 0.4.3 | posterior | 1.4.4 | treliça | 0,22-5 |
| lava vulcânica | 1.8.2 | ciclo de vida | 1.0.4 | ouça | 0.10.0 |
| litedown | 0.8 | lubrificado | 1.9.4 | magrittr | 2.0.4 |
| markdown | 2.0 | MASS | 7.3-60.0.1 | Matriz | 1.6-5 |
| memorização | 2.0.1 | Métodos | 4.5.1 | mgcv | 1.9-1 |
| mime | 0.13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8-1.1 | openssl | 2.3.4 |
| otel | 0.2.0 | paralelo | 4.5.1 | parallelly | 1.45.1 |
| coluna | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | elogio | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | progresso | 1.2.3 | progressr | 0.18.0 |
| Promessas | 1.5.0 | proto | 1.0.0 | proxy | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | capaz de reagir | 0.4.4 | reactR | 0.6.1 |
| Readr | 2.1.6 | readxl | 1.4.5 | Receitas | 1.3.1 |
| jogo de revanche | 2.0.0 | revanche2 | 2.1.2 | remotes | 2.5.0 |
| reprex | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| escamas | 1.4.0 | Seletor | 0.4-2 | informações de sessão | 1.2.3 |
| forma | 1.4.6.1 | brilhante | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| espacial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estatísticas | 4.5.1 | estatísticas4 | 4.5.1 |
| stringi | 1.8.7 | stringr | 1.6.0 | sobrevivência | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | formatação de texto | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | mudança de horário | 0.3.0 | data e hora | 4051.111 |
| tinytex | 0.58 | Ferramentas | 4.5.1 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usethis | 3.2.1 | utf8 | 1.2.6 |
| utils | 4.5.1 | identificador único universal (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.6 |
| Waldo | 0.6.2 | whisker | 0.4.1 | murchar | 3.0.2 |
| xfun | 0,54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML | 2.3.10 | zeallot | 0.2.0 |
| zip | 2.3.3 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity (pacote de identidade Cognito para Java da AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect (SDK Java da AWS para conexão direta) | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | SDK Java para o ECS da AWS | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam (kit de desenvolvimento de software Java da AWS para IAM) | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | aws-java-sdk-machinelearning (SDK da AWS para aprendizado de máquina) | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | aws-java-sdk-support (suporte para AWS Java SDK) | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | fluxo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | colega de classe | 1.5.1 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.datatype | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials (credenciais da biblioteca de autenticação do Google) | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | anotações do AutoValue | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotações_propensas_a_erros | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | failureaccess | 1.0.3 |
| com.google.guava | guava | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | criador de perfil | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| commons-collections (coleções comuns) | commons-collections (coleções comuns) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | blas | 3.0.4 |
| dev.ludovic.netlib | lapack | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressor de ar | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.6 |
| io.dropwizard.metrics | anotação de métricas | 4.2.37 |
| io.dropwizard.metrics | metrics-core | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métricas-verificações de saúde | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json (métricas em JSON) | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | metrics-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4,15 |
| io.netty | Netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | Netty Resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | Netty Tcnative Classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comum | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coletor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | ativação | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | formiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lançador de formigas | 1.10.11 |
| org.apache.arrow | arrow-format | 18.3.0 |
| org.apache.arrow | arrow-memory-core | 18.3.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | arrow-vector | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Texto Comum | 1.14.0 |
| org.apache.curator | curator-client | 5.9.0 |
| org.apache.curator | estrutura do curador | 5.9.0 |
| org.apache.curator | curador de receitas | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline (ferramenta de linha de comando para conectar-se ao Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | API de armazenamento do Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | Agendador de Ajustes do Hive (hive-shims-scheduler) | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | formato ORC | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-calços | 2.2.0 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | anotações de público-alvo | 0.13.0 |
| org.apache.zookeeper | zelador de zoológico | 3.9.4 |
| org.apache.zookeeper | guarda de zoológico-juta | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | jetty-security | 10.0.26 |
| org.eclipse.jetty | servidor jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Jetty Webapp | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Localizador de Recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | AliançaAOP-Reempacotado | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interface de teste | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatível com scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Dica
Para ver as notas de release das versões do Databricks Runtime que atingiram o fim do suporte (EoS), confira Notas de release do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.