Partilhar via


Databricks Runtime 18.0 (Beta)

As notas de atualização seguintes fornecem informações sobre o Databricks Runtime 18.0 (Beta).

O Azure Databricks lançou esta versão em dezembro de 2025.

Importante

O Databricks Runtime 18.0 está em Beta. O conteúdo dos ambientes suportados pode mudar durante a versão Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.

Novos recursos e melhorias

O SQL Scripting está agora disponível de forma geral

A funcionalidade SQL Scripting está agora geralmente disponível.

Driver Redshift JDBC atualizado para 2.1.0.28

O driver Redshift JDBC foi atualizado para a versão 2.1.0.28.

Ambiente de execução isolado partilhado para Unity Catalog Python UDFs

Os UDFs Python do Unity Catalog com o mesmo proprietário podem agora partilhar um ambiente de isolamento por defeito. Isso pode melhorar o desempenho e reduzir o uso de memória, reduzindo o número de ambientes separados que precisam ser iniciados.

Para garantir que um UDF seja sempre executado em um ambiente totalmente isolado, adicione a STRICT ISOLATION cláusula característica. Ver Isolamento ambiental.

Funções de janela SQL em vistas métricas

É possível agora usar funções SQL de janela em vistas métricas para calcular totais acumulados, posições e outros cálculos baseados em janelas.

Desligamento gracioso para aplicações Spark

As aplicações Spark suportam agora um desligamento gradual, permitindo que tarefas em curso sejam concluídas antes do término da aplicação.

Ajuste dinâmico de partições de distribuição em consultas sem estado em transmissão contínua

Agora pode alterar o número de partições de embaralhamento em consultas de streaming sem estado sem precisar reiniciar a consulta.

Execução Adaptativa de Consultas e embaralhamento automático otimizado em consultas de streaming sem estado

A Execução Adaptativa de Consultas (AQE) e o embaralhamento automático otimizado (AOS) são agora suportados em consultas de streaming sem estado.

FILTER Cláusula para funções agregadas de medida em vistas métricas

Agora pode usar a cláusula FILTER com funções agregadas de medida nas vistas métricas para definir filtros específicos por agregado ao referenciar medidas das vistas métricas.

Fios literalmente a coalescer por todo o lado

A capacidade de coalescer literais de sequência de caracteres, como 'Hello' ' World' em 'Hello World', foi ampliada de expressões para qualquer lugar onde os literais de cadeia sejam permitidos. Por exemplo, COMMENT 'This' ' is a ' 'comment'. Consulte STRING o tipo para mais detalhes.

Marcadores de parâmetros por todo o lado

Agora pode usar marcadores de parâmetros nomeados (:param) e não nomeados (?) praticamente em qualquer lugar onde se possa usar um valor literal do tipo apropriado. Isto inclui marcadores de parâmetros em instruções DDL como CREATE VIEW v AS SELECT ? AS c1, tipos DECIMAL(:p, :s) de colunas, ou COMMENT ON t IS :comment. Com esta capacidade, pode parametrizar uma grande variedade de instruções SQL sem expor o seu código a ataques de injeção SQL. Consulte Marcadores de parâmetros para mais detalhes.

IDENTIFIER cláusula em todo o código

O alcance da IDENTIFIER cláusula, que lança strings para nomes de objetos SQL, foi expandido para praticamente todos os locais onde um identificador é permitido. Juntamente com as melhorias no coalescimento de strings literais e nos marcadores de parâmetros, agora é possível parametrizar qualquer elemento, desde aliases de colunas (AS IDENTIFIER(:name)) até definições de colunas (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte IDENTIFIER cláusula para obter detalhes.

Nova função BITMAP_AND_AGG

A biblioteca existente de BITMAP funções foi completada com uma nova função BITMAP_AND_AGG .

Nova biblioteca de funções KLL_Sketch

Agora pode usar uma nova biblioteca de funções que constrói esboços KLL para cálculo quantil aproximado:

Biblioteca Apache Parquet atualizada para 1.16.0

A biblioteca Apache Parquet foi atualizada para a versão 1.16.0.

Mudanças comportamentais

O JDK 21 é agora o Kit de Desenvolvimento Java padrão

O Databricks Runtime 18.0 utiliza JDK 21 como o Java Development Kit predefinido. JDK 21 é um lançamento de suporte a longo prazo (LTS). Anteriormente, o predefinido era o JDK 17, que agora está disponível como opção de recurso.

Para informações sobre como configurar versões JDK para os seus clusters, veja Criar um cluster com uma versão específica de JDK.

FSCK REPAIR TABLE inclui reparação de metadados por padrão

O FSCK REPAIR TABLE comando inclui agora um passo inicial de reparação de metadados antes de verificar ficheiros de dados em falta. O comando pode funcionar em tabelas com checkpoints corrompidos ou valores de partição inválidos.

Anulabilidade preservada para tipos de array e mapa no cliente Scala Spark Connect

A anulabilidade dos tipos de array e mapa é agora preservada para literais tipados no cliente Scala do Spark Connect. Anteriormente, elementos de arrays e valores de mapas eram sempre anuláveis.

FSCK REPAIR TABLE DRY RUN Esquema de saída atualizado

A coluna dataFilePath no esquema de saída FSCK REPAIR TABLE DRY RUN é agora anulável para suportar o relato de novos tipos de problemas onde o caminho do ficheiro de dados não é aplicável.

SHOW TABLES DROPPED Respeita LIMIT a cláusula

A SHOW TABLES DROPPED ordem agora respeita corretamente a LIMIT cláusula.

Fatores de prorrateamento alinhados entre leituras e escritas auto-otimizadas

Os fatores de rateio para dimensionamento de partições agora usam valores fracionários de forma consistente em todas as operações de leitura e escritas auto-otimizadas. Esta alteração pode resultar num número diferente de tarefas para operações de leitura.

Execução UDF em Python unificada entre o Catálogo PySpark e Unity

Os UDFs Python do Catálogo Unity usam agora o Apache Arrow como formato padrão de troca, melhorando o desempenho geral e alinhando-se com o comportamento dos UDFs Python otimizados para Arrow no Apache Spark. Como parte desta alteração, TIMESTAMP os valores passados para UDFs em Python já não incluem a informação do fuso horário no datetime atributo do tzinfo objeto. Os próprios valores de carimbo temporal permanecem no UTC, mas os metadados do fuso horário foram agora eliminados.

Se o seu UDF depende da informação do fuso horário, precisa de o restaurar com date = date.replace(tzinfo=timezone.utc). Para mais informações, veja Comportamento do fuso temporal com carimbo temporal para entradas.

Mensagens de erro melhoradas para problemas com o módulo de login do conector Kafka

Ao usar o conector Kafka com uma classe de módulo de login não sombreada, o Azure Databricks agora fornece mensagens de erro que sugerem usar o prefixo correto da classe sombreada (kafkashaded.org.apache.kafka ou kafkashaded.software.amazon.msk.auth.iam).

Restrições de viagem no tempo e VACUUM comportamento de retenção

O Azure Databricks bloqueia agora consultas de viagem no tempo para além do deletedFileRetentionDuration limiar para todas as tabelas. O VACUUM comando ignora o argumento da duração de retenção, exceto quando o valor é 0 horas. Não pode definir deletedFileRetentionDuration maior do que logRetentionDuration ou vice-versa.

BinaryType mapeia para bytes por defeito no PySpark

BinaryType agora mapeia consistentemente para Python bytes no PySpark. Anteriormente, o PySpark mapeava BinaryType para bytes ou bytearray conforme o contexto. Para restaurar o comportamento antigo, defina spark.sql.execution.pyspark.binaryAsBytes para false.

Estruturas NULL preservadas em Delta MERGE, UPDATE, e operações de escrita em streaming

Os NULL structs são agora preservados como NULL em Delta MERGE, UPDATE, e operações de escrita em streaming que incluem conversões de tipos de struct. Anteriormente, as estruturas NULL eram expandidas para estruturas com campos NULL. Por exemplo, uma estrutura NULL permanece agora NULL em vez de ser expandida para uma estrutura com todos os valores do campo NULL.

Colunas de partição materializadas nos ficheiros Parquet

Tabelas Delta particionadas agora materializam colunas de partição em ficheiros de dados Parquet recém-escritos. Anteriormente, os valores das partições eram armazenados nos metadados do registo de transações Delta e refletidos nos caminhos dos diretórios, mas não eram escritos como colunas nos próprios ficheiros Parquet. Esta alteração está alinhada com o comportamento do Apache Iceberg e UniForm e pode afetar cargas de trabalho que leem diretamente ficheiros Parquet escritos pela Delta Lake, uma vez que os ficheiros recém-escritos incluem colunas de partição adicionais.

Atualizações da biblioteca

Bibliotecas Python atualizadas:

  • Anyio de 4.6.2 a 4.7.0
  • Asttokens de 2,0.5 a 3,0.0
  • Azure-core da 1.34.0 à 1.36.0
  • Azure-mgmt-core da versão 1.5.0 para a 1.6.0
  • Azure-storage-blob de 12.23.0 a 12.27.1
  • Azure-Storage-File-Datalake de 12.17.0 a 12.22.0
  • boto3 de 1.36.2 a 1.40.45
  • Botocore de 1.36.3 a 1.40.45
  • Certifi de 2025.1.31 a 2025.4.26
  • clique de 8.1.7 para 8.1.8
  • Criptografia de 43.0.3 a 44.0.1
  • Cython de 3.0.12 a 3.1.5
  • Databricks-SDK de 0.49.0 a 0.67.0
  • Descontinuado de 1.2.13 a 1.2.18
  • Atualização de 0.8.3 para 1.2.0
  • Fastapi de 0.115.12 a 0.121.0
  • Google-API-Core da 2.20.0 à 2.28.1
  • google-auth de 2.40.0 para 2.43.0
  • Google-Cloud-Core da 2.4.3 à 2.5.0
  • Google-Cloud-Storage da 3.1.0 à 3.5.0
  • H11 de 0.14.0 a 0.16.0
  • httpcore de 1.0.2 a 1.0.9
  • httpx de 0.27.0 a 0.28.1
  • isodate de 0.6.1 a 0.7.2
  • Jinja2 de 3.1.5 a 3.1.6
  • Eventos Jupyter de 0.10.0 a 0.12.0
  • Jupyter-LSP de 2.2.0 a 2.2.5
  • jupyter_server de 2.14.1 a 2.15.0
  • jupyter_server_terminals de 0.4.4 a 0.5.3
  • Mistune de 2.0.4 a 3.1.2
  • mlflow-skinny de 3.0.1 a 3.5.1
  • mmh3 de 5.1.0 a 5.2.0
  • MSAL de 1.32.3 a 1.34.0
  • nbclient de 0.8.0 a 0.10.2
  • nbconvert de 7.16.4 para 7.16.6
  • notebook_shim de 0.2.3 a 0.2.4
  • OpenTelemetry-API de 1.32.1 a 1.38.0
  • OpenTelemetry-SDK de 1.32.1 a 1.38.0
  • Opentelemetry-semântic-conventions de 0.53b1 a 0.59b0
  • platformdirs desde 3.10.0 até 4.3.7
  • prometheus_client de 0.21.0 a 0.21.1
  • Psycopg2 de 2.9.3 a 2.9.11
  • pyarrow de 19.0.1 a 21.0.0
  • Pygments de 2.15.1 a 2.19.1
  • pyiceberg de 0.9.0 a 0.10.0
  • python-lsp-server da 1.12.0 à 1.12.2
  • corda de 1.12.0 a 1.13.0
  • s3transfer de 0.11.3 para 0.14.0
  • SCIPY de 1.15.1 a 1.15.3
  • setuptools de 74.0.0 a 78.1.1
  • seis de 1.16.0 a 1.17.0
  • stack-data de 0.2.0 a 0.6.3
  • Starlette de 0.46.2 a 0.49.3
  • Tornado de 6.4.2 a 6.5.1
  • types-python-dateutil de 2.9.0.20241206 a 2.9.0.20251008
  • Uvicorn de 0.34.2 a 0.38.0
  • webcolors de 24.11.1 a 25.10.0

Bibliotecas R atualizadas:

  • Flecha de 19.0.1 a 22.0.0
  • base de 4.4.2 a 4.5.1
  • bigD de 0.3.0 a 0.3.1
  • vassoura de 1.0.7 a 1.0.10
  • relógio de 0.7.2 a 0.7.3
  • Commonmark da versão 1.9.5 para 2.0.0
  • compilador de 4.4.2 a 4.5.1
  • atualização de credenciais da versão 2.0.2 para 2.0.3
  • Atualizar curl da versão 6.4.0 para 7.0.0
  • data.table de 1.17.0 até 1.17.8
  • conjuntos de dados de 4.4.2 a 4.5.1
  • DBPLYR da 2.5.0 à 2.5.1
  • DevTools de 2.4.5 para 2.4.6
  • Diffobj de 0.3.5 a 0.3.6
  • Resumo de 0.6.37 a 0.6.39
  • downlit de 0.4.4 para 0.4.5
  • dtplyr de 1.3.1 a 1.3.2
  • avaliar de 1.0.3 a 1.0.5
  • fansi de 1.0.6 a 1.0.7
  • Forcats de 1.0.0 a 1.0.1
  • FS de 1.6.5 a 1.6.6
  • Futuro de 1.34.0 a 1.68.0
  • future.apply da versão 1.11.3 para a versão 1.20.0
  • gargle de 1.5.2 para 1.6.0
  • GERT de 2.1.4 a 2.2.0
  • ggplot2 de 3.5.1 a 4.0.1
  • GH de 1.4.1 a 1.5.0
  • git2r de 0.35.0 a 0.36.2
  • GLMNET de 4.1-8 para 4.1-10
  • GoogleDrive da versão 2.1.1 para a 2.1.2
  • Googlesheets4 da versão 1.1.1 à 1.1.2
  • Gráficos de 4.4.2 a 4.5.1
  • grDevices de 4.4.2 a 4.5.1
  • grelha de 4.4.2 a 4.5.1
  • Atualização do gt da versão 0.11.1 para 1.1.0
  • Hardhat de 1.4.1 a 1.4.2
  • Atualização do Haven da versão 2.5.4 para a 2.5.5
  • HMS de 1.1.3 para 1.1.4
  • httpuv de 1.6.15 a 1.6.16
  • httr2 de 1.1.1 para 1.2.1
  • jsonlite de 1.9.1 a 2.0.0
  • mais tarde, de 1.4.1 a 1.4.4
  • Lava de 1.8.1 a 1.8.2
  • Atualização do Listenv da versão 0.9.1 para a 0.10.0
  • Magrittr de 2.0.3 a 2.0.4
  • markdown de 1.13 para 2.0
  • Métodos de 4.4.2 a 4.5.1
  • miniUI de 0.1.1.1 a 0.1.2
  • mlflow de 2.20.4 a 3.6.0
  • OpenSSL de 2.3.3 a 2.3.4
  • paralelo de 4.4.2 a 4.5.1
  • paralelamente, de 1.42.0 a 1.45.1
  • Pilar de 1.11.0 a 1.11.1
  • pkgbuild de 1.4.6 a 1.4.8
  • pkgdown de 2.1.1 para 2.2.0
  • Atualização do pkgload de 1.4.0 para 1.4.1
  • pROC de 1.18.5 a 1.19.0.1
  • Prodlim de 25.06.2024 a 28.04.2025
  • Atualização do progressr de 0.15.1 a 0.18.0
  • Promessas de 1.3.2 a 1.5.0
  • PS de 1.9.0 a 1.9.1
  • purrr de 1.0.4 a 1.2.0
  • ragg do 1.3.3 para 1.5.0
  • Rcpp de 1.0.14 a 1.1.0
  • readr da versão 2.1.5 para a versão 2.1.6
  • receitas de 1.2.0 a 1.3.1
  • Reshape2 de 1.4.4 para 1.4.5
  • rmarkdown de 2,29 para 2,30
  • roxygen2 de 7.3.2 a 7.3.3
  • rprojroot de 2.0.4 para 2.1.1
  • RSQLite de 2.3.9 a 2.4.4
  • rversões de 2.1.2 a 3.0.0
  • Rvest de 1.0.4 a 1.0.5
  • Saass de 0.4.9 a 0.4.10
  • escalas de 1.3.0 a 1.4.0
  • Brilhante de 1.10.0 a 1.11.1
  • Sparklyr de 1.9.1 a 1.9.3
  • SparkR da 4.0.0 à 4.1.0
  • sparsevctrs de 0.3.1 até 0.3.4
  • splines de 4.4.2 a 4.5.1
  • Estatísticas de 4.4.2 a 4.5.1
  • Stats4 de 4.4.2 a 4.5.1
  • stringr de 1.5.1 a 1.6.0
  • SystemFonts de 1.2.1 a 1.3.1
  • tcltk de 4.4.2 a 4.5.1
  • testthat de 3.2.3 a 3.3.0
  • modelação de texto de 1.0.0 a 1.0.4
  • DataHora de 4041.110 a 4051.111
  • Tinytex de 0,56 a 0,58
  • ferramentas de 4.4.2 a 4.5.1
  • usethis de 3.1.0 a 3.2.1
  • Utilitários de 4.4.2 a 4.5.1
  • V8 de 6.0.2 a 8.0.1
  • vroom de 1.6.5 a 1.6.6
  • Waldo de 0.6.1 a 0.6.2
  • xfun de 0.51 a 0.54
  • XML2 da 1.3.8 à 1.5.0
  • zeallot de 0.1.0 a 0.2.0
  • zip de 2.3.2 para 2.3.3

Bibliotecas Java atualizadas:

  • com.amazonaws.amazon-kinesis-client de 1.12.0 a 1.15.3
  • com.amazonaws.aws-java-sdk-autoscaling de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudformation de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudfront de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudhsm de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudsearch de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudtrail de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudwatch de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-codedeploy de 1.12.638 para 1.12.681
  • com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-cognitosync de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-config de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-core de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-sql-scriptdatapipeline de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-directconnect de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-directory de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-dynamodb de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-ec2 de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-ecs de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-efs de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-elasticache de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-emr de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-glacier de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-glue de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-iam de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-importexport de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-kinesis de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-kms de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-lambda de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-logs de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-machinelearning de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-opsworks de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-rds de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-redshift de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-route53 de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-s3 de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-ses de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-simpledb de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-simpleworkflow de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-sns de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-sqs de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-ssm de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-storagegateway de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-sts de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-support de 1.12.638 a 1.12.681
  • com.amazonaws.aws-java-sdk-workspaces da versão 1.12.638 para a versão 1.12.681
  • com.amazonaws.jmespath-java de 1.12.638 a 1.12.681
  • com.databricks.databricks-sdk-java de 0.27.0 a 0.53.0
  • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.18.2 a 2.18.3
  • com.github.luben.zstd-jni de 1.5.6-10 a 1.5.7-6
  • com.google.flatbuffers.flatbuffers-java de 24.3.25 a 25.2.10
  • com.google.guava.failureaccess de 1.0.2 a 1.0.3
  • com.google.guava.guava de 33.4.0-jre a 33.4.8-jre
  • com.microsoft.sqlserver.mssql-jdbc de 11.2.3.jre8 para 12.8.0.jre8
  • commons-cli.commons-cli de 1.9.0 a 1.10.0
  • Atualização do commons-codec.commons-codec da versão 1.17.2 para a versão 1.19.0
  • commons-fileupload.commons-fileupload de 1.5 a 1.6.0
  • commons-io.commons-io de 2.18.0 para 2.21.0
  • dev.ludovic.netlib.arpack de 3.0.3 a 3.0.4
  • dev.ludovic.netlib.blas de 3.0.3 a 3.0.4
  • dev.ludovic.netlib.lapack de 3.0.3 para 3.0.4
  • io.delta.delta-sharing-client_2.13 de 1.3.5 a 1.3.6
  • io.dropwizard.metrics.metrics-anotação de 4.2.30 a 4.2.37
  • io.dropwizard.metrics.metrics-core de 4.2.30 a 4.2.37
  • io.dropwizard.metrics.metrics-graphite de 4.2.30 a 4.2.37
  • io.dropwizard.metrics.metrics-healthchecks de 4.2.30 para 4.2.37
  • io.dropwizard.metrics.metrics-jmx de 4.2.30 a 4.2.37
  • io.dropwizard.metrics.metrics-json de 4.2.30 a 4.2.37
  • io.dropwizard.metrics.metrics-jvm de 4.2.30 a 4.2.37
  • io.dropwizard.metrics.metrics-servlets de 4.2.30 a 4.2.37
  • io.netty.netty-all de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-buffer desde a versão 4.1.118.Final até a versão 4.2.7.Final
  • io.netty.netty-codec de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-codec-http da versão 4.1.118.Final para a versão 4.2.7.Final
  • io.netty.netty-codec-http2 de 4.1.118.Final a 4.2.7.Final
  • Atualização do io.netty.netty-codec-socks de 4.1.118.Final para 4.2.7.Final
  • Alteração de io.netty.netty-common da versão 4.1.118.Final para a versão 4.2.7.Final
  • io.netty.netty-handler de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-handler-proxy de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-resolver de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-tcnative-boringssl-static de 2.0.70.Final-db-r0-windows-x86_64 até 2.0.74.Final-db-r0-windows-x86_64
  • io.netty.netty-tcnative-classes de 2.0.70.Final a 2.0.74.Final
  • io.netty.netty-transport de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-transport-classes-epoll de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-transport-classes-kqueue de 4.1.118.Final a 4.2.7.Final
  • io.netty.netty-transport-native-epoll de 4.1.118.Final-linux-x86_64 para 4.2.7.Final-linux-x86_64
  • io.netty.netty-transport-native-kqueue de 4.1.118.Final-osx-x86_64 até 4.2.7.Final-osx-x86_64
  • io.netty.netty-transport-native-unix-common de 4.1.118.Final a 4.2.7.Final
  • joda-time.joda-time de 2.13.0 a 2.14.0
  • org.apache.arrow.arrow-format de 18.2.0 a 18.3.0
  • org.apache.arrow.arrow-memory-core de 18.2.0 a 18.3.0
  • org.apache.arrow.arrow-memory-netty de 18.2.0 a 18.3.0
  • org.apache.arrow.arrow-memory-netty-buffer-patch de 18.2.0 para 18.3.0
  • org.apache.arrow.arrow-vector de 18.2.0 a 18.3.0
  • org.apache.avro.avro de 1.12.0 a 1.12.1
  • org.apache.avro.avro-ipc de 1.12.0 a 1.12.1
  • org.apache.avro.avro-mapred de 1.12.0 a 1.12.1
  • org.apache.commons.commons-collections4 de 4.4 a 4.5.0
  • org.apache.commons.commons-compress de 1.27.1 a 1.28.0
  • org.apache.commons.commons-lang3 de 3.17.0 a 3.19.0
  • org.apache.commons.commons-text de 1.13.0 a 1.14.0
  • org.apache.curator.curator-client de 5.7.1 a 5.9.0
  • org.apache.curator.curator-framework de 5.7.1 a 5.9.0
  • org.apache.curator.curator-recipes de 5.7.1 a 5.9.0
  • org.apache.datasketches.datasketches-java de 6.1.1 a 6.2.0
  • org.apache.hadoop.hadoop-client-runtime de 3.4.1 a 3.4.2
  • org.apache.orc.orc-core de 2.1.1-shaded-protobuf até 2.2.0-shaded-protobuf
  • org.apache.orc.orc-format desde 1.1.0-shaded-protobuf até 1.1.1-shaded-protobuf
  • org.apache.orc.orc-mapreduce de 2.1.1-shaded-protobuf para 2.2.0-shaded-protobuf
  • org.apache.orc.orc-shims de 2.1.1 a 2.2.0
  • org.apache.xbean.xbean-asm9-shaded de 4.26 a 4.28
  • org.apache.zookeeper.zookeeper de 3.9.3 a 3.9.4
  • org.apache.zookeeper.zookeeper-jute de 3.9.3 a 3.9.4
  • org.eclipse.jetty.jetty-client de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-http de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-io de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-jndi da versão 9.4.53.v20231009 para a 10.0.26
  • org.eclipse.jetty.jetty-plus de 9.4.53.v20231009 para 10.0.26
  • org.eclipse.jetty.jetty-proxy de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-security de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-server de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-servlet de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-servlets de 9.4.53.v20231009 a 10.0.26
  • Atualização do org.eclipse.jetty.jetty-util de 9.4.53.v20231009 para 10.0.26
  • org.eclipse.jetty.jetty-webapp de 9.4.53.v20231009 a 10.0.26
  • org.eclipse.jetty.jetty-xml de 9.4.53.v20231009 a 10.0.26
  • org.mlflow.mlflow-spark_2.13 de 2.9.1 a 2.22.1
  • org.objenesis.objenesis de 3.3 a 3.4
  • org.scala-lang.modules.scala-xml_2.13 de 2.3.0 a 2.4.0

Apache Spark

O Databricks Runtime 18.0 (Beta) inclui o Apache Spark 4.0.0. Esta versão inclui todas as correções e melhorias do Spark incluídas na versão anterior, bem como as seguintes correções adicionais de bugs e melhorias feitas ao Spark:

  • SPARK-54536 Embaralhamento FetchWaitTime ausente coletar criar custo de cliente/espera
  • SPARK-54534 Migrar códigos de erro de legado relacionados com o Hive para condições de erro adequadas
  • SPARK-54565 O SparkBuildInfo deve carregar spark-version-info.properties a partir do seu próprio classloader
  • SPARK-54533 Configure o valor correto para a métrica ExecutorSource.METRIC_RESULT_SIZE
  • SPARK-54478 Reativar os testes de transmissão contínua para o CI do teste de compatibilidade de conexão
  • SPARK-54552 Corrigir SparkConnectResultSet.getString para lidar com o tipo de dados BINARY com UTF_8
  • SPARK-54501 Melhorar o tratamento de erros para falhas no filtro de partição da metastore Hive
  • SPARK-54550 Lida de forma elegante com ConnectException em SparkConnectStatement.close()
  • SPARK-54020 Suporte spark.sql(...) à API Python dentro das funções de consulta para o Spark Declarative Pipeline
  • SPARK-53127 Corrigir LIMIT TUDO para recursão não limitada com normalização CTE
  • SPARK-50072 Tratar ArithmeticException na análise de intervalos com valores elevados
  • SPARK-54299 Corrigir a consulta de exemplo errada em WindowGroupLimit
  • SPARK-54505 Corrigir a ordem dos argumentos na chamada de createMetrics em makeNegative
  • SPARK-54462 Adicionar SupportsV1OverwriteWithSaveAsTable mixin para TableProvider
  • SPARK-54540 Algumas pequenas correções para o driver JDBC de Connect
  • SPARK-54508 Corrigir spark-pipelines para resolver spec o caminho do ficheiro de forma mais robusta
  • SPARK-54087 Falha na tarefa de lançamento do Spark Executor deve devolver a mensagem de tarefa terminada
  • SPARK-53797 Correção FileStreamSource.takeFilesUntilMax para utilizar zipWithIndex para evitar indices uso
  • SPARK-54418 Corrigir mensagens de erro e formatação de código
  • SPARK-54114 Suporte para getColumns no SparkConnectDatabaseMetaData
  • SPARK-54209 Suporte para tipo TIMESTAMP no SparkConnectResultSet
  • SPARK-54208 Suporte ao tipo TIME no SparkConnectResultSet
  • SPARK-54528 Fecha o URLClassLoader com entusiasmo para evitar o OOM
  • SPARK-54464 Remover chamadas duplicadas output.reserve em assembleVariantBatch
  • SPARK-53635 Suportar UDFs Scala com argumentos de entrada do tipo Seq[Row]
  • SPARK-54493 Corrigir assertSchemaEqual para MapType
  • SPARK-52515 Teste approx_top_k com bandeira ligada e desligada
  • SPARK-54413 Atualizar o Bootstrap v4.4.1 para v4.6.2
  • SPARK-54497 Aplicar functools.lru_cache na cache do conversor
  • SPARK-54306 Anotar Colunas Variantes com anotação do tipo lógico Variante
  • SPARK-54350 O ORDINAL_POSITION na operação SparkGetColumns deve ser baseado em 1.
  • SPARK-54130 Adicionar mensagens de erro detalhadas para falhas de asserção de catálogo
  • SPARK-54220 Suporte de Tipos NullType/VOID/UNKNOWN em Parquet
  • SPARK-54163 Canonicalização por varredura para particionamento e ordenação da informação
  • SPARK-54377 Corrige COMMENT ONTABLE IS NULL para remover corretamente o comentário da tabela
  • SPARK-52767 Otimizar maxRows e maxRowsPerPartition para junção e união
  • SPARK-54063 Disparar snapshot para o próximo lote quando houver atraso de upload
  • SPARK-54384 Modernizar o método _batched para BatchedSerializer
  • SPARK-54378 Remover CreateXmlParser.scala do catalyst módulo
  • SPARK-53103 Revert "[SC-204946][ss] Lançar um erro se o diretório de estado não estiver vazio quando a consulta for iniciada"
  • SPARK-53103 Lançar um erro se o diretório de estado não estiver vazio quando a consulta iniciar
  • SPARK-54397 Tornar UserDefinedType hashável
  • SPARK-54440 Dar ao ficheiro de especificação padrão do pipeline um nome mais idiomático, spark-pipeline.yml
  • SPARK-54324 Adicionar teste para extensões de contexto de cliente-utilizador.
  • SPARK-54456 Importar o módulo worker após fork para evitar deadlock
  • SPARK-54427 Permitir que o ColumnarRow chame copy com tipos variantes
  • SPARK-54136 Extrair a lógica de fusão de planos de MergeScalarSubqueries para PlanMerger
  • SPARK-54389 Corrigir o erro de carimbo inválido do RocksDB State Store quando a tarefa é marcada como falhada durante a inicialização
  • SPARK-54346 Introduzir a API de redistribuição de estado e o executor de redistribuição
  • SPARK-53809 Adicionar canonicalização para DataSourceV2ScanRelation
  • SPARK-54280 Exigir que o diretório de armazenamento de checkpoint da pipeline seja um caminho absoluto
  • SPARK-54206 Suporte a dados do tipo BINARY no SparkConnectResultSet
  • SPARK-54319 Atualização BHJ LeftAnti com o numOutputRows errado quando o codegen está desativado
  • SPARK-54355 Faça spark.connect.session.planCompression.defaultAlgorithm para apoiar NONE
  • SPARK-54341 Lembre-se do TimeTravelSpec para tabelas carregadas via TableProvider
  • SPARK-54280 Reversão de "[SC-212148][sdp] Exigir que o diretório de armazenamento de checkpoint da pipeline seja um caminho absoluto"
  • SPARK-54354 Corrigir o bloqueio do Spark quando não há memória suficiente do JVM heap para a relação de broadcast hashed
  • SPARK-54439 Particionamento de Chaves Agrupadas e incompatibilidade no tamanho da chave de junção
  • SPARK-54280 Exigir que o diretório de armazenamento de checkpoint da pipeline seja um caminho absoluto
  • SPARK-54395 A classe RemoteBlockPushResolver inicializa repetidamente o ObjectMapper
  • SPARK-54207 Suporta dados do tipo Data no SparkConnectResultSet
  • SPARK-54182 Otimizar a conversão sem seta de df.toPandas
  • SPARK-54312 Evitar a programação repetida de tarefas para SendHeartbeat/WorkDirClean no trabalhador independente.
  • SPARK-54394 Mover isJavaVersionAtMost17 e isJavaVersionAtLeast21 de core para common/utils
  • SPARK-53927 Atualização do cliente Kinesis
  • SPARK-54358 Diretórios de checkpoints entram em conflito quando tabelas de streaming em esquemas diferentes têm o mesmo nome
  • SPARK-54310 Reverter "[SC-212003][sql] Adicionar numSourceRows métrica para MergeIntoExec"
  • SPARK-54310 Adicionar numSourceRows métrica para MergeIntoExec
  • SPARK-53322 Selecione um KeyGroupedShuffleSpec apenas quando as posições das chaves de junção puderem ser totalmente pressionadas para baixo
  • SPARK-54270 Os métodos SparkConnectResultSet get* devem chamar checkOpen e verificar o limite do índice.
  • SPARK-53849 Atualizar netty e netty tc nativo
  • SPARK-54205 Suporta dados do tipo Decimal no SparkConnectResultSet
  • SPARK-54417 Corrigir mensagem de erro para subconsulta escalar na IDENTIFIER cláusula
  • SPARK-54113 Suporte getTables para SparkConnectDatabaseMetaData
  • SPARK-54303 Canonizar a condição de erro MISSING_CATALOG_ABILITY
  • SPARK-54153 Suportar UDFs Python baseados em iteradores para perfilar
  • SPARK-54349 Refatorar o código um pouco para simplificar a extensão da integração do faulthandler
  • SPARK-54317 Unificar a lógica de conversão do Arrow para o Classic e o Connect toPandas
  • SPARK-54339 Corrigir o não determinismo em AttributeMap
  • SPARK-54112 Suporte getSchemas para SparkConnectDatabaseMetaData
  • SPARK-54180 Sobrescrever o toString do BinaryFileFormat
  • SPARK-54213 Remover o Python 3.9 do Spark Connect
  • SPARK-54215 Adicionar a característica SessionStateHelper ao FilePartition
  • SPARK-54115 Aumentar a prioridade na ordem de exibição dos threads de operação do servidor Connect na página de despejo de threads
  • SPARK-54193 Descontinuado spark.shuffle.server.finalizeShuffleMergeThreadsPercent
  • SPARK-54149 Permitir a recursão de cauda onde for possível
  • SPARK-54185 O Desativado spark.shuffle.server.chunkFetchHandlerThreadsPercent
  • SPARK-54056 resolver a substituição das definições do SQLConf nos Catálogos
  • SPARK-54147 Defina OMP_NUM_THREADS para spark.task.cpus por defeito no BaseScriptTransformationExec
  • SPARK-54229 Fazer com que o PySparkLogger nos UDFs armazene uma entrada de log por chamada de função log
  • SPARK-53337 XSS: Garantir que o nome da aplicação na página de histórico seja escapado
  • SPARK-54229 Revert "[SC-211321][python] Fazer com que o PySparkLogger nos UDFs armazene uma entrada de log por chamada de função log"
  • SPARK-54373 Ampliar o atributo SVG viewBox da inicialização do Job DAG
  • SPARK-54323 Alterar a forma de aceder aos registos para o TVF em vez da visualização do sistema
  • SPARK-54229 Fazer com que o PySparkLogger nos UDFs armazene uma entrada de log por chamada de função log
  • SPARK-53978 Apoiar o registo dos trabalhadores do lado do condutor
  • SPARK-54146 Limpeza do uso da API Jackson descontinuada
  • SPARK-54383 Adicionar variante de esquema pré-computado para o utilitário InternalRowComparableWrapper
  • SPARK-54030 Adicionar uma mensagem de asserção amigável para ver corrupção de metadados
  • SPARK-54144 Inferências de Tipos de Avaliação de Curtos-Circuitos
  • SPARK-54030 Revertir "[SC-210301][sql] Adicionar mensagem de asserção amigável para a corrupção de metadados de visualização"
  • SPARK-54028 Use esquema vazio ao alterar uma vista que não seja compatível com a Hive
  • SPARK-54030 Adicionar uma mensagem de asserção amigável para ver corrupção de metadados
  • SPARK-54085 Corrigir initialize para adicionar a opção CREATE adicionalmente em DriverRunner
  • SPARK-53482MERGE INTO Suporte para quando a fonte tem menos campos estruturados do que o alvo
  • SPARK-53905 Refactor RelationResolution para permitir a reutilização de código
  • SPARK-53732 Recordar TimeTravelSpec em DataSourceV2Relation
  • SPARK-54014 Suportar número máximo de linhas para SparkConnectStatement
  • SPARK-50906 Corrigir a verificação de anulabilidade do Avro para campos de struct reordenados
  • SPARK-54396 Otimizar chamadas Py4J em Dataframe.toArrow
  • SPARK-54344 Mata o trabalhador se a descarga falhar na daemon.py
  • SPARK-53977 Suporte ao registo em UDTFs
  • SPARK-52515 Reaplicar "[SC-199815][sql] Adicionar approx_top_k função"
  • SPARK-54340 Adicionar a capacidade de usar o viztracer nos processos daemon/worker do pyspark
  • SPARK-54379 Mover a ligação lambda para um objeto separado LambdaBinder
  • SPARK-54029 Adicionar mensagem detalhada de erro para corrupção de metadados da tabela para facilitar a depuração
  • SPARK-54002 Suporte à integração do BeeLine com o driver Connect JDBC
  • SPARK-54336 Corrigir verificação do tipo de entrada com BloomFilterMightContain
  • SPARK-53406 Evite embaralhar desnecessário, juntar-se ao embaralhamento direto de passthrough ID
  • SPARK-54347 Otimizar chamadas Py4J no dataframe clássico
  • SPARK-54062 Limpeza do código MergeScalarSubqueries
  • SPARK-54054 Posição da linha de suporte para SparkConnectResultSet
  • SPARK-54330 Otimizar chamadas Py4J em spark.createDataFrame
  • SPARK-54332 Não é necessário anexar PlanId ao agrupar nomes das colunas em rollup/cube/groupingSets
  • SPARK-53976 Suporte ao login em Pandas/Arrow UDFs
  • SPARK-54123 Adicionar o fuso horário para que o timestamp seja uma hora absoluta
  • SPARK-54356 Corrigir o problema no EndToEndAPISuite causado pela ausência do esquema raiz de armazenamento
  • SPARK-54292 Suporte para funções agregadas e operadores pipe no |GROUP BY> (#180106) (#180368)
  • SPARK-54376 Marque a maioria das opções de configuração de pipeline como internas
  • SPARK-53975 Adiciona suporte básico para logging de trabalhadores em Python
  • SPARK-54361 Corrigir a versão do Spark para o valor pretendido 4.2.0 para spark.sql.parser.singleCharacterPipeOperator.enabled
  • SPARK-51518 Suporte | como alternativa a |> para o token de operador de pipe SQL
  • SPARK-53535 Corrigir structuras ausentes que são sempre assumidas como nulas
  • SPARK-54294 Endereço IP impresso do servidor Normalize Connect
  • SPARK-52439 Restrição de verificação de suporte com valor nulo
  • SPARK-54352 Introduzir SQLConf.canonicalize para centralizar a normalização das cadeias
  • SPARK-54183 Revertir Reverter "[SC-211824][python][CONNECT] Evite um quadro de dados temporário intermédio durante o spark connect toPandas()"
  • SPARK-53573IDENTIFIER Por todo o lado
  • SPARK-53573 Permitir a coalescência de literais de strings em qualquer contexto
  • SPARK-54240 Traduz a expressão catalisadora do item get array para expressão do conector
  • SPARK-54334 Mover a validação das expressões de subconsulta sob funções lambda e de ordem superior para SubqueryExpressionInLambdaOrHigherOrderFunctionValidator
  • SPARK-54183 Reverter "[SC-211824][python][CONNECT] Evite um quadro de dados temporário intermédio durante o spark connect toPandas()"
  • SPARK-54183 Evite um quadro de dados temporário intermédio durante o uso do spark connect toPandas().
  • SPARK-54264 O Operador DeDup pode usar keyExists() do RocksDB
  • SPARK-54269 Atualizar cloudpickle para a 3.1.2 para Python 3.14
  • SPARK-54300 Otimizar chamadas Py4J em df.toPandas
  • SPARK-54307 Emitir um erro se a consulta de streaming for reiniciada com operação com estado mas houver um diretório de estado vazio
  • SPARK-54117 Emitir um erro mais claro para indicar que o TWS é apenas suportado com o fornecedor de armazenamento de estado RocksDB
  • SPARK-53917 Apoiar grandes relações locais - seguimentos
  • SPARK-54275 Limpar código não utilizado do pipeline módulo
  • SPARK-54287 Adicionar suporte a Python 3.14 em pyspark-client e pyspark-connect
  • SPARK-53614 Adicionar Iterator[pandas.DataFrame] suporte a applyInPandas
  • SPARK-54191 Adicionar uma vez ao Defineflow Proto
  • SPARK-54234 Não é necessário anexar PlanId ao agrupar nomes de colunas em df.groupBy
  • SPARK-54231 Preencher lacunas nos documentos SDP
  • SPARK-54199 Adicionar suporte à API DataFrame para novas funções de esboço de quantiles KLL (#178526)
  • SPARK-52463 Reaplicar "[SC-211221][sdp] Adicionar suporte para cluster_by nas APIs de Pipelines em Python"
  • SPARK-52463 Reverter "[SC-211221][sdp] Adicionar suporte para cluster_by nas APIs do Python Pipelines"
  • SPARK-53786 O valor padrão com nome especial de coluna não deve entrar em conflito com coluna real
  • SPARK-54200 Atualize KafkaConsumerPoolRealTimeModeSuite para usar groupIdPrefix para segurança em execuções concorrentes
  • SPARK-52463 Adicionar suporte para cluster_by nas APIs do Python Pipelines
  • SPARK-52509 Limpar os movimentos individuais do armazenamento de reserva no RemoveShuffle evento
  • SPARK-54187 Reaplicar "[SC-211150][python][CONNECT] Obter todas as configurações em lote no toPandas"
  • SPARK-53942 Suporte para alterar partições de shuffle sem estado após o reinício de consultas em streaming
  • SPARK-52515 Reverter "[SC-199815][sql] Adicionar a função approx_top_k"
  • SPARK-52515 Adicionar a função approx_top_k
  • SPARK-54078 Novo teste para StateStoreSuite SPARK-40492: maintenance before unload e remover infra do teste antigo
  • SPARK-54178 Melhorar mensagem de erro para o ResolveSQLOnFile
  • SPARK-53455 Adicionar CloneSession RPC
  • SPARK-54178 Reverter "[SC-211111][sql] Erro de melhoria para o ResolveSQLOnFile"
  • SPARK-53489 Remover usando v2ColumnsToStructType em ApplyDefaultCollationToStringType
  • SPARK-54178 Melhorar mensagem de erro para o ResolveSQLOnFile
  • SPARK-54187 Reverter "[SC-211150][python][CONNECT] Obter todas as configurações de uma só vez no toPandas"
  • SPARK-53942 Reverter "[SC-209873][ss] Suporte à alteração de partições de shuffle sem estado após o reinício da consulta de streaming"
  • SPARK-54187 Obtenha todas as configurações em lote no ToPandas
  • SPARK-54145 Corrigir verificação de colunas do tipo aninhado em agregação numérica
  • SPARK-53942 Suporte para alterar partições de shuffle sem estado após o reinício de consultas em streaming
  • SPARK-53991 Adicionar suporte SQL para funções de quantiles KLL baseadas em DataSketches (#178089) (#178234)
  • SPARK-53128 Incluir bytes de memória não geridos no registo de utilização antes do OOM da memória de execução
  • SPARK-53731 Atualizar as anotações de tipo das APIs dos iteradores
  • SPARK-53967 Evitar a criação de DataFrames Pandas intermédios em df.toPandas
  • SPARK-53455 Reverter "[SC-208758][conectar] Adicionar CloneSession RPC"
  • SPARK-54108 Rever os métodos execute* do SparkConnectStatement
  • SPARK-54052 Adicionar um objeto bridge para contornar a limitação do Py4J
  • SPARK-54128 Converter IllegalArgumentException em SparkException com as classes de erro adequadas no servidor Spark Connect
  • SPARK-53880 Corrigir o DSv2 no PushVariantIntoScan adicionando SupportsPushDownVariants
  • SPARK-54111 Suporte ao getCatalogs para o SparkConnectDatabaseMetaData
  • SPARK-53455 Adicionar CloneSession RPC
  • SPARK-54118 Melhorar a operação de colocar/fusão no ListState quando existem múltiplos valores
  • SPARK-54038 Suporte getSQLKeywords para SparkConnectDatabaseMetaData
  • SPARK-54013 Implementar métodos simples do SparkConnectDatabaseMetaData
  • SPARK-53934 Implementação inicial do driver Connect JDBC
  • SPARK-53959 Lança um erro do lado do cliente ao criar um dataframe a partir de um dataframe pandas com um índice mas sem dados
  • SPARK-53573 Reverter "[SC-210255][sql] Permitir coalescer literais de cadeias em qualquer lugar"
  • SPARK-54094 Extrair métodos comuns para KafkaOffsetReaderBase
  • SPARK-53573 Permitir a coalescência de literais de strings em qualquer contexto
  • SPARK-54039 Adicionar informação do TaskContext aos registos de release() do KafkaDataConsumer para melhor depuração
  • SPARK-54031 Adicionar novos testes de ficheiros dourados para casos extremos de análise
  • SPARK-54067 Melhorar SparkSubmit para invocar exitFn com a causa raiz em vez de SparkUserAppException
  • SPARK-54047 Utiliza um erro diferencial quando o encerramento por tempo limite de inatividade
  • SPARK-54078 Deflake StateStoreSuite SPARK-40492: maintenance before unload
  • SPARK-54061 Envolver IllegalArgumentException com código de erro adequado para padrões de data-hora inválidos
  • SPARK-54031 Reverter "[SC-210084][sql] Adicionar novos testes de ficheiros dourados para casos extremos de análise"
  • SPARK-54075 Tornar ResolvedCollation avaliável
  • SPARK-54001 Otimizar a utilização de memória na clonagem de sessões com relações locais em cache contadas por ref
  • SPARK-54031 Adicionar novos testes de ficheiros dourados para casos extremos de análise
  • SPARK-53923 Renomear spark.executor.(log -> logs).redirectConsoleOutputs
  • SPARK-54007 Use Java Set.of em vez de Collections.emptySet
  • SPARK-53755 Adicionar suporte a logs no BlockManager
  • SPARK-54041 Refatorar a validação de argumentos de ParameterizedQuery
  • SPARK-53696 Usar bytes como padrão para BinaryType no PySpark
  • SPARK-53921 Introduza GeometryType e GeographyType na API PySpark
  • SPARK-53788 Mover VersionUtils para módulo common
  • SPARK-53999 Suporte nativo ao KQueue Transport em BSD/MacOS
  • SPARK-54021 Implementar acessores de Geografia e Geometria na plataforma Catalyst
  • SPARK-53921 Revertir "[SC-209482][geo][PYTHON] Introduzir GeometryType e GeographyType na API PySpark"
  • SPARK-53920 Introduzir GeometryType e GeographyType na API Java
  • SPARK-53610 Limitar os tamanhos dos lotes do Arrow em CoGrouped applyInPandas e applyInArrow
  • SPARK-53659 Inferir esquema de desmembramento variante ao escrever no formato Parquet
  • SPARK-53922 Introdução dos tipos de Geometria Física e Geografia
  • SPARK-54059 Reduza o tamanho padrão da página em LONG_ARRAY_OFFSET se forem usados ZGC ou ShenandoahGC e ON_HEAP
  • SPARK-53921 Introduza GeometryType e GeographyType na API PySpark
  • SPARK-54048 Atualização dev/requirements.txt para instalar torch(vision) em Python 3.14
  • SPARK-53917 Apoiar grandes relações locais
  • SPARK-53760 Introduzir GeometryType e GeographyType
  • SPARK-53530 Limpar o código inútil relacionado com TransformWithStateInPySparkStateServer
  • SPARK-53636 Corrigir um problema de segurança de threads no SortShuffleManager.unregisterShuffle
  • SPARK-52762 Adicionar a mensagem PipelineAnalysisContext para suportar a análise de pipeline durante a execução da consulta Spark Connect
  • SPARK-53631 Otimizar memória e desempenho no bootstrap SHS
  • SPARK-53857 Permitir a propagação do MessageTemplate para o SparkThrowable
  • SPARK-53891 Resumo de Escrita de Confirmação do Modelo DSV2 API
  • SPARK-53966 Adicionar funções utilitárias para detetar GCs da JVM
  • SPARK-53149 Verificar se o processo BeeLine corre em segundo plano
  • SPARK-53738 Corrigir a escrita planeada quando a saída da consulta contém ordenações dobráveis
  • SPARK-53949 Utilização Utils.getRootCause em vez de Throwables.getRootCause
  • SPARK-53696 Reverter "[SC-209330][python][CONNECT][sql] Configuração padrão para bytes em BinaryType no PySpark"
  • SPARK-53804 Suporte à ordenação radix TIME
  • SPARK-54004 Corrigir a tabela de descache pelo nome sem cascata
  • SPARK-53261 Use Java String.join|StringJoiner em vez de Guava Joiner
  • SPARK-53319 Suportar o tipo de hora por try_make_timestamp_ltz()
  • SPARK-53280 Utilizar Java instanceof em vez de utilizar métodos Throwables.throwIf*
  • SPARK-53696 Usar bytes como padrão para BinaryType no PySpark
  • SPARK-53258 Utilização de JavaUtils por check(Argument|State)
  • SPARK-53773 Recuperar a ordenação alfabética das regras em RuleIdCollection
  • SPARK-53256 Promover check(Argument|State) para JavaUtils
  • SPARK-54008 Saltar o QO para DESCRIBE QUERY
  • SPARK-53573 Use Pré-processador para gestão generalizada de marcadores de parâmetros
  • SPARK-53980 Adicionar SparkConf.getAllWithPrefix(String, String => K) API
  • SPARK-54009 Apoio spark.io.mode.default
  • SPARK-51903 Validar dados ao adicionar uma restrição CHECK
  • SPARK-53573 Revertir "[SC-209126][sql] Usar Pré-processador para tratamento generalizado de marcadores de parâmetros"
  • SPARK-53573 Use Pré-processador para gestão generalizada de marcadores de parâmetros
  • SPARK-53573 Revertir "[SC-209126][sql] Usar Pré-processador para tratamento generalizado de marcadores de parâmetros"
  • SPARK-53956 Suporte ao TIME na função try_make_timestamp no PySpark
  • SPARK-53930 Suporte ao TIME na função make_timestamp no PySpark
  • SPARK-53573 Use Pré-processador para gestão generalizada de marcadores de parâmetros
  • SPARK-53564 Evitar as saídas do DAGScheduler devido ao timeout RPC do blockManager em DAGSchedulerEventProcessLoop
  • SPARK-53879 Atualização Ammonite para a 3.0.3
  • SPARK-53938 Corrigir o reescalonamento decimal no LocalDataToArrowConversion
  • SPARK-53845 SDP Afunda-se
  • SPARK-53908 Corrigir observações no Spark Connect com cache do plano
  • SPARK-53841 Implementar transform() API em Colunas
  • SPARK-53929 Suporte ao TIME nas funções make_timestamp e try_make_timestamp no Scala
  • SPARK-53902 Adicionar bits de padrão de nós de árvore para expressões suportadas na ParameterizedQuery lista de argumentos
  • SPARK-53064 Reescrever o MDC LogKey em Java
  • SPARK-53762 Adicionar regra simplificadora de conversões de data e hora ao otimizador
  • SPARK-53916 Deduplicar as variáveis no PythonArrowInput
  • SPARK-53690 Corrigir a formatação exponencial de avgOffsetsBehindLatest e estimatedTotalBytesBehindLatest no objeto Kafka em JSON em progresso.
  • SPARK-53789 Normalizar a condição de erro CANNOT_MODIFY_STATIC_CONFIG
  • SPARK-53720 Simplificar a extração da Tabela a partir de DataSourceV2Relation (#52460)
  • SPARK-45530 Usar java.lang.ref.Cleaner em vez de finalize para NioBufferedFileInputStream
  • SPARK-53789 Reverter "[SC-208902][sql][CONNECT] Canonizar condição de erro CANNOT_MODIFY_STATIC_CONFIG"
  • SPARK-53789 Normalizar a condição de erro CANNOT_MODIFY_STATIC_CONFIG
  • SPARK-53111 Implementar a função time_diff no PySpark
  • SPARK-53896 Ativar spark.io.compression.lzf.parallel.enabled por defeito
  • SPARK-53856 Remover denylist nomes de configuração alternativos
  • SPARK-53611 Limitar os tamanhos de lotes do Arrow em UDFs de agregação em janelas
  • SPARK-53575 Repetir todas as fases dos consumidores quando detetar um desajuste de soma de verificação para uma tarefa de mapa de shuffle reprocessada
  • SPARK-53867 Limitar o tamanho dos lotes de Arrow em SQL_GROUPED_AGG_ARROW_UDF
  • SPARK-53877 Introduzir a função BITMAP_AND_AGG
  • SPARK-51426 Corrigir 'Definir metadados para ditto vazio não funciona'
  • SPARK-53868 Use a verificação do comprimento do array em vez da verificação direta de referência no V2ExpressionBuilder
  • SPARK-53609 Limitar o tamanho dos lotes do Arrow em SQL_GROUPED_AGG_PANDAS_UDF
  • SPARK-53892 Use DescribeTopicsResult.allTopicNames em vez da API obsoleta all
  • SPARK-53878 Corrigir problema de condição de corrida relacionado com ObservedMetrics
  • SPARK-53796 Adicionar extension campo a alguns protos de pipeline para suportar compatibilidade futura
  • SPARK-53850 Defina proto para Sinks e renomeie DefineDataset para DefineOutput
  • SPARK-53812 Refatorar os protótipos de DefineDataset e DefineFlow para agrupar propriedades relacionadas e garantir que estejam preparados para o futuro
  • SPARK-53870 Corrigir bug de leitura parcial para mensagens grandes em formato proto no TransformWithStateInPySparkStateServer
  • SPARK-53751 Localização Explícita de Checkpoint Versionada
  • SPARK-52407 Adicionar suporte para Theta Sketch (#171135)
  • SPARK-53779 Implementar transform() API em Colunas
  • SPARK-49547 Adicionar iterador da RecordBatch API a applyInArrow
  • SPARK-53802 Valores de cadeia de suporte para esquemas especificados pelo utilizador em tabelas SDP
  • SPARK-53865 Extrair lógica comum da regra ResolveGenerate
  • SPARK-53113 Suportar o tipo de data e hora por try_make_timestamp()
  • SPARK-53868 Use apenas a assinatura com Expression[] de visitAggregateFunction em V2ExpressionSQBuilder
  • SPARK-53792 Corrigir rocksdbPinnedBlocksMemoryUsage quando a memória é limitada ...
  • SPARK-53248 Apoio checkedCast em JavaUtils
  • SPARK-52640 Propagar a localização do código-fonte em Python
  • SPARK-52924 Suporte para ZSTD_strategy na compressão
  • SPARK-53562 Reaplicar "[SC-207233][python] Limitar o tamanho dos lotes Arrow em applyInArrow e applyInPandas"
  • SPARK-51272 Abortar em vez de continuar a fase de resultado indeterminado parcialmente concluída em ResubmitFailedStages
  • SPARK-53795 Remover parâmetros não utilizados no LiteralValueProtoConverter
  • SPARK-53808 Permitir passar args JVM opcionais para spark-connect-scala-client
  • SPARK-52614 Suporte ao RowEncoder dentro do Product Encoder
  • SPARK-53833 Atualização dev/requirements.txt para skip torch/torchvision em Python 3.14
  • SPARK-53715 Refatorar getWritePrivileges para MergeIntoTable
  • SPARK-53516 Corrigir spark.api.mode o processo arg no SparkPipelines
  • SPARK-53507 Não uses a classe case para o BreakingChangeInfo
  • SPARK-53645 Implementar skipna parâmetro para ps.DataFrame any()
  • SPARK-53717 Revisar MapType.valueContainsNull o comentário dos parâmetros de forma mais correta
  • SPARK-53700 Remover redundância em DataSourceV2RelationBase.simpleString
  • SPARK-53667 Corrigir EXPLAIN para CALL com IDENTIFIER
  • SPARK-53562 Reverter "[SC-207233][python] Limitar os tamanhos dos lotes de Arrow nos applyInArrow e applyInPandas"
  • SPARK-51169 Adicionar suporte a Python 3.14 no Spark Classic
  • SPARK-53562 Limitar o tamanho dos lotes Arrow em applyInArrow e applyInPandas
  • SPARK-53806 Permitir que uma entrada vazia na desencriptação AES tenha uma classe de erro atribuída
  • SPARK-51756 Calcula *RowBasedChecksum* em *ShuffleWriters*
  • SPARK-52807 Alterações no Proto para suportar a análise dentro das funções de consulta do Declarative Pipelines
  • SPARK-53728 Imprimir Mensagem de PipelineEvent com Erro no Ensaio
  • SPARK-53207 Enviar Evento do Pipeline para o Cliente de forma assíncrona
  • SPARK-53829 Suporte datetime.time em operadores de coluna
  • SPARK-53638 Limitar o tamanho em bytes do batch de Arrow para TWS para evitar OOM
  • SPARK-53593 Correção: Usar sem aspas para campos de resposta
  • SPARK-53734 Prefira a coluna da tabela em vez do LCA ao resolver o índice do array
  • SPARK-53593 Adicionar campo de resposta para DefineDataset e DefineFlow RPC
  • SPARK-53734 Revertir "[SC-207697][sql] Prefiro a coluna de tabela em vez de LCA ao resolver o índice do array"
  • SPARK-53621 Adição de Suporte para Executar CONTINUE HANDLER
  • SPARK-53734 Prefira a coluna da tabela em vez do LCA ao resolver o índice do array
  • SPARK-53507 Adicionar informações sobre alterações que provocam quebra a erros
  • SPARK-53707 Melhorar o tratamento dos metadados dos atributos.
  • SPARK-53629 Implementar o alargamento de tipos com MERGE INTO EVOLUTION SCHEMA
  • SPARK-53719 Melhorar a verificação de tipos na _to_col função
  • SPARK-53735 Ocultar os traços da pilha JVM do lado do servidor por padrão na saída dos Pipelines do Spark
  • SPARK-53651 Adicionar suporte para visualizações persistentes em pipelines
  • SPARK-53678 Corrigir NPE ao criar a subclasse de ColumnVector com DataType com valor nulo
  • SPARK-46679 Correção para SparkUnsupportedOperationException Não foi encontrado um codificador do tipo T ao usar a classe Parameterizada
  • SPARK-53444 Retrabalho executar imediato retrabalho executar imediato
  • SPARK-53578 Simplificar o tratamento dos tipos de dados no LiteralValueProtoConverter
  • SPARK-53438 Use CatalystConverter no LiteralExpressionProtoConverter
  • SPARK-53444 Revert "[SC-206535][sql][CORE] Rework execute immediate rework execute immediately"
  • SPARK-53444 Retrabalho executar imediato retrabalho executar imediato
  • SPARK-53112 Suportar o TIME nas funções make_timestamp_ntz e try_make_timestamp_ntz no PySpark
  • SPARK-53492 Rejeitar o segundo ExecutePlan com um ID de operação já concluída
  • SPARK-52772 Correção antecipada de ficheiros padrão
  • SPARK-53591 Simplificar a correspondência de globos de padrões de especificação de pipeline
  • SPARK-53553 Correcção do tratamento de valores nulos no LiteralValueProtoConverter
  • SPARK-52772 Tratamento inconsistente de atributos de tabela durante as atualizações
  • SPARK-53544 Suportar tipos complexos em observações
  • SPARK-53357 Atualizar pandas para 2.3.2
  • SPARK-53402 Suporte à API de Dataset com Passagem Direta no Particionamento no Spark Connect no Scala
  • SPARK-53372 SDP Conjunto de testes fim a fim
  • SPARK-53402 Reverter "[SC-206163][connect] Suportar API de Particionamento Direto-Passthrough de Dataset no Spark Connect em Scala"
  • SPARK-53402 Suporte à API de Dataset com Passagem Direta no Particionamento no Spark Connect no Scala
  • SPARK-53233 Certifique-se de que o código relacionado a streaming utilize o nome correto do pacote
  • SPARK-53233 Revert "[SC-203716][sql][SS][mllib][CONNECT] Faça com que o código relacionado a streaming use o nome correto do pacote"
  • SPARK-53233 Certifique-se de que o código relacionado a streaming utilize o nome correto do pacote
  • SPARK-53561 Capturar InterruptionException em TransformWithStateInPySparkStateServer durante a execução de outputStream.flush para evitar a falha do processo
  • SPARK-53486 Evite definir weights_only=False ao carregar o modelo do Torch
  • SPARK-53391 Remover PrimitiveKeyOpenHashMap não utilizado
  • SPARK-52431 Retoques finais no executor de Declarative Pipelines
  • SPARK-52980 Suporte Arrow Python UDTFs
  • SPARK-53453 Desbloquear 'torch<2.6.0'
  • SPARK-52582 Remerge "[SC-199314][sc-204581][SQL] Melhorar a utilização de memória do parser XML"
  • SPARK-52582 Reverter "[SC-199314][sc-204581][SQL] Melhorar utilização de memória do parser XML"
  • SPARK-52582 Otimizar a utilização de memória do analisador XML
  • SPARK-51906 Expressões Dsv2 em alterar tabela adicionar colunas
  • SPARK-53150 Melhorar list(File|Path)s para lidar com entrada inexistente, que não seja diretório e link simbólico
  • SPARK-53091 Banir org.apache.commons.lang3.Strings
  • SPARK-52844 Atualizar o numpy para a versão 1.22
  • SPARK-52912 Melhorar SparkStringUtils para suportar is(Not)?(Blank|Empty)
  • SPARK-52877 Melhorar o desempenho do serializador Arrow UDF Python
  • SPARK-52877 Reverter "[SC-201914][python] Melhorar o Desempenho do Serializer Arrow no Python UDF"
  • SPARK-52238 Cliente Python para pipelines declarativos
  • SPARK-52877 Melhorar o desempenho do serializador Arrow UDF Python
  • Faísca-53287 Adicionar Guia de Migração ANSI
  • Faísca-52110 Implementar suporte à sintaxe SQL para pipelines
  • SPARK-52897 Atualização pandas para a 2.3.1
  • SPARK-52451 Reverter "[SC-202894][conectar][SQL] Tornar o WriteOperation no SparkConnectPlanner livre de efeitos secundários"
  • SPARK-52976 Corrigir o UDF de Python não aceitar string agregada como parâmetro de entrada ou tipo de retorno.
  • SPARK-52904 Ativar por padrão convertToArrowArraySafely
  • SPARK-52821 adicionar int-DecimalType> pyspark udf retorno tipo coerção
  • Faísca-52971 Limitar o tamanho da fila de trabalho Python ocioso
  • Faísca-53013 Corrigir UDTF Python otimizado para seta que não retorna linhas na junção lateral
  • FAÍSCA-51834 Sync OSS: suporte a restrição de tabela de ponta a ponta alterar restrição de adicionar/soltar
  • Faísca-52675 Interromper manipuladores de ML suspensos em testes
  • Faísca-52959 Suporte UDT em Python UDTF otimizado para seta
  • SPARK-52961 Corrigir Python UDTF otimizado para Arrow com avaliação 0-arg na junção lateral
  • SPARK-52949 Evitar ida e volta entre RecordBatch e Table em Python UDTF otimizado para Arrow
  • SPARK-52946 Corrigir UDTF Python otimizado para Arrow para suportar grandes tipos de variáveis
  • SPARK-52934 Permitir obter valores escalares com Python UDTF otimizado com Arrow
  • SPARK-52861 Criação de objetos de Skip Row na execução UDTF otimizada para Arrow
  • FAÍSCA-51834 Suporte a OSS de sincronização de ponta a ponta para criar/substituir tabela com restrição
  • SPARK-44856 Melhorar o desempenho do serializador Arrow UDTF Python
  • SPARK-51834 Reverter "[SQL] Corrigir o TableSpec ao adicionar um construtor"
  • SPARK-51834 Corrigir o TableSpec adicionando um construtor
  • SPARK-51834 Revert "[SQL] Sync OSS (parcial): Suporte para restrição de tabela de ponta a ponta na criação/substituição de tabela"
  • SPARK-51834 Sync OSS (parcial): Suporte à restrição de tabela completa na funcionalidade de criar/substituir tabela
  • FAÍSCA-52885 Implementar as funções de hora, minuto e segundo no Scala para o tipo TIME
  • FAÍSCA-51834 Sincronizar atualização OSS ResolvedIdentifier cancelar a aplicação de chamadas
  • SPARK-44856 Reverter "[SC-195808][python] Melhorar o desempenho do serializador Arrow UDTF do Python"
  • SPARK-51834 Reverter "[SQL] Sincronizar OSS atualização ResolvedIdentifier desaplicar chamadas"
  • SPARK-44856 Melhorar o desempenho do serializador Arrow UDTF Python
  • FAÍSCA-51834 Sincronizar atualização OSS ResolvedIdentifier cancelar a aplicação de chamadas
  • FAÍSCA-52787 Reorganize o dir de execução de streaming em torno de áreas de tempo de execução e checkpoint
  • Faísca-51695 Sincronize OSS criar/substituir/alterar tabela para restrição exclusiva via DSv2
  • Faísca-51695 Sincronize a restrição de queda do OSS via DSv2
  • Faísca-51695 Introduzir alterações no analisador para restrições de tabela (CHECK, PK, FK)
  • SPARK-51695 Revert "[SQL] Introduz alterações ao analisador para restrições de tabela (CHECK, PK, FK)"
  • Faísca-51695 Introduzir alterações no analisador para restrições de tabela (CHECK, PK, FK)
  • SPARK-49428 Transferir o Connect Scala Client do Connector para o SQL
  • SPARK-52422 Atualização pandas para a 2.3.0
  • SPARK-52228 Integrar o microbenchmark de interação de estado no Quicksilver (TCP)
  • SPARK-52300 Fazer com que a resolução SQL UDTVF use configurações consistentes com a resolução de visualização
  • SPARK-52228 Construa o servidor de estado TWS destinado a benchmarks com implementações de estado em memória e o código de benchmark em Python
  • SPARK-52174 Ativar spark.checkpoint.compress por padrão
  • SPARK-52224 Introduzir pyyaml como dependência do cliente Python
  • SPARK-52122 Corrigir a vulnerabilidade RCE do DefaultParamsReader
  • SPARK-51147 Refatorar classes relacionadas com streaming para um diretório de streaming dedicado
  • SPARK-51789 Respeitar spark.api.mode e spark.remote corretamente ao analisar argumentos na submissão no Spark
  • SPARK-51212 Adicionar um pacote separado PySpark para o Spark Connect por defeito
  • SPARK-50762 Adicionar regra do analyzer para resolver UDFs escalares SQL
  • SPARK-49748 Adicionar getCondition e depreciar getErrorClass em SparkThrowable
  • SPARK-50605 Suporte ao modo de API SQL para facilitar a migração para o Spark Connect
  • SPARK-50458 Tratamento adequado de erros para sistemas de arquivos não suportados quando se leem ficheiros
  • SPARK-49700 Interface Scala Unificada para Connect e Classic
  • SPARK-51779 Usar famílias de colunas virtuais para junções de fluxo com fluxo
  • Faísca-51820 Mova UnresolvedOrdinal a construção antes da análise para evitar problemas com o grupo por ordinal
  • SPARK-51814 Introduzir uma nova API transformWithState no PySpark
  • SPARK-51635 Mesclar PushProjectionThroughLimit e PushProjectionThroughOffset
  • SPARK-51165 Ativar spark.master.rest.enabled por padrão
  • SPARK-51688 Utilizar Sockets de Domínio Unix para comunicação entre Python e JVM
  • SPARK-51503 Suporte ao Tipo de Variante na Análise XML
  • SPARK-50564 Atualizar protobuf o pacote Python para 5.29.1
  • SPARK-50359 Atualizar o PyArrow para a versão 18.0
  • SPARK-51340 Estimativa do tamanho do modelo
  • SPARK-50657 Atualize a versão mínima para pyarrow a 11.0.0
  • SPARK-49282 Crie uma interface partilhada do SparkSessionBuilder.
  • SPARK-51371 Alterar de toString para toPrettySQL ao construir Aliases em ResolveAggregateFunctions
  • SPARK-50694 Suporte para renomeações em subconsultas
  • SPARK-50601 Reverter "[SC-186342][sql] Suporte comColunas / comColunasRenomeado nas subconsultas"
  • SPARK-50601 Suporte para withColumns / withColumnsRenamed em subconsultas

Suporte ao driver ODBC/JDBC do Azure Databricks

O Azure Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 24.04.3 LTS
  • Java: Zulu21.42+19-CA
  • Escala: 2.13.16
  • Píton: 3.12.3
  • R: 4.5.1
  • Lago Delta: 4.0.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
documento anotado 0.0.3 tipos com anotações 0.7.0 anyio 4.7.0
Argão2-CFFI 21.3.0 argon2-cffi-vinculações 21.2.0 arro3-core 0.6.5
seta 1.3.0 AstTokens 3.0.0 "Astunparse" 1.6.3
Async-LRU 2.0.4 Atributos 24.3.0 Comando automático 2.2.2
azure-common 1.1.28 azure-core 1.36.0 azure-identity (serviços de identidade do Azure) 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 Azure Storage Blob 12.27.1
Armazenamento de Ficheiros Azure Data Lake 12.22.0 Babel 2.16.0 backports.tarfile 1.2.0
BeautifulSoup4 4.12.3 preto 24.10.0 lixívia 6.2.0
pisca 1.7.0 boto3 1.40.45 Botocore 1.40.45
Ferramentas de cache 5.5.1 certifi 2025.4.26 cffi 1.17.1
Chardet 4.0.0 Normalizador de Charset 3.3.2 clicar 8.1.8
Cloudpickle 3.0.0 Comunicação 0.2.1 contorno 1.3.1
criptografia 44.0.1 ciclista 0.11.0 Cython 3.1.5
Databricks-Agentes 1.4.0 databricks-connect 17.3.1 Databricks-SDK 0.67.0
DataClasses-JSON 0.6.7 dbus-python 1.3.2 debugpy 1.8.11
decorador 5.1.1 defusedxml 0.7.1 deltalake 1.1.4
Deprecated 1.2.18 Distlib 0.3.9 convertendo docstring em markdown 0.11
executar 1.2.0 facetas-visão geral 1.1.1 fastapi 0.121.0
fastjsonschema (biblioteca para validação rápida de esquemas JSON) 2.21.1 bloqueio de arquivo 3.18.0 Fonttools 4.55.3
FQDN (Nome de Domínio Completo) 1.5.1 fsspec 2023.5.0 GitDB 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 Google-Auth (Autenticação) 2.43.0
Google Cloud Core 2.5.0 google-armazenamento-em-nuvem 3.5.0 Google-CRC32C 1.7.1
google-media-reutilizável 2.7.2 googleapis-common-protos 1.65.0 Grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 httpcore 1.0.9
httplib2 0.20.4 httpx 0.28.1 IDNA 3.7
importlib-metadata 6.6.0 flexionar 7.3.1 iniconfig 1.1.1
ipyflow-core 0.0.209 Ipykernel 6.29.5 IPython 8.30.0
ipython-genutils 0.2.0 ipywidgets 7.8.1 isodate 0.7.2
isoduração 20.11.0 jaraco.collections 5.1.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.6 Jiter 0.11.1 jmespath 1.0.1
Joblib 1.4.2 JSON5 0.9.25 jsonpatch 1.33
jsonpointer 3.0.0 jsonschema 4.23.0 jsonschema-especificações 2023.7.1
Jupyter-Eventos 0.12.0 Jupyter-LSP 2.2.5 jupyter_client 8.6.3
jupyter_core 5.7.2 jupyter_servidor 2.15.0 jupyter_server_terminals 0.5.3
Jupyterlab 4.3.4 jupyterlab_pygments 0.3.0 jupyterlab_server 2.27.3
jupyterlab_widgets 1.1.11 kiwisolver 1.4.8 langchain-núcleo 1.0.3
langchain-openai 1.0.2 Langsmith 0.4.41 launchpadlib 1.11.0
lazr.restfulclient 0.14.6 lazr.uri 1.0.6 markdown-it-py 2.2.0
MarkupSafe 3.0.2 Espuma 3.26.1 Matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
Mistune 3.1.2 mlflow-skinny 3.5.1 MMH3 5.2.0
more-itertools 10.3.0 MSAL 1.34.0 MSAL-extensões 1.3.1
mypy extensions 1.0.0 nbclient 0.10.2 nbconvert 7.16.6
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
bloco de notas 7.3.2 notebook_shim 0.2.4 numpy 2.1.3
OAuthlib 3.2.2 OpenAI 2.7.1 OpenTelemetry API 1.38.0
OpenTelemetry-Proto 1.38.0 OpenTelemetry SDK 1.38.0 Convenções Semânticas de OpenTelemetry 0.59b0
Orjson 3.11.4 sobrescrições 7.4.0 embalagem 24,2
pandas 2.2.3 PandocFilters 1.5.0 Parso 0.8.4
PathSpec 0.10.3 vítima 1.0.1 pexpect 4.8.0
almofada 11.1.0 pip (o gestor de pacotes do Python) 25.0.1 platformdirs 4.3.7
enredo 5.24.1 Pluggy 1.5.0 prometheus_client 0.21.1
kit de ferramentas de prompt 3.0.43 Proto-Plus 1.26.1 Protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.11 ptyprocess 0.7.0
puro-eval 0.2.2 py4j 0.10.9.9 Pyarrow 21.0.0
pyasn1 0.4.8 pyasn1-módulos 0.2.8 pyccolo 0.0.71
Pycparser 2.21 Pidântico 2.10.6 pydantic_core 2.27.2
Pyflakes 3.2.0 Pigmentos 2.19.1 PyGObject 3.48.2
pyiceberg 0.10.0 PyJWT 2.10.1 pyodbc 5.2.0
pyparsing 3.2.0 Pyright 1.1.394 Piroaring 1.0.3
Pytest 8.3.5 python-dateutil (uma biblioteca de software para manipulação de datas em Python) 2.9.0.post0 Python-Dotenv 1.2.1
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-servidor 1.12.2
pytoolconfig 1.2.6 Pytz 2024.1 PyYAML 6.0.2
Pyzmq 26.2.0 referenciação 0.30.2 regex 2024.11.6
pedidos 2.32.3 pedidos-cinto de ferramentas 1.0.0 rfc3339-verificador 0.1.4
rfc3986-validador 0.1.1 rico 13.9.4 corda 1.13.0
rpds-py 0.22.3 RSA 4.9.1 s3transfer 0.14.0
scikit-learn (biblioteca de aprendizado de máquina em Python) 1.6.1 SciPy 1.15.3 nascido no mar 0.13.2
Send2Trash 1.8.2 Ferramentas de configuração 78.1.1 seis 1.17.0
smmap 5.0.0 sniffio 1.3.0 contentores classificados 2.4.0
Coador de sopa 2.5 SQLPARSE 0.5.3 ssh-import-id 5.11
stack-data 0.6.3 Starlette 0.49.3 strictyaml 1.7.3
tenacidade 9.0.0 terminado 0.17.1 Threadpoolctl 3.5.0
tiktoken 0.12.0 tinycss2 1.4.0 tokenize_rt 6.1.0
Tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets 5.14.3 Protetor de Tipografia 4.3.0 tipos-python-dateutil 2.9.0.20251008
inspeção de digitação 0.9.0 typing_extensions (extensões de digitação) 4.12.2 tzdata 2024.1
Ujson 5.10.0 Atualizações não supervisionadas 0.1 uri-modelo 1.3.0
urllib3 2.3.0 uvicorn 0.38.0 virtualenv 20.29.3
wadllib 1.3.6 wcwidth 0.2.5 Webcolors 25.10.0
codificações da web 0.5.1 Websocket-cliente 1.8.0 whatthepatch (ferramenta para comparação de patches) 1.0.2
wheel 0.45.1 sempre que 0.7.3 widgetsnbextension 3.6.6
embrulhado 1.17.0 Yapf 0.40.2 zipp 3.21.0
zstandard 0.23.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir da versão instantânea do CRAN do Posit Package Manager em 2025-03-20.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 22.0.0 AskPass 1.2.1 asserir que 0.2.1
Retroportagens 1.5.0 base 4.5.1 base64enc 0.1-3
bigD 0.3.1 pouco 4.6.0 bit-64 4.6.0-1
Bitops 1.0-9 blob 1.2.4 inicialização 1.3-30
fabricação de cerveja 1.0-10 vigor 1.1.5 vassoura 1.0.10
bslib 0.9.0 cachemira 1.1.0 Chamador 3.7.6
caret 7.0-1 CellRanger 1.1.0 crono 2.3-62
classe 7.3-22 CLI 3.6.5 Clipr 0.8.0
relógio 0.7.3 cluster 2.1.6 CodeTools 0.2-20
marca comum 2.0.0 compilador 4.5.1 Configurações 0.3.2
conflituoso 1.2.0 cpp11 0.5.2 lápis de cor 1.5.3
credenciais 2.0.3 encaracolar 7.0.0 tabela de dados 1.17.8
conjuntos de dados 4.5.1 DBI 1.2.3 DBPlyr 2.5.1
descrição 1.4.3 DevTools 2.4.6 diagrama 1.6.5
diffobj 0.3.6 resumo 0.6.39 Iluminação reduzida 0.4.5
DPLYR 1.1.4 DTPlyr 1.3.2 e1071 1.7-16
reticências 0.3.2 avaliar 1.0.5 Fansi 1.0.7
cores 2.1.2 mapa rápido 1.2.0 fontawesome 0.5.3
forçados 1.0.1 foreach 1.5.2 estrangeiro/a 0.8 a 86
fs 1.6.6 Futuro 1.68.0 futuro.apply 1.20.0
gargarejo 1.6.0 genérico 0.1.4 Gert 2.2.0
ggplot2 4.0.1 gh 1.5.0 Git2R 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 Globais 0.18.0
cola 1.8.0 GoogleDrive 2.1.2 googlesheets4 1.1.2
Gower 1.0.2 gráficos 4.5.1 grDispositivos 4.5.1
grelha 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 tabela g 0.3.6 capacete de segurança 1.4.2
Refúgio 2.5.5 mais alto 0.11 HMS (Navio de Sua Majestade) 1.1.4
htmltools 0.5.8.1 htmlwidgets (componentes HTML interativos) 1.6.4 httpuv 1.6.16
HTTR 1.4.7 httr2 1.2.1 identificadores 1.0.1
ini 0.3.1 ipred 0.9 a 15 Banda isobárica 0.2.7
iteradores 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
JuicyJuice 0.1.0 KernSmooth 2.23-22 Knitr 1,50
etiquetagem 0.4.3 mais tarde 1.4.4 treliça 0.22-5
lave 1.8.2 ciclo de vida 1.0.4 ouvir 0.10.0
litedown 0.8 lubridato 1.9.4 Magrittr 2.0.4
Marcação 2.0 MASSA 7.3-60.0.1 Matriz 1.6-5
memorização 2.0.1 Metodologia 4.5.1 mgcv 1.9-1
mime 0,13 miniUI 0.1.2 Mlflow 3.6.0
ModelMetrics 1.2.2.2 modelr 0.1.11 nlme 3.1-164
NNET 7.3-19 numDeriv 2016.8 a 1.1 openssl (conjunto de ferramentas para criptografia) 2.3.4
Otel 0.2.0 paralelo 4.5.1 Paralelamente 1.45.1
pilar 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
Plyr 1.8.9 elogios 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 processx 3.8.6 Prodlim 2025.04.28
profvis 0.4.0 Progressos 1.2.3 progressr 0.18.0
promessas 1.5.0 prototipo 1.0.0 proxy 0.4-27
P.S. 1.9.1 purrr 1.2.0 R6 2.6.1
ragg 1.5.0 randomForest 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.1.0
RcppEigen 0.3.4.0.2 capaz de reagir 0.4.4 reactR 0.6.1
Readr 2.1.6 readxl 1.4.5 receitas 1.3.1
revanche 2.0.0 revanche2 2.1.2 Controles remotos 2.5.0
Exemplo Reproduzível (Reprex) 2.1.1 remodelar2 1.4.5 rlang 1.1.6
rmarkdown 2.30 RODBC 1.3-26 roxygen2 7.3.3
rpart (função de partição recursiva em R) 4.1.23 rprojroot 2.1.1 Rserve 1,8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
Rvest 1.0.5 S7 0.2.1 Sass 0.4.10
balanças 1.4.0 seletor 0.4-2 Informação da sessão 1.2.3
forma 1.4.6.1 brilhante 1.11.1 ferramentas de código-fonte 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
espacial 7.3-17 splines 4.5.1 sqldf 0.4-11
SQUAREM 2021.1 estatísticas 4.5.1 estatísticas4 4.5.1
string 1.8.7 stringr 1.6.0 Sobrevivência 3.5-8
Charme 5.17.14.1 Sistema 3.4.3 fontes do sistema 1.3.1
tcltk (uma linguagem de programação) 4.5.1 testthat 3.3.0 formatação de texto 1.0.4
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 mudança de hora 0.3.0 data e hora 4051.111
Tinytex 0.58 Ferramentas 4.5.1 tzdb 0.5.0
verificador de URL 1.0.1 usethis 3.2.1 UTF8 1.2.6
utilitários 4.5.1 Identificador Único Universal (UUID) 1.2-1 V8 8.0.1
VCTRS 0.6.5 viridisLite 0.4.2 vruum 1.6.6
Waldo 0.6.2 vibrissas 0.4.1 murchar 3.0.2
xfun 0.54 XML2 1.5.0 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 Zeallot 0.2.0
ZIP 2.3.3

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.13)

ID do grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.15.3
com.amazonaws aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) 1.12.681
com.amazonaws AWS-Java-SDK-CloudFormation 1.12.681
com.amazonaws aws-java-sdk-cloudfront 1.12.681
com.amazonaws aws-java-sdk-cloudhsm 1.12.681
com.amazonaws AWS Java SDK para CloudSearch 1.12.681
com.amazonaws aws-java-sdk-cloudtrail 1.12.681
com.amazonaws aws-java-sdk-cloudwatch 1.12.681
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.681
com.amazonaws aws-java-sdk-codedeploy 1.12.681
com.amazonaws aws-java-sdk-cognitoidentity 1.12.681
com.amazonaws aws-java-sdk-cognitosync 1.12.681
com.amazonaws aws-java-sdk-config (configuração do AWS Java SDK) 1.12.681
com.amazonaws aws-java-sdk-core 1.12.681
com.amazonaws aws-java-sdk-datapipeline 1.12.681
com.amazonaws aws-java-sdk-directconnect 1.12.681
com.amazonaws aws-java-sdk-directory 1.12.681
com.amazonaws aws-java-sdk-dynamodb 1.12.681
com.amazonaws aws-java-sdk-ec2 1.12.681
com.amazonaws aws-java-sdk-ecs 1.12.681
com.amazonaws aws-java-sdk-efs 1.12.681
com.amazonaws aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) 1.12.681
com.amazonaws aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) 1.12.681
com.amazonaws aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) 1.12.681
com.amazonaws aws-java-sdk-elastictranscoder 1.12.681
com.amazonaws aws-java-sdk-emr 1.12.681
com.amazonaws aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) 1.12.681
com.amazonaws aws-java-sdk-glue 1.12.681
com.amazonaws aws-java-sdk-iam 1.12.681
com.amazonaws aws-java-sdk-importexport 1.12.681
com.amazonaws aws-java-sdk-kinesis 1.12.681
com.amazonaws aws-java-sdk-kms 1.12.681
com.amazonaws aws-java-sdk-lambda 1.12.681
com.amazonaws aws-java-sdk-logs 1.12.681
com.amazonaws aws-java-sdk-aprendizado de máquina 1.12.681
com.amazonaws aws-java-sdk-opsworks 1.12.681
com.amazonaws aws-java-sdk-rds 1.12.681
com.amazonaws aws-java-sdk-redshift 1.12.681
com.amazonaws aws-java-sdk-route53 1.12.681
com.amazonaws aws-java-sdk-s3 1.12.681
com.amazonaws AWS Java SDK para SES 1.12.681
com.amazonaws aws-java-sdk-simpledb 1.12.681
com.amazonaws aws-java-sdk-simpleworkflow 1.12.681
com.amazonaws aws-java-sdk-sns 1.12.681
com.amazonaws aws-java-sdk-sqs 1.12.681
com.amazonaws aws-java-sdk-ssm 1.12.681
com.amazonaws aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) 1.12.681
com.amazonaws AWS-Java-SDK-STS 1.12.681
com.amazonaws aws-java-sdk-suporte 1.12.681
com.amazonaws aws-java-sdk-workspaces 1.12.681
com.amazonaws jmespath-java 1.12.681
com.clearspring.analytics fluxo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware sombra kriogénica 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml colega de turma 1.5.1
com.fasterxml.jackson.core Jackson-Annotations 2.18.2
com.fasterxml.jackson.core Jackson-Core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor (formato de dados em CBOR) 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Nativos
com.github.fommil.netlib sistema_nativo-Java 1.1
com.github.fommil.netlib sistema_nativo-Java 1.1-Nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-Nativos
com.github.luben zstd-jni 1.5.7-6
com.github.virtuald Curvesapi 1,08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-comum-protos 2.5.1
com.google.auth google-auth-library-credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value Anotações de auto-valor 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone anotações_propensas_a_erros 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava Falha no acesso 1.0.3
com.google.guava Goiaba 33.4.8-JRE
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-anotações 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger gerador de perfis 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK para Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver MSSQL-JDBC 12.8.0.jre11
com.microsoft.sqlserver MSSQL-JDBC 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind JAXB-CORE 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning Json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe Configurações 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity analisadores de univocidade 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec commons-codec 1.19.0
Commons Collections Commons Collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload (upload de ficheiros comuns) commons-fileupload (upload de ficheiros comuns) 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 3.0.4
dev.ludovic.netlib Blas 3.0.4
dev.ludovic.netlib LAPACK 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 2.0.2
IO.Delta delta-sharing-client_2.13 1.3.6
io.dropwizard.metrics métricas e anotação 4.2.37
io.dropwizard.metrics métricas-base 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics métricas e verificações de saúde 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics metrics-jmx 4.2.37
io.dropwizard.metrics métricas em formato JSON 4.2.37
io.dropwizard.metrics métricas do JVM 4.2.37
io.dropwizard.metrics Métricas-Servlets 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7. Final
io.netty netty-buffer 4.2.7. Final
io.netty netty-codec 4.2.7. Final
io.netty netty-codec-base 4.2.7. Final
io.netty netty-codec-classes-quic 4.2.7. Final
io.netty nety-codec-compressão 4.2.7. Final
io.netty netty-codec-http 4.2.7. Final
io.netty netty-codec-http2 4.2.7. Final
io.netty netty-codec-http3 4.2.7. Final
io.netty Netty-codec-marshalling 4.2.7. Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7. Final
io.netty netty-codec-socks 4.2.7. Final
io.netty Netty Comum 4.2.7. Final
io.netty Netty Handler 4.2.7. Final
io.netty netty-handler-proxy 4.2.7. Final
io.netty netty-resolver (resolução do Netty) 4.2.7. Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.74.Final
io.netty Netty-Transport 4.2.7. Final
io.netty netty-transport-classes-epoll 4.2.7. Final
io.netty netty-transport-classes-io_uring 4.2.7. Final
io.netty netty-transport-classes-kqueue 4.2.7. Final
io.netty netty-transport-native-epoll 4.2.7. Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-nativo-unix-comum 4.2.7. Final
io.opencensus OpenCensus-API 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometeu simpleclient 0.16.1-databricks
io.prometeu simpleclient_comum 0.16.1-databricks
io.prometeu simpleclient_dropwizard 0.16.1-databricks
io.prometeu simpleclient_pushgateway 0.16.1-databricks
io.prometeu simpleclient_servlet 0.16.1-databricks
io.prometeu simpleclient_servlet_common 0.16.1-databricks
io.prometeu simpleclient_tracer_common 0.16.1-databricks
io.prometeu simpleclient_tracer_otel 0.16.1-databricks
io.prometeu simpleclient_tracer_otel_agente 0.16.1-databricks
io.prometheus.jmx recoletor 0.18.0
jacarta.anotação Jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
Jakarta.validação jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.ativação ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind JAXB-API 2.2.11
Javolution Javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine conserva 1.5
net.sf.jpam JPAM 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve Snowflake Ingest SDK 0.9.6
net.sourceforge.f2j arpack_combinado_tudo 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr ANTLR Runtime 3.5.2
org.antlr antlr4-tempo de execução 4.13.1
org.antlr StringTemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ANT-JSCH 1.10.11
org.apache.ant lançador de formigas 1.10.11
org.apache.arrow formato de flecha 18.3.0
org.apache.arrow núcleo de memória Arrow 18.3.0
org.apache.arrow Arrow-Memory-Netty 18.3.0
org.apache.arrow "patch-do-buffer-da-memória-arrow-netty" 18.3.0
org.apache.arrow vetor de seta 18.3.0
org.apache.avro Avro 1.12.1
org.apache.avro AVRO-IPC 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons colecções-commons4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.14.0
org.apache.curador curador e cliente 5.9.0
org.apache.curador Framework de Curadoria 5.9.0
org.apache.curador curador de receitas 5.9.0
org.apache.datasketches Datasketches-Java 6.2.0
org.apache.datasketches datasketches-memória 3.0.2
org.apache.derby Dérbi 10.14.2.0
org.apache.hadoop tempo de execução do cliente Hadoop 3.4.2
org.apache.hive colmeia-abelha 2.3.10
org.apache.hive Hive-CLI 2.3.10
org.apache.hive Hive-JDBC 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive Hive-Serde 2.3.10
org.apache.hive colmeias-calços 2.3.10
org.apache.hive API de armazenamento Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims colmeia-calços-comum 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-esquema-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-protobuf sombreado
org.apache.orc formato ORC 1.1.1-protobuf sombreado
org.apache.orc orc-mapreduce 2.2.0-protobuf sombreado
org.apache.orc Orc-cunhas 2.2.0
org.apache.poi POI 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-completo 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-sombreado 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus anotações do público 0.13.0
org.apache.zookeeper cuidador de zoológico 3.9.4
org.apache.zookeeper guarda de zoológico-juta 3.9.4
org.checkerframework verificador de qualidade 3.43.0
org.codehaus.janino compilador comum 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus DataNucleus Core 4.1.17
org.datanucleus Datanucleus-RDBMS 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty Jetty-Cliente 10.0.26
org.eclipse.jetty Jetty-HTTP 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty Jetty-JNDI 10.0.26
org.eclipse.jetty Jetty Plus 10.0.26
org.eclipse.jetty Jetty-Proxy 10.0.26
org.eclipse.jetty Segurança do Jetty 10.0.26
org.eclipse.jetty servidor jetty 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty Jetty-util 10.0.26
org.eclipse.jetty Aplicação web Jetty 10.0.26
org.eclipse.jetty Jetty-XML 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 HK2-Localizador 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizador de recursos OSGi 1.0.3
org.glassfish.hk2.external aopalliance-reembalado 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (serviço de contêiner Jersey) 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core Jersey comum 2.41
org.glassfish.jersey.core servidor Jersey 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator (ferramenta de validação de dados de Java) 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline Jline 3.27.1-JDK8
org.joda joda-converter 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s JSON4S-core_2.13 4.0.7
org.json4s json4s-jackson-core_2,13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s JSON4S-scalap_2.13 4.0.7
org.locationtech.jts JTS-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2,13 2.22.1
org.objenesis objenesis 3.4
org.postgresql PostgreSQL 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2,13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatível com scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest escalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-compatível-com-slf4j 2.0.16
org.slf4j jul-para-slf4j 2.0.16
org.slf4j SLF4J-API 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten ThreeTen-Extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl WildFly-OpenSSL 1.1.3.Final
org.xerial SQLITE-JDBC 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml Snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Sugestão

Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do Databricks Runtime que atingiram o fim do suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.