Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.2, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em setembro de 2022.
Novos recursos e melhorias
- Alterar as permissões para ALTER TABLE nos controlos de acesso às tabelas (ACLs de tabela)
- Poda dinâmica para MERGE INTO
- Deteção de conflitos aprimorada no Delta com remoção dinâmica de arquivos
- Novo cartão de Integrações Open Source nas páginas iniciais DSE/SQL
- CONVERT TO DELTA melhorias na deteção de partições
- esquemas de tabela agora suportam valores padrão para colunas
- Novas funções geoespaciais H3
- Nova dependência do Databricks Runtime
- Traga sua própria chave: criptografia de credenciais Git
- SQL: Nova função agregada any_value
- Comandos do sistema de ficheiros das Utilidades Databricks permitidos em mais tipos de cluster
- Os privilégios CREATE agora podem ser concedidos nos metastores para o Unity Catalog
- Gravações otimizadas para tabelas não particionadas em clusters compatíveis com Photon
- Suporte a fótons para mais fontes de dados
- SQL: ALTER SHARE agora suporta START VERSION
Alteração para permissões ALTER TABLE nos controles de acesso à tabela (ACLs de tabela)
Agora, os usuários só precisam de MODIFY permissões para alterar o esquema ou as propriedades de uma tabela com ALTER TABLE. A propriedade ainda é necessária para conceder permissões numa tabela, alterar o seu dono e a sua localização, ou renomeá-la. Essa alteração torna o modelo de permissão para ACLs de tabela consistente com o Catálogo Unity. Ver ALTER TABLE.
Poda dinâmica para MERGE INTO
Ao usar a computação com Photon, o MERGE INTO agora utiliza a filtragem dinâmica de arquivos e partições quando adequado para melhorar o desempenho, por exemplo, quando uma pequena tabela de origem é combinada numa tabela de destino maior.
Deteção de conflitos aprimorada no Delta com remoção dinâmica de arquivos
Ao verificar possíveis conflitos durante commits, a deteção de conflitos agora considera arquivos que são removidos pela poda dinâmica de arquivos, mas que não teriam sido removidos por filtros estáticos. Isso resulta em uma diminuição do número de transações com falha.
Novo cartão de Integrações de Código Aberto nas homepages DSE/SQL
Introdução do novo cartão 'Open Source Integrations' nas homepages DSE/SQL que exibe opções de integração de código aberto, como DLT e dbt core.
CONVERT TO DELTA melhorias na deteção de partições
CONVERT TO DELTA infere automaticamente o esquema de partição para tabelas do Parquet registradas no metastore do Hive ou no Unity Catalog, eliminando a necessidade de fornecer a cláusula PARTITIONED BY.
CONVERT TO DELTA aproveita as informações de partição do metastore para descobrir arquivos para uma tabela Parquet em vez de listar todo o caminho base, garantindo que partições descartadas não sejam adicionadas à tabela Delta.
Consulte Converter para Delta Lake.
Os esquemas de tabela agora suportam valores padrão para colunas
Os esquemas de tabela agora suportam a configuração de valores padrão para colunas.
INSERT, UPDATEe DELETE comandos para essas colunas podem se referir a esses valores com a palavra-chave DEFAULT. Por exemplo, CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET seguido por INSERT INTO t VALUES (1, DEFAULT) irá acrescentar a linha (1, 42). Esse comportamento é suportado para fontes de dados CSV, JSON, Orc e Parquet.
Novas funções geoespaciais H3
Agora você pode usar 28 novas expressões H3 integradas para processamento geoespacial em clusters habilitados para Photon, disponíveis em SQL, Scala e Python. Veja funções geoespaciais H3.
Nova dependência do Databricks Runtime
O Databricks Runtime agora depende da biblioteca Java H3 versão 3.7.0.
Traga sua própria chave: criptografia de credenciais Git
Você pode usar o Azure Key Vault para criptografar um token de acesso pessoal (PAT) do Git ou outra credencial do Git.
Consulte Configurar pastas Git do Databricks.
SQL: Nova função agregada any_value
A nova any_value função de agregação retorna qualquer valor aleatório de expr para um grupo de linhas. Consulte a função agregar any_value.
Permitem-se os comandos do sistema de arquivos das Databricks Utilities em mais tipos de clusters.
dbutils.fs Comandos (exceto comandos relacionados à montagem) agora são permitidos em clusters de isolamento para utilizadores com o Unity Catalog, bem como em clusters de ACL de tabela herdados quando o utilizador tem permissões ANY FILE.
Os privilégios CREATE agora podem ser concedidos nos metastores do Unity Catalog
Os privilégios CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENTe CREATE PROVIDER agora podem ser concedidos nos metastores do Unity Catalog.
Gravações otimizadas para tabelas não particionadas em clusters com Photon habilitado
As tabelas gerenciadas pelo Unity Catalog agora persistem automaticamente arquivos de um tamanho bem ajustado de tabelas não particionadas para melhorar a velocidade de consulta e otimizar o desempenho.
Suporte a fótons para mais fontes de dados
O Photon agora suporta mais fontes de dados, incluindo CSV e Avro, e também é compatível com quadros de dados armazenados em cache. Anteriormente, a análise dessas fontes de dados implicava que toda a consulta não podia ser processada de forma fotónica, independentemente dos operadores ou expressões da consulta. Agora, as consultas que examinam essas fontes de dados podem ser fotonizadas, desbloqueando melhorias significativas de latência e TCO.
Esse recurso é habilitado por padrão pela spark.databricks.photon.photonRowToColumnar.enabled configuração.
Limitações:
- Não há suporte para esquemas com tipos aninhados (ou seja, matrizes, mapas e estruturas) nesta versão.
- As fontes ORC, RDD, Kinesis, Kafka e EventHub não são suportadas nesta versão.
SQL: ALTER SHARE agora suporta START VERSION
O comando ALTER SHARE agora suporta START VERSION, que permite que os provedores compartilhem dados a partir de uma versão específica da tabela. Ver ALTER SHARE.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- distlib de 0.3.4 a 0.3.5
- filelock de 3.7.1 a 3.8.0
- plotly de 5.8.2 a 5.9.0
- Protobuf de 4.21.2 a 4.21.5
- Bibliotecas R atualizadas:
- broom de 0.8.0 a 1.0.0
- bslib de 0.3.1 a 0.4.0
- callr da versão 3.7.0 para a 3.7.1
- Aceno de 6.0-92 a 6.0-93
- DBPLYR de 2.2.0 a 2.2.1
- devtools de 2.4.3 a 2.4.4
- avaliar de 0,15 a 0,16
- Farver da versão 2.1.0 à versão 2.1.1
- fontawesome de 0.2.2 a 0.3.0
- futuro de 1.26.1 a 1.27.0
- Genéricos de 0.1.2 a 0.1.3
- gert de 1.6.0 para 1.7.0
- globais de 0.15.1 a 0.16.0
- googlesheets4 de 1.0.0 a 1.0.1
- Hardhat de 1.1.0 para 1.2.0
- htmltools de 0.5.2 a 0.5.3
- paralelamente de 1.32.0 a 1.32.1
- pilar de 1.7.0 a 1.8.0
- pkgload de 1.2.4 a 1.3.0
- processx de 3.6.1 a 3.7.0
- Rcpp de 1.0.8.3 a 1.0.9
- receitas de 0.2.0 a 1.0.1
- RLANG de 1.0.2 a 1.0.4
- roxigen2 de 7.2.0 a 7.2.1
- RSQLite de 2.2.14 a 2.2.15
- sass de 0.4.1 a 0.4.2
- brilhante de 1.7.1 a 1.7.2
- stringi de 1.7.6 a 1.7.8
- Tibble de 3.1.7 a 3.1.8
- Tidyverse de 1.3.1 a 1.3.2
- timeDate de 3043.102 a 4021.104
- xfun de 0,31 a 0,32
- Bibliotecas Java atualizadas:
- org.apache.orc.orc-core de 1.7.4 a 1.7.5
- org.apache.orc.orc-mapreduce de 1.7.4 para 1.7.5
- org.apache.orc.orc-shims de 1.7.4 para 1.7.5
Faísca Apache
O Databricks Runtime 11.2 inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Retornar tipos de intervalo ANSI mais amplos das funções de percentil
- [SPARK-40054] [SQL] Restaurar a sintaxe de tratamento de erros de try_cast()
- [SPARK-39489] [CORE] Melhorar o desempenho do JsonProtocol no registo de eventos usando Jackson em vez de Json4s
-
[SPARK-39319] [CORE][sql] Crie contextos de consulta como parte do
SparkThrowable - [FAÍSCA-40085] [SQL] Use a classe de erro INTERNAL_ERROR em vez de IllegalStateException para indicar bugs
- [SPARK-40001] [SQL] Fazer com que gravações de NULL em colunas DEFAULT de JSON gravem 'null' no armazenamento
- [SPARK-39635] [SQL] Suporte a métricas do driver na API de métricas personalizadas do DS v2
- [SPARK-39184] [SQL] Manipular matriz de resultados subdimensionada em sequências de data e de carimbo de data e hora
-
[SPARK-40019] [SQL] Refatore o comentário do containsNull do ArrayType e refatore as lógicas equivocadas na expressão do collectionOperator sobre
containsNull - [SPARK-39989] [SQL] Suporta estatísticas de coluna de estimativa se for expressão dobrável
- [SPARK-39926] [SQL] Corrigir bug no suporte para DEFAULT em colunas para varreduras Parquet não vetorizadas
- [SPARK-40052] [SQL] Manipular buffers de byte diretos em VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Corrigir o tipo de intervalo de destino em erros de estouro de conversão
- [SPARK-39835] [SQL] Corrigir erro onde EliminateSorts remove a classificação global abaixo da classificação local
- [SPARK-40002] [SQL] Não empurre o limite para baixo através da janela usando ntile
- [SPARK-39976] [SQL] ArrayIntersect deve manipular null na expressão à esquerda corretamente
- [SPARK-39985] [SQL] Habilitar valores de coluna DEFAULT implícitos em inserções de DataFrames
- [SPARK-39776] [SQL] JOIN string detalhada deve adicionar o tipo de Junção
- [FAÍSCA-38901] [SQL] DS V2 suporta funções diversas de pushdown
- [SPARK-40028] [SQL][followup] Melhorar exemplos de funções de cadeia de caracteres
- [SPARK-39983] [CORE][sql] Não armazenar em cache relações de difusão não serializadas no driver
- [c0][SPARK-39812][/c0] [SQL] O código que constrói com
AggregateExpressiondeve ser simplificado. - [FAÍSCA-40028] [SQL] Adicionar exemplos binários para expressões de cadeia de caracteres
- [SPARK-39981] [SQL] Lançar a exceção QueryExecutionErrors.castingCauseOverflowErrorInTableInsert no Cast
- [SPARK-40007] [PYTHON][sql] Adicionar 'modo' às funções
- [SPARK-40008] [SQL] Suportar conversão de inteiros para intervalos ANSI
- [SPARK-40003] [PYTHON][sql] Adicionar 'mediana' às funções
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand deve recachear a relação de resultado
- [SPARK-39951] [SQL] Atualizar verificação colunar do Parquet V2 para campos aninhados
- [SPARK-33236] [shuffle] Retroportar para DBR 11.x: habilitar o serviço de shuffle baseado em push para armazenar o estado no banco de dados de nível NM para uma reinicialização do trabalho preservada.
- [FAÍSCA-39836] [SQL] Simplifique o V2ExpressionBuilder ao extrair o método comum.
-
[SPARK-39873] [SQL] Remova
OptimizeLimitZeroe mescle-o emEliminateLimits - [FAÍSCA-39961] [SQL] DS V2 push-down traduzir Cast se o elenco é seguro
-
[SPARK-39872] [SQL] Alterar para usar
BytePackerForLong#unpack8Valuescom a API de entrada de Array emVectorizedDeltaBinaryPackedReader -
[SPARK-39858] [SQL] Remover
AliasHelperouPredicateHelperdesnecessários para algumas regras - [SPARK-39900] [SQL] Resolver condição parcial ou negada no pushdown de predicado do formato binário
- [FAÍSCA-39904] [SQL] Renomeie inferDate para prefersDate e esclareça a semântica da opção na fonte de dados CSV
- [FAÍSCA-39958] [SQL] Adicionar registro de aviso quando não seja possível carregar o objecto de métrica personalizado.
- [SPARK-39932] [SQL] WindowExec deve limpar o buffer de partição final
- [SPARK-37194] [SQL] Evite a classificação desnecessária na gravação v1 se não for uma partição dinâmica
- [SPARK-39902] [SQL] Adicionar detalhes do Scan ao nó de varredura do plano de spark no SparkUI
- [SPARK-39865] [SQL] Mostrar mensagens de erro apropriadas sobre os erros de transbordamento ao inserir na tabela
- [SPARK-39940] [SS] Atualizar tabela de catálogo na consulta de streaming com coletor DSv1
-
[SPARK-39827] [SQL] Use a classe
ARITHMETIC_OVERFLOWde erro no overflow de int emadd_months() - [SPARK-39914] [SQL] Adicionar Filtro DS V2 à conversão para Filtro V1
- [SPARK-39857] [SQL] Backport manual DBR 11.x; V2ExpressionBuilder usa o tipo de dados LiteralValue errado no predicado In #43454
- [SPARK-39840] [SQL][python] Extrair PythonArrowInput como um contraponto a PythonArrowOutput
- [SPARK-39651] [SQL] Eliminar a condição do filtro se a comparação com rand for determinística
- [SPARK-39877] [PYTHON] Adicionar função de unpivot à API DataFrame do PySpark
- [SPARK-39909] [SQL] Organizar a verificação das informações de push down para JDBCV2Suite
- [SPARK-39834] [SQL][ss] Inclua as estatísticas de origem e restrições para LogicalRDD se ele vier de DataFrame
- [SPARK-39849] [SQL] Dataset.as(StructType) preenche novas colunas ausentes com valor nulo
- [SPARK-39860] [SQL] Mais expressões devem expandir Predicado
- [SPARK-39823] [SQL][python] Renomeie Dataset.as como Dataset.to e adicione DataFrame.to no PySpark
- [SPARK-39918] [SQL][minor] Substitua a expressão "não comparável" por "incomparável" na mensagem de erro
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder usa o tipo de dados LiteralValue errado para o predicado In
- [SPARK-39862] [SQL] Backport manual do PR 43654 para o DBR 11.x: Atualizar SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS para permitir/negar ALTER TABLE ... Adicione os comandos COLUMN separadamente.
- [SPARK-39844] [SQL] Backport manual para o PR 43652 direcionado ao DBR 11.x
-
[SPARK-39899] [SQL] Corrigir a passagem de parâmetros de mensagem para
InvalidUDFClassException - [SPARK-39890] [SQL] Fazer com que TakeOrderedAndProjectExec herde AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Suporte para CharType no PySpark
- [SPARK-38864] [SQL] Adicionar unpivot / melt ao Dataset
- [SPARK-39864] [SQL] Registar ExecutionListenerBus de forma preguiçosa
- [SPARK-39808] [SQL] Suporta a função agregada MODA
-
[SPARK-39875] [SQL] Alterar
protectedmétodo na classe final paraprivateoupackage-visible - [SPARK-39731] [SQL] Corrigir problema em fontes de dados CSV e JSON ao interpretar datas no formato "yyyyMMdd" com a política de análise de tempo CORRIGIDA
- [FAÍSCA-39805] [SS] Descontinuar Trigger.Once e Promover Trigger.AvailableNow
- [SPARK-39784] [SQL] Coloque valores literais no lado direito do filtro da fonte de dados depois de traduzir o Catalyst Expression para o filtro da fonte de dados
- [SPARK-39672] [SQL][3.1] Corrigir a remoção da projeção antes do filtro com subconsulta correlacionada
-
[SPARK-39552] [SQL] Unificar v1 e v2
DESCRIBE TABLE - [SPARK-39810] [SQL] Catalog.tableExists deverá lidar com namespace aninhado
- [SPARK-37287] [SQL] Retire a partição dinâmica e a classificação de bucket de FileFormatWriter
- [SPARK-39469] [SQL] Inferir tipo de data para inferência de esquema CSV
- [SPARK-39148] [SQL] DS V2 aggregate push down pode funcionar com OFFSET ou LIMIT
- [SPARK-39818] [SQL] Corrigir bug em tipos ARRAY, STRUCT e MAP com valores DEFAULT e campo(s) NULL
- [SPARK-39792] [SQL] Adicionar DecimalDivideWithOverflowCheck para a média decimal
-
[SPARK-39798] [SQL] Replace
toSeq.toArraycom.toArray[Any]no construtor deGenericArrayData - [SPARK-39759] [SQL] Implementar listIndexes em JDBC (dialeto H2)
-
[SPARK-39385] [SQL] Suporta push down
REGR_AVGXeREGR_AVGY - [FAÍSCA-39787] [SQL] Utilize a classe de erro no erro de análise da função to_timestamp
- [SPARK-39760] [PYTHON] Suporte a Varchar no PySpark
- [SPARK-39557] [SQL] retroversão manual para DBR 11.x: suporte a tipos ARRAY, STRUCT, MAP como valores pré-definidos
- [SPARK-39758] [SQL][3.3] Corrigir NPE das funções regexp devido a padrões inválidos
- [SPARK-39749] [SQL] Modo ANSI SQL: Use uma representação simples de string ao converter de Decimal para String
- [SPARK-39704] [SQL] Implementar createIndex & dropIndex & indexExists em JDBC (dialeto H2)
-
[FAÍSCA-39803] [SQL] Utilizar
LevenshteinDistanceem vez deStringUtils.getLevenshteinDistance - [SPARK-39339] [SQL] Suporte para o tipo TimestampNTZ na fonte de dados JDBC
- [SPARK-39781] [SS] Adicionar suporte para fornecimento de max_open_files ao fornecedor do armazenamento de estado rocksdb
Implementar databaseExists/getDatabase no apoio ao namespace 3L no SparkR - [SPARK-39751] [SQL] Renomear métrica de sondagem de chave de agregação de hash
- [FAÍSCA-39772] [SQL] namespace deve ser null quando a base de dados for nula nos construtores antigos.
- [SPARK-39625] [SPARK-38904][sql] Adicionar Dataset.as(StructType)
- [FAÍSCA-39384] [SQL] Compilar funções de agregação de regressão linear integradas para o dialeto JDBC
- [SPARK-39720] [R] Implementar tableExists/getTable no namespace SparkR para 3L
-
[FAÍSCA-39744] [SQL] Adicionar a
REGEXP_INSTRfunção - [SPARK-39716] [R] Fazer com que currentDatabase/setCurrentDatabase/listCatalogs no SparkR suporte o namespace 3L
-
[FAÍSCA-39788] [SQL] Renomear
catalogNameparadialectNameparaJdbcUtils - [SPARK-39647] [CORE] Registe o executor no ESS antes de registar o BlockManager
-
[SPARK-39754] [CORE][sql] Remover
importou{}não utilizados ou desnecessários -
[SPARK-39706] [SQL] Definir coluna ausente com defaultValue como constante no
ParquetColumnVector - [SPARK-39699] [SQL] Tornar o CollapseProject mais eficaz em expressões de criação de coleções
-
[SPARK-39737] [SQL]
PERCENTILE_CONTePERCENTILE_DISCdevem suportar filtro agregado - [SPARK-39579] [SQL][python][R] Tornar ListFunctions/getFunction/functionExists compatível com namespace de 3 camadas
- [SPARK-39627] [SQL] O pushdown JDBC V2 deve unificar a API de compilação
- [SPARK-39748] [SQL][ss] Inclua o plano lógico de origem para LogicalRDD se ele vier de DataFrame
- [SPARK-39385] [SQL] Traduzir funções agregadas de regressão linear para pushdown
-
[FAÍSCA-39695] [SQL] Adicionar a função
REGEXP_SUBSTR - [SPARK-39667] [SQL] Adicione outra solução alternativa quando não houver memória suficiente para criar e transmitir a tabela
-
[SPARK-39666] [ES-337834][sql] Utilize UnsafeProjection.create para respeitar
spark.sql.codegen.factoryModeno ExpressionEncoder - [SPARK-39643] [SQL] Proibir expressões de subconsulta em valores predefinidos (DEFAULT)
- [SPARK-38647] [SQL] Adicionar o mix-in SupportsReportOrdering na interface para Scan (DataSourceV2)
- [SPARK-39497] [SQL] Melhorar a exceção de análise da coluna de chave de mapa ausente
- [FAÍSCA-39661] [SQL] Evite criar SLF4J Logger desnecessário
- [SPARK-39713] [SQL] Modo ANSI: adicionar sugestão de uso de try_element_at para erro INVALID_ARRAY_INDEX
- [FAÍSCA-38899] [SQL]O DS V2 suporta funções push down datetime
-
[SPARK-39638] [SQL] Alterar para usar
ConstantColumnVectorpara armazenar colunas de partição noOrcColumnarBatchReader -
[SPARK-39653] [SQL] Limpar
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)deColumnVectorUtils -
[SPARK-39231] [SQL] Use
ConstantColumnVectorem vez deOn/OffHeapColumnVectorpara armazenar colunas de partição noVectorizedParquetRecordReader - [FAÍSCA-39547] [SQL] V2SessionCatalog não deve lançar NoSuchDatabaseException em loadNamespaceMetadata
- [SPARK-39447] [SQL] Evite AssertionError em AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Revisão MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec deve respeitar a ordem de saída do filho
- [FAÍSCA-39606] [SQL] Usar estatísticas filho para estimar o operador de ordem
- [SPARK-39611] [PYTHON][ps] Corrigir aliases errados no array_ufunc
- [SPARK-39656] [SQL][3.3] Corrigir namespace errado em DescribeNamespaceExec
- [SPARK-39675] [SQL] Alternar a configuração 'spark.sql.codegen.factoryMode' da finalidade de teste para a finalidade interna
- [SPARK-39139] [SQL] DS V2 suporta push down de funções definidas pelo usuário (UDF) usando DS V2.
- [SPARK-39434] [SQL] Fornecer contexto de consulta de erro de tempo de execução quando o índice de matriz estiver fora do limite
- [SPARK-39479] [SQL] DS V2 suporta a aplicação de funções matemáticas otimizadas (não ANSI)
-
[SPARK-39618] [SQL] Adicionar a
REGEXP_COUNTfunção - [SPARK-39553] [CORE] Ao usar o Scala 2.13, o multi-thread unregister shuffle não deve lançar NPE
- [SPARK-38755] [PYTHON][3.3] Adicionar ficheiro para tratar funções gerais em falta do pandas
- [SPARK-39444] [SQL] Adicionar OptimizeSubqueries na lista nonExcludableRules
- [SPARK-39316] [SQL] Mesclar PromotePrecision e CheckOverflow em aritmética binária decimal
- [SPARK-39505] [UI] Escapar o conteúdo dos logs renderizados na interface de utilizador
-
[SPARK-39448] [SQL] Adicionar
ReplaceCTERefWithRepartitionanonExcludableRuleslista - [SPARK-37961] [SQL] Sobrepor maxRows/maxRowsPerPartition para alguns operadores lógicos
- [SPARK-35223] Reverter a Adição de Link de Navegação de Problemas
- [SPARK-39633] [SQL] Suporte a timestamp em segundos para TimeTravel usando as opções de Dataframe
- [SPARK-38796] [SQL] Atualizar a documentação para cadeias de formato numérico com as funções {try_}to_number
- [SPARK-39650] [SS] Corrigir esquema de valores incorretos na desduplicação de streaming com compatibilidade retroativa
- [SPARK-39636] [CORE][ui] Corrija vários bugs no JsonProtocol, afetando o heap StorageLevels e o Task/Executor ResourceRequests
- [SPARK-39432] [SQL] Retorna ELEMENT_AT_BY_INDEX_ZERO de element_at(*, 0)
- [FAÍSCA-39349] Adicionar um método CheckError centralizado para QA do caminho de erro
- [FAÍSCA-39453] [SQL] DS V2 suporta a aplicação direta de várias funções não-agregadas (não ANSI)
- [SPARK-38978] [SQL] DS V2 suporta a propagação para baixo do OFFSET operador
- [SPARK-39567] [SQL] Suporta intervalos ANSI nas funções de percentil
- [SPARK-39383] [SQL] suporte colunas DEFAULT em ALTER TABLE ALTER para fontes de dados V2
- [SPARK-39396] [SQL] Corrigir exceção de login LDAP 'código de erro 49 - credenciais inválidas'
- [SPARK-39548] [SQL] O comando CreateView com uma consulta que contém uma cláusula de janela encontrou um problema de definição de janela incorreta não encontrada.
- [SPARK-39575] [AVRO] adicionar ByteBuffer#rewind após ByteBuffer#get no Avro...
- [FAÍSCA-39543] A opção de DataFrameWriterV2 deve ser passada para propriedades de armazenamento se houver retrocesso para v1
- [SPARK-39564] [SS] Expor as informações da tabela de catálogo ao plano lógico na consulta de streaming
-
[SPARK-39582] [SQL] Corrigir marcador "Since" para
array_agg -
[FAÍSCA-39388] [SQL] Reutilizar
orcSchemaquando empurrar predicados Orc para baixo - [SPARK-39511] [SQL] Aprimorar a aplicação descendente do limite local de 1 para o lado direito de uma junção semi-esquerda/anti-esquerda se a condição de junção estiver vazia
- [SPARK-38614] [SQL] Não empurre o limite para baixo através da janela que está usando percent_rank
- [SPARK-39551] [SQL] Adicionar verificação de plano inválido do AQE
- [SPARK-39383] [SQL] Suporte de colunas DEFAULT em ALTER TABLE ADD COLUMNS a fontes de dados V2
- [SPARK-39538] [SQL] Evite criar SLF4J Logger desnecessário
- [SPARK-39383] [SQL] retrocessão manual para o DBR 11.x: refatorar o suporte à coluna DEFAULT para evitar a transferência do Analisador principal
- [SPARK-39397] [SQL] Relaxar AliasAwareOutputExpression para suportar alias com expressão
-
[SPARK-39496] [SQL] Manipular a estrutura nula em
Inline.eval -
[SPARK-39545] [SQL] Substituir o método
concatparaExpressionSetno Scala 2.13 para melhorar o desempenho - [SPARK-39340] [SQL] O agg pushdown do DS v2 deveria permitir pontos no nome das colunas de nível superior
- [SPARK-39488] [SQL] Simplifique o tratamento de erros de TempResolvedColumn
- [SPARK-38846] [SQL] Adicionar mapeamento explícito de dados entre Teradata Numeric Type e Spark DecimalType
-
[SPARK-39520] [SQL] Sobrescrever o método
--emExpressionSetno Scala 2.13 - [SPARK-39470] [SQL] Suporte para a conversão de intervalos ANSI para decimais
- [SPARK-39477] [SQL] Remova as informações de "Número de consultas" dos arquivos dourados do SQLQueryTestSuite
- [SPARK-39419] [SQL] Corrigir ArraySort para lançar uma exceção quando o comparador retornar null
-
[SPARK-39061] [SQL] Definir corretamente como anuláveis os
Inlineatributos de saída -
[SPARK-39320] [SQL] Suporte à função de agregação
MEDIAN - [SPARK-39261] [CORE] Melhorar a formatação de quebras de linha para mensagens de erro
- [SPARK-39355] [SQL] Coluna única usa aspas para construir UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE deve redigir propriedades
- [SPARK-37623] [SQL] Suporte à função de agregação ANSI: regr_intercept
- [SPARK-39374] [SQL] Melhorar mensagem de erro para lista de colunas especificada pelo usuário
- [SPARK-39255] [SQL][3.3] Melhorar as mensagens de erro
- [SPARK-39321] [SQL] Refatore TryCast para usar RuntimeReplaceable
- [SPARK-39406] [PYTHON] Aceitar matriz NumPy em createDataFrame
- [SPARK-39267] [SQL] Limpar o símbolo desnecessário dsl
- [SPARK-39171] [SQL] Unificar a expressão Cast
- [SPARK-28330] [SQL] Suporte ANSI SQL: cláusula de deslocamento de resultado na expressão de consulta
- [SPARK-39203] [SQL] Reescreva o local da tabela em um URI absoluto com base no URI do banco de dados
-
[SPARK-39313] [SQL]
toCatalystOrderingdeve falhar se V2Expression não puder ser traduzido - [SPARK-39301] [SQL][python] Aproveite o LocalRelation e respeite o tamanho do lote de Arrow em createDataFrame com otimização de Arrow
- [SPARK-39400] [SQL] spark-sql deve, em todos os casos, remover o diretório de recursos do hive
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 11.2.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Escala: 2.12.14
- Píton: 3.9.5
- R: 4.1.3
- Lago Delta: 2.1.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO-Contínuo) | Argão2-CFFI | 20.1.0 | gerador assíncrono | 1.10 |
| ATRs | 21.2.0 | chamada de retorno | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.1.1 |
| preto | 22.3.0 | lixívia | 4.0.0 | Boto3 | 1.21.18 |
| Botocore | 1.24.18 | certifi | 2021.10.8 | CFFI | 1.14.6 |
| Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.0.3 |
| criptografia | 3.4.8 | ciclagem | 0.10.0 | Cython | 0.29.24 |
| dbus-python | 1.2.16 | depuração | 1.4.1 | decorador | 5.1.0 |
| DeUsedXML | 0.7.1 | Distlib | 0.3.5 | distro-info | 0,23ubuntu1 |
| pontos de entrada | 0,3 | facetas-visão geral | 1.0.0 | bloqueio de ficheiros | 3.8.0 |
| IDNA | 3.2 | Ipykernel | 6.12.1 | IPython | 7.32.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
| Jinja2 | 2.11.3 | JmesPath | 0.10.0 | Joblib | 1.0.1 |
| jsonschema | 3.2.0 | Jupyter Client | 6.1.12 | Jupyter-core | 4.8.1 |
| Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | Kiwisolver | 1.3.1 |
| Marcação Segura | 2.0.1 | Matplotlib | 3.4.3 | matplotlib em linha | 0.1.2 |
| Mistune | 0.8.4 | mypy-extensões | 0.4.3 | nbclient | 0.5.3 |
| nbconvert | 6.1.0 | nbformat | 5.1.3 | Ninho-Asyncio | 1.5.1 |
| bloco de notas | 6.4.5 | dormência | 1.20.3 | embalagem | 21.0 |
| pandas | 1.3.4 | PandocFilters | 1.4.3 | Parso | 0.8.2 |
| PathSpec | 0.9.0 | bode expiatório | 0.5.2 | Espere | 4.8.0 |
| pickleshare | 0.7.5 | Almofada | 8.4.0 | pip (o gestor de pacotes do Python) | 21.2.4 |
| plataformadirs | 2.5.2 | enredo | 5.9.0 | Prometheus-Cliente | 0.11.0 |
| kit de ferramentas de prompt | 3.0.20 | Protobuf | 4.21.5 | PSUTIL | 5.8.0 |
| PSYCOPG2 | 2.9.3 | ptyprocess | 0.7.0 | Pyarrow | 7.0.0 |
| Pycparser | 2,20 | Pigmentos | 2.10.0 | PyGObject | 3.36.0 |
| Pyodbc | 4.0.31 | Pyparsing | 3.0.4 | pirsistent | 0.18.0 |
| python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.2 | Pytz | 2021.3 |
| Pyzmq | 22.2.1 | pedidos | 2.26.0 | pedidos-unixsocket | 0.2.0 |
| s3transferência | 0.5.2 | scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.24.2 | SciPy | 1.7.1 |
| nascido no mar | 0.11.2 | Enviar2Lixo | 1.8.0 | Ferramentas de configuração | 58.0.4 |
| seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.12.2 |
| tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
| ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
| tornado | 6.1 | traços | 5.1.0 | extensões de digitação | 3.10.0.2 |
| Atualizações automáticas | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| largura de wc | 0.2.5 | WebEncodings | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo do Microsoft CRAN em 2022-08-15.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | asserçãoat | 0.2.1 | retrocessos | 1.4.1 |
| base | 4.1.3 | base64enc | 0.1-3 | pouco | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.3 | arranque | 1.3-28 |
| preparar | 1.0-7 | Brio | 1.1.3 | vassoura | 1.0.0 |
| BSLIB | 0.4.0 | cachemira | 1.0.6 | Chamador | 3.7.1 |
| Caret | 6.0-93 | Cellranger | 1.1.0 | crono | 2.3-57 |
| classe | 7.3-20 | CLI | 3.3.0 | Clipr | 0.8.0 |
| cluster | 2.1.3 | CodeTools | 0.2-18 | espaço em cores | 2.0-3 |
| marca comum | 1.8.0 | compilador | 4.1.3 | configuração | 0.3.1 |
| CPP11 | 0.4.2 | lápis de cor | 1.5.1 | credenciais | 1.3.2 |
| encaracolar | 4.3.2 | data.table (tabela de dados) | 1.14.2 | conjuntos de dados | 4.1.3 |
| DBI | 1.1.3 | DBPlyr | 2.2.1 | descrição | 1.4.1 |
| DevTools | 2.4.4 | diffobj | 0.3.5 | resumo | 0.6.29 |
| Iluminação reduzida | 0.4.2 | DPLYR | 1.0.9 | DTPlyr | 1.2.1 |
| E1071 | 1.7-11 | reticências | 0.3.2 | avaliar | 0,16 |
| Fãsi | 1.0.3 | Farver | 2.1.1 | mapa rápido | 1.1.0 |
| fontawesome | 0.3.0 | FORCATS | 0.5.1 | para cada | 1.5.2 |
| estrangeiro | 0.8-82 | forjar | 0.2.0 | FS | 1.5.2 |
| Futuro | 1.27.0 | futuro.apply | 1.9.0 | gargarejo | 1.2.0 |
| genérico | 0.1.3 | Gert | 1.7.0 | GGPLOT2 | 3.3.6 |
| GH | 1.3.0 | gitcreds | 0.1.1 | GLMNET | 4.1-4 |
| Globais | 0.16.0 | cola | 1.6.2 | GoogleDrive | 2.0.0 |
| googlesheets4 | 1.0.1 | Gower | 1.0.0 | gráficos | 4.1.3 |
| grDispositivos | 4.1.3 | grelha | 4.1.3 | gridExtra | 2.3 |
| GSUBFN | 0,7 | tabela g | 0.3.0 | capacete de segurança | 1.2.0 |
| Refúgio | 2.5.0 | mais alto | 0,9 | HMS (Navio de Sua Majestade) | 1.1.1 |
| htmltools | 0.5.3 | htmlwidgets (componentes HTML interativos) | 1.5.4 | httpuv | 1.6.5 |
| HTTR | 1.4.3 | identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | Isoband | 0.2.5 | iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| Knitr | 1.39 | etiquetagem | 0.4.2 | mais tarde | 1.3.0 |
| treliça | 0.20-45 | lave | 1.6.10 | ciclo de vida | 1.0.1 |
| ouvir | 0.8.0 | lubridato | 1.8.0 | Magrittr | 2.0.3 |
| Marcação | 1.1 | MASSA | 7.3-56 | Matriz | 1.4-1 |
| memorizar | 2.0.1 | métodos | 4.1.3 | MGCV | 1.8-40 |
| mímica | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
| Modelador | 0.1.8 | Munsell | 0.5.0 | NLME | 3.1-157 |
| NNET | 7.3-17 | numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 2.0.2 |
| paralelo | 4.1.3 | Paralelamente | 1.32.1 | pilar | 1.8.0 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | Plyr | 1.8.7 |
| elogiar | 1.0.0 | unidades elegantes | 1.1.1 | pROC | 1.18.0 |
| processx | 3.7.0 | Prodlim | 2019.11.13 | Profvis | 0.3.7 |
| Progresso | 1.2.2 | progressor | 0.10.1 | promessas | 1.2.0.1 |
| prototipo | 1.0.0 | proxy | 0.4-27 | PS | 1.7.1 |
| ronronar | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| RAGG | 1.2.2 | Floresta Aleatória | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | Leitor | 2.1.2 | ReadXL | 1.4.0 |
| receitas | 1.0.1 | revanche | 1.0.1 | revanche2 | 2.1.2 |
| Controles remotos | 2.4.2 | Exemplo Reproduzível | 2.0.1 | remodelar2 | 1.4.4 |
| Rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
| oxigénio2 | 7.2.1 | rpart (função de partição recursiva em R) | 4.1.16 | rprojroot | 2.0.3 |
| Reserva | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
| rversões | 2.1.1 | Rvest | 1.0.2 | Sass | 0.4.2 |
| escalas | 1.2.0 | seletor | 0.4-2 | informação de sessão | 1.2.2 |
| forma | 1.4.6 | brilhante | 1.7.2 | ferramentas de código-fonte | 0.1.7 |
| Brilho | 1.7.7 | Faísca | 3.3.0 | espacial | 7.3-11 |
| estrias | 4.1.3 | sqldf | 0.4-11 | QUADRADO | 2021.1 |
| estatísticas | 4.1.3 | estatísticas4 | 4.1.3 | string | 1.7.8 |
| stringr | 1.4.0 | sobrevivência | 3.2-13 | Sistema | 3.4 |
| fontes do sistema | 1.0.4 | tcltk (uma linguagem de programação) | 4.1.3 | teste que | 3.1.4 |
| formatação de texto | 0.3.6 | Tibble | 3.1.8 | Tidyr | 1.2.0 |
| arrumadoselecionar | 1.1.2 | Tidyverse | 1.3.2 | data e hora | 4021.104 |
| Tinytex | 0.40 | ferramentas | 4.1.3 | TZDB | 0.3.0 |
| verificador de URLs | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
| utilitários | 4.1.3 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.4.1 |
| viridisLite | 0.4.0 | vrum | 1.5.7 | Waldo | 0.4.0 |
| vibrissa | 0.4 | murchar | 2.5.0 | xfun | 0.32 |
| XML2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.5 | ZIP | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-diretório | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-rota53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | AWS Java SDK para SES | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-STS | 1.12.189 |
| com.amazonaws | aws-java-sdk-suporte | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Reserva | 1.8-3 |
| com.databricks | Jatos 3T | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Annotations | 2.13.3 |
| com.fasterxml.jackson.core | Jackson-Core | 2.13.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
| com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.13.3 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.3 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | referência_nativa-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.goiaba | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 2.0.204 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.ning | compressa-lzf | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocidade | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| codec commons | codec commons | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| carregamento-de-ficheiros-comuns | carregamento-de-ficheiros-comuns | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| Hadoop3 | JETS3T-0,7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.21 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.5.0 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | métricas-grafite | 4.1.1 |
| io.dropwizard.metrics | verificações de saúde de métricas | 4.1.1 |
| io.dropwizard.metrics | métricas-jetty9 | 4.1.1 |
| io.dropwizard.metrics | métricas-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas-json | 4.1.1 |
| io.dropwizard.metrics | métricas-JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-tudo | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-comum | 4.1.74.Final |
| io.netty | Netty Handler | 4.1.74.Final |
| io.netty | netty-resolver (resolução do Netty) | 4.1.74.Final |
| io.netty | netty-tcnative-classes | 2.0.48.Final |
| io.netty | transporte Netty | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jakarta.annotation-api | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.10.13 |
| MVN | Hadoop3 | liball_deps_2.12 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | picles | 1.2 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.14 |
| net.floco de neve | faísca-snowflake_2.12 | 2.10.0-spark_3.2 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.8 |
| org.antlr | modelo de string | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 7.0.0 |
| org.apache.arrow | núcleo de memória Arrow | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | vetor de seta | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | AVRO-IPC | 1.11.0 |
| org.apache.avro | avro-mapeado | 1.11.0 |
| org.apache.commons | colecções-commons4 | 4.4 |
| org.apache.commons | commons-comprimir | 1.21 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-matemática3 | 3.6.1 |
| org.apache.commons | commons-texto | 1.9 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador de receitas | 2.13.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api (API do cliente Hadoop) | 3.3.2-Databricks |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.2 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | hive-llap-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.7.2 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | Núcleo Http | 4.4.14 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
| org.apache.logging.log4j | log4j-api | 2.17.2 |
| org.apache.logging.log4j | log4j-core | 2.17.2 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
| org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
| org.apache.orc | núcleo de orc | 1.7.5 |
| org.apache.orc | orc-mapreduce | 1.7.5 |
| org.apache.orc | Orc-calços | 1.7.5 |
| org.apache.parquet | parquet-coluna | 1.12.0-DATABRICKS-0004 |
| org.apache.parquet | parquet-comum | 1.12.0-DATABRICKS-0004 |
| org.apache.parquet | codificação-parquet | 1.12.0-DATABRICKS-0004 |
| org.apache.parquet | estruturas de formato parquet | 1.12.0-DATABRICKS-0004 |
| org.apache.parquet | Parquet-Hadoop | 1.12.0-DATABRICKS-0004 |
| org.apache.parquet | Parquet-Jackson | 1.12.0-DATABRICKS-0004 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.20 |
| org.apache.yetus | notas de audiência | 0.5.0 |
| org.apache.zookeeper | guarda zoológico | 3.6.2 |
| org.apache.zookeeper | zookeeper-juta | 3.6.2 |
| org.checkerframework | verificador de qualidade | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.píer | Jetty-Cliente | 9.4.46.v20220331 |
| org.eclipse.píer | jetty-continuation (componente de software do Jetty) | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-HTTP | 9.4.46.v20220331 |
| org.eclipse.píer | Molhe IO | 9.4.46.v20220331 |
| org.eclipse.píer | Cais-JNDI | 9.4.46.v20220331 |
| org.eclipse.píer | Cais-Plus | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.píer | segurança-jetty | 9.4.46.v20220331 |
| org.eclipse.píer | servidor jetty | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-util | 9.4.46.v20220331 |
| org.eclipse.píer | cais-util-ajax | 9.4.46.v20220331 |
| org.eclipse.píer | Aplicação web Jetty | 9.4.46.v20220331 |
| org.eclipse.píer | Jetty-XML | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.externo | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.externo | jacarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-cliente | 2,34 |
| org.glassfish.jersey.core | Jersey comum | 2,34 |
| org.glassfish.jersey.core | servidor Jersey | 2,34 |
| org.glassfish.jersey.inject | jersey-HK2 | 2,34 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-registro em log | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.7.4 |
| org.mlflow | mlflow-Spark | 1.27.0 |
| org.objenesis | objenese | 2.5.1 |
| org.postgresql | PostgreSQL | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | calços | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
| org.scala-lang | Escala-library_2.12 | 2.12.14 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | Brisa-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.36 |
| org.slf4j | jul-para-slf4j | 1.7.36 |
| org.slf4j | SLF4J-API | 1.7.36 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.threeten | trêsdez-extra | 1.5.0 |
| org.tukaani | XZ | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | gatos-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | torre-macros_2.12 | 0.17.0 |
| org.typelevel | torre-platform_2.12 | 0.17.0 |
| org.typelevel | torre-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | WildFly-openssl | 1.0.7.Final |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1,24 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |