Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 10.0 e o Databricks Runtime 10.0 Photon, com tecnologia Apache Spark 3.2.0. A Databricks lançou esta versão em outubro de 2021. Photon está em Visualização Pública.
Novos recursos e melhorias
- Nova versão do Apache Spark
- SELECT declaração agora suporta a cláusula QUALIFY para filtrar os resultados da função de janela
- Suporte de cluster para JDK 11 (visualização pública)
- O Auto Loader agora trata esquemas como anuláveis
Nova versão do Apache Spark
O Databricks Runtime 10.0 e o Databricks Runtime 10.0 Photon incluem o Apache Spark 3.2.0. Para obter detalhes, consulte Apache Spark.
SELECT instrução agora suporta a cláusula QUALIFY para filtrar resultados de funções de janela
A SELECT declaração agora apoia a QUALIFY cláusula.
QUALIFY pode ser usado para filtrar os resultados das funções da janela. Uma ou mais funções de janela devem estar presentes na lista de SELECT ou na condição QUALIFY. Por exemplo:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
Suporte de cluster para JDK 11 (visualização pública)
O Databricks agora fornece suporte a cluster para Java Development Kit (JDK) 11.
Ao criar um cluster, você pode especificar que o cluster use o JDK 11 (para o driver e o executor). Para fazer isso, adicione a seguinte variável de ambiente para Advanced Options > Spark > Environment Variables:
JNAME=zulu11-ca-amd64
O Auto Loader agora trata esquemas como anuláveis
O Auto Loader agora trata todos os esquemas inferidos e fornecidos pelo usuário como anuláveis por padrão. Isso é para evitar corrupção de dados em potencial nos casos em que os dados contêm campos nulos para colunas não anuláveis. Uma nova configuração é introduzida para rastrear esse comportamento, spark.databricks.cloudFiles.schema.forceNullable. Por padrão, essa configuração contém a configuração de spark.sql.streaming.fileSource.schema.forceNullable, que o FileStreamSource no Apache Spark usa e está definida como true por padrão.
Alterações interruptivas
Alterações significativas para todos os usuários do Spark SQL
- Nova configuração de
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled: quando definido comotrue, permite um subconjunto de predicados de igualdade correlacionados quando uma subconsulta é agregada. A predefinição étrue. - Nova configuração
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled: quando definido comotrue, bloqueia a geração automática de aliases quando as visualizações são criadas. A predefinição étrue. - Nova configuração
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled: quando definido comotrue, não permiteCREATE TABLE AS SELECTcom um local não vazio. A predefinição étrue. Observe que quandospark.sql.legacy.allowNonEmptyLocationInCTAStambém está definido comotrue, essa configuração não tem efeito eCREATE TABLE AS SELECTcom um local não vazio é sempre permitido.
Alterações recentes para usuários do Spark SQL que habilitam o modo ANSI
Para obter informações sobre o modo ANSI, consulte Conformidade ANSI no Databricks Runtime.
Nova configuração
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled: quando definido comotrue, um argumentodayOfWeekinválido para a funçãonext_daylança umIllegalArgumentExceptionno modo ANSI; caso contrário, ele retornanull. A predefinição étrue.Nova configuração
spark.databricks.behaviorChange.SC83796CanCast.enabled: quando definido comotrue, permite novas regras de sintaxe de transmissão explícita no modo ANSI. A predefinição étrue.Nova configuração
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled: quando definido comotrue, uma exceção de erro de análise é lançada ao converter uma cadeia de caracteres para um Booleano; caso contrário, retornanull. A predefinição étrue.Nova configuração
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled: quando definida comotrue, a funçãoabslança uma exceção se a entrada estiver fora do intervalo. A predefinição étrue.
Alterações significativas para todos os usuários do Python
- A API
delta.tables.DeltaTable.convertToDeltaPython agora retorna o objeto Python corretoDeltaTableque pode ser usado para executar comandos Delta Lake. Anteriormente, ele retornava um objeto interno que não podia ser chamado diretamente.
Atualizações da biblioteca
Atualização do Apache Hadoop 3
- O Databricks Runtime 10.0 atualiza a dependência do Hadoop do Hadoop 2.7.4 para o Hadoop 3.3.1.
Alterações de comportamento
- O Hadoop 3 usa as bibliotecas hadoop-client-api e hadoop-client-runtime em vez da biblioteca hadoop-common, que sombreia determinadas dependências de terceiros que poderiam ser usadas em APIs ou extensões públicas do Hadoop.
- As opções de configuração do Hadoop 3 foram alteradas desde o Hadoop 2. Para opções do Hadoop 3.3.1, consulte core-default.xml.
- O Databricks atualizou algumas das configurações padrão do Hadoop 3 para serem consistentes com o Hadoop 2, para garantir que os conectores de armazenamento tenham as mesmas configurações de autenticação padrão e níveis de desempenho:
fs.azure.authorization.caching.enable=falsefs.s3a.attempts.maximum=10fs.s3a.block.size=67108864fs.s3a.connection.timeout=50000fs.s3a.max.total.tasks=1000fs.s3a.retry.limit=20fs.s3a.retry.throttle.interval=500msfs.s3a.assumed.role.credentials.provider=com.amazonaws.auth.InstanceProfileCredentialsProviderfs.s3a.aws.credentials.provider=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
- O conector do Google Cloud Storage (GCS) foi atualizado da versão 2.1.6 para a 2.2.2.
- O conector do Amazon Redshift agora usa o
s3a://esquema. Os3n://esquema foi preterido. - Manipula os nomes de classe OSS para a API do Amazon S3 MetadataStore, além das classes sombreadas. Isso permite processar configurações de OSS sem exigir os nomes de classe sombreados.
- Por exemplo, você pode especificar a
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStoreclasse na configuração do Hadoop.
- Por exemplo, você pode especificar a
- Torna o
new Configuration()esparkContext.hadoopConfigurationconsistente.- Agora, sempre que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop no
sparkContext.hadoopConfigurationDatabricks Runtime, incluindo esquemas de sistema de arquivos e sua configuração padrão.
- Agora, sempre que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop no
- Embora os conectores de armazenamento Hadoop incluídos no Databricks Runtime sejam totalmente compatíveis com o Hadoop 3.3.1, não é garantido que estejam sincronizados com os conectores OSS Hadoop 3.3.1 e podem ter um comportamento diferente.
- O conector do Amazon S3 ainda permite (embora com um aviso) a autenticação user:secret em URLs do S3, em comparação com o HADOOP-14833, que o remove.
- globStatus agora sempre retorna resultados classificados (HADOOP-10798)
- Adicionado fs.s3a.endpoint se unset e fs.s3a.endpoint region for null(SPARK-35878)
- O recurso de resolução automática da região do Amazon S3 fornecido pela Databricks pode não ser acionado em alguns casos, devido à configuração do endpoint global. Isso não é um problema, pois o AWS SDK resolverá a região corretamente.
- Adicione fs.s3a.downgrade.syncable.exceptions se não estiver definido(SPARK-35868)
- Os codecs LZ4 e Snappy não dependem da biblioteca Hadoop nativa (HADOOP-17125)
Problemas conhecidos
- SPARK-36681 Usando SnappyCodec para escrever arquivo de sequência falhará com UnsatisfiedLinkError devido a problema conhecido no Hadoop 3.3.1 (HADOOP-17891)
Faísca Apache
O Databricks Runtime 10.0 inclui o Apache Spark 3.2.0.
Nesta secção:
- Destaques
- Core e Spark SQL
- Transmissão em Fluxo Estruturada
- PySpark
- MLlib
- Descontinuações e remoções
Destaques
- Suporte Pandas camada API no PySpark (SPARK-34849)
- Sessionização baseada em EventTime (janela de sessão)(SPARK-10816)
- Suporte a tipos ANSI SQL INTERVAL (SPARK-27790)
- Modo ANSI GA (SPARK-35030)
- Padronizar mensagens de exceção no Spark (SPARK-33539)
Core e Spark SQL
Aprimoramentos de compatibilidade com ANSI SQL
- Suporte a tipos ANSI SQL INTERVAL (SPARK-27790)
- Novas regras de sintaxe de coerção de tipo no modo ANSI (SPARK-34246)
Melhorias de desempenho
- Otimização de consultas
- Remover agregados redundantes no Optimizer (SPARK-33122)
- Empurre o limite para baixo através do Project com Join(SPARK-34622)
- Estimativa da cardinalidade do operador de união, classificação e intervalo (SPARK-33411)
- UnwrapCastInBinaryComparison suporte In/InSet predicado(SPARK-35316)
- Mantenha as estatísticas necessárias após a poda da partição(SPARK-34119)
- Execução de consultas
- Habilitar pool de buffer Zstandard por padrão (SPARK-34340, SPARK-34390)
- Adicionar geração de código para todos os tipos de junção de mesclagem ordenada (SPARK-34705)
- Melhoria da junção por loop aninhado de transmissão(SPARK-34706)
- Suporta dois níveis de mapas de hash para agregação de hash final (SPARK-35141)
- Permitir gravadores simultâneos para escrever partições dinâmicas e tabelas de compartimentos (SPARK-26164)
- Melhorar o desempenho dos FETCH_PRIOR de processamento no Thriftserver(SPARK-33655)
Aprimoramentos do conector
- Parquet
- Atualize o Parquet para 1.12.1 (SPARK-36726)
- Leia tipos não assinados de parquet que são armazenados como tipo físico int32 em parquet (SPARK-34817)
- Leia o tipo lógico int64 não assinado do Parquet que armazenou como tipo físico int64 assinado para decimal(20, 0)(SPARK-34786)
- Melhorar o Parquet no filtro pushdown (SPARK-32792)
- ORC
- Atualize o ORC para a versão 1.6.11 (SPARK-36482)
- Suporte ORC evolução posicional forçada (SPARK-32864)
- Suporte coluna aninhada no leitor vetorizado ORC(SPARK-34862)
- Suporte a compressão ZSTD e LZ4 na fonte de dados ORC (SPARK-33978, SPARK-35612)
- Avro
- Atualize o Avro para a versão 1.10.2 (SPARK-34778)
- Suportando a evolução do esquema Avro para tabelas Hive particionadas com "avro.schema.literal"(SPARK-26836)
- Adicione novas opções de fonte de dados Avro para controlar a rebase de data/hora em leitura (SPARK-34404)
- Adicionando suporte para url de esquema fornecido pelo usuário em Avro(SPARK-34416)
- Adicione suporte para correspondência posicional de esquema Catalyst-to-Avro (SPARK-34365)
- JSON
- Atualize Jackson para a versão 2.12.3 (SPARK-35550)
- Permitir que fontes de dados Json escrevam caracteres não-ascii como pontos de código (SPARK-35047)
- JDBC
- Calcule um passo de partição mais preciso em JDBCRelation(SPARK-34843)
- Filtro de suporte do Hive Metastore por not-in(SPARK-34538)
Aprimoramentos de recursos
- Subconsulta
- Melhorar subconsultas correlacionadas (SPARK-35553)
- Novas funções incorporadas
- ilike (faísca-36674, faísca-36736)
- current_user(FAÍSCA-21957)
- produto (SPARK-33678)
- regexp_like,regexp (SPARK-33597, SPARK-34376)
- try_add(FAÍSCA-35162)
- try_divide(FAÍSCA-35162)
- bit_get(FAÍSCA-33245)
- Usar o Apache Hadoop 3.3.1 por padrão (SPARK-29250)
- Adicionar soma de verificação para blocos aleatórios(SPARK-35275)
- Habilite spark.storage.replication.proactive por padrão (SPARK-33870)
- Suporte a limpeza de armazenamento de fallback durante a interrupção do SparkContext (SPARK-34142)
- Suporte Java enums de Scala Dataset API (SPARK-23862)
- ADD JAR com as coordenadas do Ivy deve ser compatível com o comportamento transitivo do Hive(SPARK-34506)
- Suporte ao comando S para ADD ARCHIVE e LIST ARCHIVE(SPARK-34603)
- Suportar vários caminhos para comandos ADD FILE/JAR/ARCHIVE (SPARK-35105)
- Suporte a arquivos arquivados como recursos para CREATE FUNCTION USANDO sintaxe(SPARK-35236)
- Carregando SparkSessionExtensions de ServiceLoader(SPARK-35380)
- Adicionar função de frases a funções. {Escala,py}(FAÍSCA-35418)
- Aplicar spark.sql.hive.metastorePartitionPruning para tabelas que não sejam do Hive que usam o metastore do Hive para gerenciamento de partições(SPARK-36128)
- Propagar o motivo da perda de exec para a interface do usuário da Web (SPARK-34764)
- Evite inserir With-CTEs não determinísticos (SPARK-36447)
- Suportar a análise de todas as tabelas num banco de dados específico(SPARK-33687)
- Padronizar mensagens de exceção no Spark (SPARK-33539)
- Suporte (IGNORE | RESPECT) NULLS para LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE(SPARK-30789)
Outras mudanças notáveis
- Monitorização
- Novas métricas para ExternalShuffleService(SPARK-35258)
- Adicionar novas APIs e parâmetros REST de nível de estágio (SPARK-26399)
- Tarefa de suporte e executor Distribuições de métricas Distribuições de métricas na API REST (SPARK-34488)
- Adicionar métricas de fallback para agregação de hash(SPARK-35529)
- Adicionar count_distinct como uma opção a Dataset#summary(SPARK-34165)
- Implementar ScriptTransform em sql/core(SPARK-31936)
- Torne o tempo limite de pulsação do driver BlockManagerMaster configurável(SPARK-34278)
- Torne o nome do serviço aleatório configurável no lado do cliente e permita a substituição da configuração baseada em classpath no lado do servidor (SPARK-34828)
- ExecutorMetricsPoller deve manter a entrada do estágio no stageTCMP até que ocorra um batimento cardíaco (SPARK-34779)
- Substitua se pela cláusula de filtro em RewriteDistinctAggregates(SPARK-34882)
- Corrigir falha ao aplicar CostBasedJoinReorder em autojunção(SPARK-34354)
- CREATE TABLE LIKE deve respeitar as propriedades da tabela reservada(SPARK-34935)
- Enviar arquivo ivySettings para o driver no modo de cluster YARN (SPARK-34472)
- Resolver colunas comuns duplicadas de JOINUSING/NATURAL (SPARK-34527)
- Ocultar propriedades de visualização interna para o comando descrever tabela (SPARK-35318)
- Suporte à resolução de attrs ausentes para distribuir/cluster por/dica de repartição (SPARK-35331)
- Ignore o erro ao verificar o caminho em FileStreamSink.hasMetadata(SPARK-34526)
- Melhore o suporte ao s3a magic committer inferindo configurações ausentes (SPARK-35383)
- Permitir omitir : na cadeia de caracteres do tipo STRUCT (SPARK-35706)
- Adicione um novo operador para distinguir se a AQE pode otimizar com segurança (SPARK-35786)
- Acrescentar novos campos struct aninhados em vez de classificar para unionByName com preenchimento nulo (SPARK-35290)
- ArraysZip deve manter nomes de campo para evitar ser reescrito pelo analisador/otimizador (SPARK-35876)
- Use Void como o nome do tipo de NullType (SPARK-36224)
- Introduzir nova API para FileCommitProtocol permitir nomenclatura flexível de arquivos (SPARK-33298)
Mudanças de comportamento
Consulte os guias de migração para cada componente: Spark Core.
Transmissão em Fluxo Estruturada
Principais características
- Sessionização baseada em EventTime (janela de sessão)(SPARK-10816)
- Atualize o cliente Kafka para 2.8.0 (SPARK-33913)
- Trigger.AvailableNow para executar consultas de streaming como Trigger.Once em vários lotes no Scala (SPARK-36533)
Outras mudanças notáveis
- Introduza uma nova opção na fonte Kafka para especificar um número mínimo de registros a serem lidos por gatilho (SPARK-35312)
- Adicionar os deslocamentos mais recentes ao progresso da origem (SPARK-33955)
PySpark
Projeto Zen
- API Pandas no Spark (SPARK-34849)
- Ativar mypy para pandas-on-Spark (SPARK-34941)
- Implementar suporte CategoricalDtype (SPARK-35997, SPARK-36185)
- Conclua as operações básicas de Série e Índice (SPARK-36103, SPARK-36104, SPARK-36192)
- Combinar comportamentos com 1,3 pandas (SPARK-36367)
- Alinhar comportamentos em séries com NaN aos pandas' (SPARK-36031, SPARK-36310)
- Implementar operador unário 'inverter' de série integral e índice (SPARK-36003)
- Implementar CategoricalIndex.map e DatetimeIndex.map(SPARK-36470)
- Implementar Index.map(SPARK-36469)
- faulthanlder suporte para Python worker crashed (SPARK-36062)
- Usar a regra de nomenclatura Snake nas APIs de função (SPARK-34306)
- Habilite spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled por padrão (SPARK-35419)
- Suporte para inferir dict aninhado como uma struct ao criar um DataFrame (SPARK-35929)
Outras mudanças notáveis
- Ativar o modo de thread fixo por padrão (SPARK-35303)
- Adicionar suporte NullType para execuções de seta (SPARK-33489)
- Adicionar Seta self_destruct suporte a toPandas (SPARK-32953)
- Adicionar API de wrapper de destino de thread para o modo de thread de pino pyspark (SPARK-35498)
Mudanças de comportamento
Consulte os guias de migração.
MLlib
Melhoramentos de desempenho
- Otimização da transformação BucketedRandomProjectionLSH (SPARK-34220)
- w2v findSinónimos otimização(SPARK-34189)
- optimizar GEMM esparso ao ignorar a verificação de limites(SPARK-35707)
- Melhorar o desempenho do ML ALS recommendForAll by GEMV (SPARK-33518)
Melhorias no treinamento do modelo
- Refactor Logistic Aggregator - suporte à centralização virtual (SPARK-34797)
- Regressão logística binária com centralização de suporte de intercetação (SPARK-34858, SPARK-34448)
- Regressão Logística Multinomial com centralização de suporte de intercetação (SPARK-34860)
Melhorias no BLAS
- Substitua totalmente com.github.fommil.netlib por dev.ludovic.netlib:2.0(SPARK-35295)
- Adicionar uma implementação BLAS vetorizada (SPARK-33882)
- Acelere o BLAS de fallback com dev.ludovic.netlib(SPARK-35150)
Outras mudanças notáveis
- A transformação OVR corrige o potencial conflito da coluna(SPARK-34356)
Descontinuações e remoções
- Depreciar spark.launcher.childConnectionTimeout(SPARK-33717)
- descontinuar GROUP BY ... AGRUPAR CONJUNTOS (...) e promover GROUP BY GROUPING SETS (...)(SPARK-34932)
- Depreciar a API ps.broadcast (SPARK-35810)
- Depreciar o
num_filesargumento (SPARK-35807) - Descontinuar DataFrame.to_spark_io(SPARK-35811)
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 10.0.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Escala: 2.12.14
- Píton: 3.8.10
- R: 4.1.1
- Lago Delta: 1.0.0
Bibliotecas Python instaladas
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (Laminação ISO) | Appdirs | 1.4.4 | Backcall | 0.2.0 |
| Boto3 | 1.16.7 | Botocore | 1.19.7 | certifi | 2020.12.5 |
| Chardet | 4.0.0 | ciclista | 0.10.0 | Quisto | 0.29.23 |
| dbus-python | 1.2.16 | decorador | 5.0.6 | Distlib | 0.3.3 |
| distro-info | 0,23ubuntu1 | facetas-visão geral | 1.0.0 | bloqueio de arquivo | 3.0.12 |
| IDNA | 2.10 | Ipykernel | 5.3.4 | IPython | 7.22.0 |
| ipython-genutils | 0.2.0 | Jedi | 0.17.2 | jmespath | 0.10.0 |
| Joblib | 1.0.1 | jupyter-cliente | 6.1.12 | Jupyter-core | 4.7.1 |
| Kiwisolver | 1.3.1 | coalas | 1.8.1 | Matplotlib | 3.4.2 |
| numpy | 1.19.2 | pandas | 1.2.4 | Parso | 0.7.0 |
| vítima | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Travesseiro | 8.2.0 | pip (o gestor de pacotes do Python) | 21.0.1 | enredo | 5.1.0 |
| kit de ferramentas de prompt | 3.0.17 | Protobuf | 3.17.2 | psycopg2 | 2.8.5 |
| ptyprocess | 0.7.0 | Pyarrow | 4.0.0 | Pigmentos | 2.8.1 |
| PyGObject | 3.36.0 | Pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.6 |
| python-dateutil (uma biblioteca de software para manipulação de datas em Python) | 2.8.1 | Pytz | 2020.5 | Pyzmq | 20.0.0 |
| pedidos | 2.25.1 | pedidos-unixsocket | 0.2.0 | s3transferir | 0.3.7 |
| scikit-learn (biblioteca de aprendizado de máquina em Python) | 0.24.1 | SciPy | 1.6.2 | nascido no mar | 0.11.1 |
| Ferramentas de configuração | 52.0.0 | seis | 1.15.0 | ssh-import-id | 5.10 |
| statsmodels (uma biblioteca de Python para modelos estatísticos) | 0.12.2 | tenacidade | 8.0.1 | ThreadPoolCtl | 2.1.0 |
| tornado | 6.1 | traços | 5.0.5 | Upgrades autônomos | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | largura de wc | 0.2.5 |
| wheel | 0.36.2 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2021-09-21.
| Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
| AskPass | 1.1 | asserçãoat | 0.2.1 | Retroportagens | 1.2.1 |
| base | 4.1.1 | base64enc | 0.1-3 | pouco | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.2 | arranque | 1.3-28 |
| fabricação de cerveja | 1.0-6 | Brio | 1.1.2 | vassoura | 0.7.9 |
| BSLIB | 0.3.0 | cachemira | 1.0.6 | Chamador | 3.7.0 |
| acento circunflexo | 6.0-88 | Cellranger | 1.1.0 | crono | 2.3-56 |
| classe | 7.3-19 | CLI | 3.0.1 | Clipr | 0.7.1 |
| cluster | 2.1.2 | CodeTools | 0.2-18 | espaço em cores | 2.0-2 |
| marca comum | 1.7 | compilador | 4.1.1 | configuração | 0.3.1 |
| CPP11 | 0.3.1 | lápis de cor | 1.4.1 | credenciais | 1.3.1 |
| encaracolar | 4.3.2 | tabela de dados | 1.14.0 | conjuntos de dados | 4.1.1 |
| DBI | 1.1.1 | DBPlyr | 2.1.1 | descrição | 1.3.0 |
| DevTools | 2.4.2 | diffobj | 0.3.4 | resumo | 0.6.27 |
| DPLYR | 1.0.7 | DTPlyr | 1.1.0 | reticências | 0.3.2 |
| avaliar | 0.14 | Fãsi | 0.5.0 | Farver | 2.1.0 |
| mapa rápido | 1.1.0 | FORCATS | 0.5.1 | para cada | 1.5.1 |
| externa | 0.8-81 | forjar | 0.2.0 | FS | 1.5.0 |
| Futuro | 1.22.1 | futuro.apply | 1.8.1 | gargarejo | 1.2.0 |
| genérico | 0.1.0 | Gert | 1.4.1 | ggplot2 | 3.3.5 |
| GH | 1.3.0 | gitcreds | 0.1.1 | GLMNET | 4.1-2 |
| Globais | 0.14.0 | colar | 1.4.2 | GoogleDrive | 2.0.0 |
| googlesheets4 | 1.0.0 | Gower | 0.2.2 | gráficos | 4.1.1 |
| grDispositivos | 4.1.1 | grelha | 4.1.1 | gridExtra | 2.3 |
| GSUBFN | 0,7 | tabela g | 0.3.0 | Refúgio | 2.4.3 |
| mais alto | 0,9 | HMS | 1.1.0 | htmltools | 0.5.2 |
| htmlwidgets (componentes HTML interativos) | 1.5.4 | httpuv | 1.6.3 | HTTR | 1.4.2 |
| Hwriter | 1.3.2 | hwriterPlus | 1.0-3 | IDs | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | Isoband | 0.2.5 |
| iteradores | 1.0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
| KernSmooth | 2.23-20 | Knitr | 1.34 | etiquetagem | 0.4.2 |
| mais tarde | 1.3.0 | treliça | 0.20-44 | lave | 1.6.10 |
| ciclo de vida | 1.0.0 | ouvirv | 0.8.0 | lubridato | 1.7.10 |
| Magrittr | 2.0.1 | Marcação | 1.1 | MASSA | 7.3-54 |
| Matriz | 1.3-4 | memorização | 2.0.0 | métodos | 4.1.1 |
| MGCV | 1.8-37 | mímica | 0,11 | ModelMetrics | 1.2.2.2 |
| Modelador | 0.1.8 | Munsell | 0.5.0 | NLME | 3.1-152 |
| NNET | 7.3-16 | numDeriv | 2016.8 a 1.1 | openssl (conjunto de ferramentas para criptografia) | 1.4.5 |
| paralelo | 4.1.1 | Paralelamente | 1.28.1 | pilar | 1.6.2 |
| pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | pkgload | 1.2.2 |
| plogr | 0.2.0 | Plyr | 1.8.6 | elogiar | 1.0.0 |
| unidades bonitas | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
| Prodlim | 2019.11.13 | Progresso | 1.2.2 | progressor | 0.8.0 |
| promessas | 1.2.0.1 | prototipo | 1.0.0 | PS | 1.6.0 |
| ronronar | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
| Floresta Aleatória | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.3.3 |
| RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | Leitor | 2.0.1 |
| ReadXL | 1.3.1 | receitas | 0.1.16 | revanche | 1.0.1 |
| revanche2 | 2.1.2 | Controles remotos | 2.4.0 | Reprex | 2.0.1 |
| remodelar2 | 1.4.4 | Rlang | 0.4.11 | rmarkdown | 2.11 |
| RODBC | 1.3-19 | oxigénio2 | 7.1.2 | rpart (função de partição recursiva em R) | 4.1-15 |
| rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
| rstudioapi | 0,13 | rversões | 2.1.1 | Rvest | 1.0.1 |
| Sass | 0.4.0 | escalas | 1.1.1 | seletor | 0.4-2 |
| Informação da sessão | 1.1.1 | forma | 1.4.6 | brilhante | 1.6.0 |
| ferramentas de origem | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
| espacial | 7.3-11 | estrias | 4.1.1 | sqldf | 0.4-11 |
| QUADRADO | 2021.1 | estatísticas | 4.1.1 | estatísticas4 | 4.1.1 |
| string | 1.7.4 | stringr | 1.4.0 | sobrevivência | 3.2-13 |
| Sistema | 3.4 | tcltk (uma linguagem de programação) | 4.1.1 | Demonstrações de Ensino | 2.10 |
| testeatat | 3.0.4 | Tibble | 3.1.4 | Tidyr | 1.1.3 |
| tidyselect | 1.1.1 | Tidyverse | 1.3.1 | data e hora | 3043.102 |
| Tinytex | 0,33 | ferramentas | 4.1.1 | TZDB | 0.1.2 |
| usethis | 2.0.1 | UTF8 | 1.2.2 | utilitários | 4.1.1 |
| Identificador Único Universal (UUID) | 0.1-4 | VCTRS | 0.3.8 | viridisLite | 0.4.0 |
| vruum | 1.5.5 | Waldo | 0.3.1 | vibrissas | 0.4 |
| murchar | 2.4.2 | xfun | 0,26 | XML2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
| ZIP | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
| ID do Grupo | ID do Artefacto | Versão |
|---|---|---|
| Antlr | Antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (SDK de Java da AWS - escalonamento automático) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-CloudFormation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | AWS Java SDK para CloudSearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (configuração do AWS Java SDK) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache (kit de desenvolvimento de software Java para Elasticache da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (SDK Java para Elastic Beanstalk da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (SDK Java para equilíbrio de carga elástico da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier (Biblioteca de armazenamento Glacier da AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | AWS Java SDK para SES | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK da AWS para Storage Gateway em Java) | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-STS | 1.11.655 |
| com.amazonaws | aws-java-sdk-suporte | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | fluxo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
| com.esotericsoftware | sombreado de kryo | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | colega de turma | 1.3.4 |
| com.fasterxml.jackson.core | jackson-anotações | 2.12.2 |
| com.fasterxml.jackson.core | Jackson-Core | 2.12.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
| com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.12.2 |
| com.github.ben-manes.cafeína | cafeína | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | núcleo | 1.1.2 |
| com.github.fommil.netlib | native_ref-Java | 1.1 |
| com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
| com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
| com.github.fommil.netlib | native_system-java-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-nativos | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-nativos | 1.1 |
| com.github.luben | ZSTD-JNI | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | JSR305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | Goiaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2banco de dados | h2 | 1.4.195 |
| com.helger | gerador de perfis | 1.1.1 |
| com.jcraft | JSCH | 0.1.50 |
| com.jolbox | BoneCP | 0.8.0.LANÇAMENTO |
| com.lihaoyi | código-fonte_2.12 | 0.1.9 |
| com.microsoft.sqlserver | MSSQL-JDBC | 9.2.1.jre8 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK para Azure Data Lake Store) | 2.3.9 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.istack | istack-commons-tempo de execução | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | Json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | Chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuração | 1.2.1 |
| com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
| com.univocity | analisadores de univocidade | 2.9.1 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-cli | commons-cli | 1.2 |
| codec commons | codec commons | 1,15 |
| Commons Collections | Commons Collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload (upload de ficheiros comuns) | commons-fileupload (upload de ficheiros comuns) | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| registo de comuns | registo de comuns | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | ARPACK | 1.3.2 |
| dev.ludovic.netlib | Blas | 1.3.2 |
| dev.ludovic.netlib | Lapack | | 1.3.2 |
| colmeia-2.3__hadoop-3.2 | JETS3T-0,7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.ponte aérea | compressor de ar | 0.19 |
| IO.Delta | delta-compartilhamento-spark_2.12 | 0.1.0 |
| io.dropwizard.metrics | métricas-base | 4.1.1 |
| io.dropwizard.metrics | métricas-grafite | 4.1.1 |
| io.dropwizard.metrics | métricas e verificações de saúde | 4.1.1 |
| io.dropwizard.metrics | métricas-jetty9 | 4.1.1 |
| io.dropwizard.metrics | métricas-jmx | 4.1.1 |
| io.dropwizard.metrics | métricas-json | 4.1.1 |
| io.dropwizard.metrics | métricas do JVM | 4.1.1 |
| io.dropwizard.metrics | Métricas-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.63.Definitivo |
| io.prometeu | cliente simples | 0.7.0 |
| io.prometeu | simpleclient_comum | 0.7.0 |
| io.prometeu | simpleclient_dropwizard | 0.7.0 |
| io.prometeu | simpleclient_pushgateway | 0.7.0 |
| io.prometeu | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recoletor | 0.12.0 |
| jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
| jacarta.servlet | jacarta.servlet-api | 4.0.3 |
| jacarta.validação | Jacarta.validation-api | 2.0.2 |
| jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
| javax.ativação | ativação | 1.1.1 |
| javax.anotação | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | JDO-API | 3.0.1 |
| javax.transaction | JTA | 1.1 |
| javax.transaction | API de transação | 1.1 |
| javax.xml.bind | JAXB-API | 2.2.2 |
| javax.xml.stream | Stax-API | 1.0-2 |
| Javolution | Javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| Joda-Time | Joda-Time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-árvores | colmeia-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | JNA | 5.8.0 |
| net.razorvine | pirolite | 04:30 |
| net.sf.jpam | JPAM | 1.1 |
| net.sf.opencsv | OpenCSV | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
| net.floco de neve | Flocos de Neve-JDBC | 3.13.3 |
| net.floco de neve | faísca-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combinado_tudo | 0.1 |
| org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR Runtime | 3.5.2 |
| org.antlr | antlr4-tempo de execução | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | formiga | 1.9.2 |
| org.apache.ant | ANT-JSCH | 1.9.2 |
| org.apache.ant | lançador de formigas | 1.9.2 |
| org.apache.arrow | formato de seta | 2.0.0 |
| org.apache.arrow | seta-memória-núcleo | 2.0.0 |
| org.apache.arrow | seta-memória-netty | 2.0.0 |
| org.apache.arrow | vetor de seta | 2.0.0 |
| org.apache.avro | Avro | 1.10.2 |
| org.apache.avro | AVRO-IPC | 1.10.2 |
| org.apache.avro | avro-mapeado | 1.10.2 |
| org.apache.commons | commons-compress | 1,20 |
| org.apache.commons | commons-cripto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | commons-texto | 1.6 |
| org.apache.curador | curador-cliente | 2.13.0 |
| org.apache.curador | curador-framework | 2.13.0 |
| org.apache.curador | curador-receitas | 2.13.0 |
| org.apache.derby | Dérbi | 10.14.2.0 |
| org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.1 |
| org.apache.hive | colmeia-abelha | 2.3.9 |
| org.apache.hive | Hive-CLI | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-cliente | 2.3.9 |
| org.apache.hive | colmeia-lamp-comum | 2.3.9 |
| org.apache.hive | Colmeia-Serde | 2.3.9 |
| org.apache.hive | colmeias-calços | 2.3.9 |
| org.apache.hive | API de armazenamento Hive | 2.7.2 |
| org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
| org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
| org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-incubação |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | hera | 2.5.0 |
| org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
| org.apache.orc | orc-núcleo | 1.6.10 |
| org.apache.orc | orc-mapreduce | 1.6.10 |
| org.apache.orc | Orc-calços | 1.6.10 |
| org.apache.parquet | parquet-coluna | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | parquet-comum | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | codificação-parquet | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | parquet-formato-estruturas | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | Parquet-Hadoop | 1.12.0-DATABRICKS-0003 |
| org.apache.parquet | Parquet-Jackson | 1.12.0-DATABRICKS-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.20 |
| org.apache.yetus | anotações de audiência | 0.5.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.2 |
| org.apache.zookeeper | zookeeper-juta | 3.6.2 |
| org.checkerframework | verificador-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | compilador comum | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | DataNucleus Core | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Cliente | 9.4.40.v20210413 |
| org.eclipse.jetty | jetty-continuation (componente de software do Jetty) | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty IO | 9.4.40.v20210413 |
| org.eclipse.jetty | ** jetty-jndi | 9.4.40.v20210413 |
| org.eclipse.jetty | Cais-Plus | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.40.v20210413 |
| org.eclipse.jetty | Segurança do Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | servidor jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-servlet | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-servlets | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-util | 9.4.40.v20210413 |
| org.eclipse.jetty | cais-util-ajax | 9.4.40.v20210413 |
| org.eclipse.jetty | Aplicação web Jetty | 9.4.40.v20210413 |
| org.eclipse.jetty | Jetty-XML | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | API WebSocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-cliente | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-Comum | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.40.v20210413 |
| org.eclipse.jetty.websocket | Websocket-servlet | 9.4.40.v20210413 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | HK2-API | 2.6.1 |
| org.glassfish.hk2 | localizador hk2 | 2.6.1 |
| org.glassfish.hk2 | HK2-Utils | 2.6.1 |
| org.glassfish.hk2 | localizador de recursos OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
| org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-tempo de execução | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (serviço de contêiner Jersey) | 2,34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
| org.glassfish.jersey.core | jersey-cliente | 2,34 |
| org.glassfish.jersey.core | Jersey comum | 2,34 |
| org.glassfish.jersey.core | servidor de jersey | 2,34 |
| org.glassfish.jersey.inject | Jersey-HK2 | 2,34 |
| org.hibernate.validator | hibernate-validator (ferramenta de validação de dados de Java) | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | JDBI | 2.63.1 |
| org.jetbrains | anotações | 17.0.0 |
| org.joda | joda-converter | 1.7 |
| org.jodd | JODD-CORE | 3.5.2 |
| org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
| org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
| org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | LZ4-Java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-cliente | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | PostgreSQL | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | calços | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
| org.scala-lang | Escala-library_2.12 | 2.12.14 |
| org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
| org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de teste | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | Brisa-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-compatível-com-slf4j | 1.7.30 |
| org.slf4j | jul-para-slf4j | 1.7.30 |
| org.slf4j | SLF4J-API | 1.7.30 |
| org.slf4j | SLF4J-Log4J12 | 1.7.30 |
| org.spark-project.spark | não utilizado | 1.0.0 |
| org.springframework | spring-core (núcleo do Spring) | 4.1.4.VERSÃO |
| org.springframework | teste de primavera | 4.1.4.VERSÃO |
| org.threeten | trêsdez-extra | 1.5.0 |
| org.tukaani | XZ | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | gatos-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | maquinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | torre-macros_2.12 | 0,17,0-m1 |
| org.typelevel | torre-platform_2.12 | 0,17,0-m1 |
| org.typelevel | torre-util_2.12 | 0,17,0-m1 |
| org.typelevel | spire_2.12 | 0,17,0-m1 |
| org.wildfly.openssl | mosca-selvagem-openssl | 1.0.7.Final |
| org.xerial | SQLITE-JDBC | 3.8.11.2 |
| org.xerial.snappy | Snappy-java | 1.1.8.4 |
| org.yaml | Snakeyaml | 1,24 |
| ouro | ouro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | íon-java | 1.0.2 |
| Stax | Stax-API | 1.0.1 |