Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Aplica-se a:
Databricks SQL
Databricks Runtime 12.2 e superior
As condições de erro são cadeias de caracteres descritivas legíveis por humanos que são exclusivas do erro que descrevem.
Você pode usar condições de erro para manipular programaticamente erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Esta é uma lista de condições de erro nomeadas comuns retornadas pelo Azure Databricks.
Databricks Runtime e Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Não foi possível executar o comando <statementType> porque os valores DEFAULT não são suportados ao adicionar novas colunas à fonte de dados de destino existente anteriormente pelo fornecedor da tabela: "<dataSource>".
FUNÇÃO_AGREGADA_EM_REFERÊNCIAS_ANINHADAS_NÃO_SUPORTADA
Detetadas funções agregadas em referências <expression> de escopo externo que não são suportadas.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
A expressão não determinística <sqlExpr> não deve aparecer nos argumentos de uma função agregada.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Falhou em analisar a saída do modelo ao fazer casting para o returnType: "<dataType>", a resposta JSON foi: "<responseString>". Por favor, atualize o returnType para corresponder ao conteúdo do tipo representado pela resposta JSON e depois tente novamente a consulta. Exceção: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
A saída do modelo real possui mais de uma coluna "<responseString>". No entanto, o tipo de retorno especificado["<dataType>"] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e, em seguida, tente novamente a consulta.
AI_FUNCTION_HTTP_REQUEST_ERROR
Ocorreu um erro ao fazer uma solicitação HTTP para a função <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Resposta HTTP inválida para a função <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
O número máximo de palavras tem de ser um número inteiro não negativo, mas obteve <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Os parâmetros de modelo fornecidos (<modelParameters>) são inválidos na função de servir o AI_QUERY ponto de extremidade "<endpointName>".
Para mais detalhes, ver AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
Função AI: "<functionName>" requer string válida <format> para responseFormat o parâmetro, mas encontrou o seguinte formato de resposta: "<invalidResponseFormat>". Exceção: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
O erro ocorreu ao analisar a JSON resposta para a função <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Falhou em analisar o esquema para o endpoint de serviço "": <endpointName>, a resposta <errorMessage> foi: "JSON".<responseJson>
Defina o parâmetro returnType manualmente na função AI_QUERY para sobrepor a resolução do esquema.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Falhou a resolução dinâmica da função "<functionName>" do AI Function Registry.
AI_FUNCTION_UNSUPPORTED_ERROR
A função <funcName> não é suportada no ambiente atual. Ele só está disponível em Databricks SQL Pro e Serverless.
AI_FUNCTION_UNSUPPORTED_REQUEST
Falha ao avaliar a função SQL "<functionName>" porque o argumento fornecido de <invalidValue> tem "<invalidDataType>", mas apenas os seguintes tipos são suportados: <supportedDataTypes>. Atualize a chamada de função para fornecer um argumento do tipo string e tente novamente a consulta.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Encontrado formato de resposta não suportado.
Para mais detalhes, consulte a referência AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Função AI: "<functionName>" não suporta o seguinte tipo como tipo de retorno: "<typeName>". O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e suportado pela função AI. Os tipos suportados atualmente incluem: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>" não é suportado pelo argumento "<argName>". Os valores suportados são: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Esperava-se que o tipo de tarefa do endpoint de serviço fosse "Chat" para dar suporte a saídas estruturadas, mas encontrou-se "<taskType>" para o endpoint "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Dado que "<sqlExpr>" não é suportado pelo argumento returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Parâmetros conflitantes detetados para vector_search função SQL: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
A função SQL vector_search com tipo de coluna incorporada <embeddingColumnType> não é suportada.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
A função vector_search SQL está sem o parâmetro de entrada da consulta. Por favor, especifique pelo menos um de: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
O parâmetro query da função SQL vector_search não é suportado para a pesquisa vetorial hybrid. Por favor, use query_text em vez disso.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Texto de consulta não encontrado na função vector_search SQL para pesquisa vetorial hybrid. Por favor, forneça query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search função SQL com tipo de índice <indexType> não é suportada.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector deve ser especificado para o índice <indexName> porque não está associado a um ponto de extremidade de um modelo de incorporação.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Falha ao materializar vector_search consulta de função SQL do tipo Spark <dataType> para objetos nativos Scala durante a codificação de solicitação com erro: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search função SQL com tipo de consulta <unexpectedQueryType> não é suportada. Por favor, especifique um de: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search função SQL com num_results maior que <maxLimit> não é suportada. O limite especificado foi <requestedLimit>. Por favor, tente novamente com num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
O ai_top_drivers parâmetro <param> deve estar entre <lo> e <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers não suporta o <aggName> agregado. Escolha uma das seguintes agregações suportadas: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers não suporta colunas de dimensão numérica, de mapa ou de estrutura. A coluna <colName> tem o tipo <dataType>. Remova esta dimensão ou converta-a para um tipo suportado.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers Requer que o tipo de coluna do rótulo seja booleano. A coluna <colName> tem o tipo <dataType>. Altere a coluna do rótulo ou converta-a para um tipo suportado.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers requer que o tipo de coluna métrica seja numérico. A coluna <colName> tem o tipo <dataType>. Altere a coluna métrica ou converta-a em um tipo suportado.
ALL_PARAMETERS_MUST_BE_NAMED
O uso de consultas parametrizadas de nome requer que todos os parâmetros sejam nomeados. Parâmetros sem nomes: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Não é possível usar todas as colunas como colunas de partição.
ALTER_SCHEDULE_DOES_NOT_EXIST
Não é possível alterar <scheduleType> em uma tabela sem um agendamento ou gatilho existente. Adicione um cronograma ou gatilho à tabela antes de tentar alterá-lo.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> coluna <columnName> especifica o descritor "<optionName>" mais de uma vez, o que é inválido.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
O identificador <name> é ambíguo no CTE aninhado.
Defina <config> como "CORRECTED" para que o nome definido no CTE interno tenha precedência. Se definido como "LEGACY", as definições externas de CTE terão precedência.
Ver 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
A coluna ou campo <name> é ambíguo e encontrou <n> correspondências.
AMBIGUOUS_COLUMN_REFERENCE
A coluna <name> é ambígua. É porque você juntou vários DataFrames, e alguns desses DataFrames são os mesmos.
Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual.
Por favor, atribua nomes diferentes aos DataFrames via DataFrame.alias antes de os juntá-los.
e especifique a coluna usando nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Referência ambígua à restrição <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
O alias da coluna lateral <name> é ambíguo e tem <n> correspondências.
AMBIGUOUS_REFERENCE
A referência <name> é ambígua, poderia ser: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Referência ambígua ao campo <field>. Ocorre <count> vezes no esquema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS não é suportado.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS não é suportado. Contacte a sua equipa de suporte da Databricks para inscrever este espaço de trabalho.
ANSI_CONFIG_CANNOT_BE_DISABLED
A configuração ANSI SQL <config> não pode ser desativada neste produto.
APPEND_ONCE_FROM_BATCH_QUERY
Por favor, use o operador stream().
A criação de uma tabela de streaming a partir de uma consulta em lote impede o carregamento incremental de novos dados da origem. Tabela com erro: '<table>'.
Exemplo de uso:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k espera 1 a 3 discussões, mas obtém <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Os itens máximos maxItemsTrackedrastreados (<maxItemsTracked>) de approx_top_k devem ser menores ou iguais a <limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Os itens máximos maxItemsTrackedrastreados (<maxItemsTracked>) de approx_top_k devem ser maiores ou iguais a k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
O valor de <argName> em approx_top_k deve ser um inteiro positivo, mas obtém <argValue>.
APPROX_TOP_K_NULL_ARG
O valor de <argName> em approx_top_k não pode ser NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Não é permitido combinar approx_top_k esboços de diferentes tamanhos. Encontrei esboços de tamanho <size1> e <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Não é permitido combinar approx_top_k esboços de diferentes tipos. Encontrei esboços de tipos <type1> e <type2>.
AQE_THREAD_INTERRUPTED
O thread AQE é interrompido, provavelmente devido ao cancelamento da consulta pelo usuário.
ARGUMENT_NOT_CONSTANT
A função <functionName> inclui um parâmetro <parameterName> na posição <pos> que requer um argumento constante. Por favor, calcule o argumento <sqlExpr> separadamente e passe o resultado como uma constante.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Se necessário, defina <config> como "false" para ignorar esse erro.
Para mais detalhes, ver ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Esquema inválido de <operation>: esperado <outputTypes>, obteve <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
O artefato <normalizedRemoteRelativePath> já existe. Escolha um nome diferente para o novo artefato porque ele não pode ser substituído.
ASSIGNMENT_ARITY_MISMATCH
O número de colunas ou variáveis atribuídas ou apelidadas: <numTarget> não coincide com o número de expressões de origem: <numExpr>.
AS_OF_JOIN
Junção as-of inválida.
Para mais detalhes, consulte AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Operações que desencadeiam análise ou execução de DataFrame não são permitidas em funções de consulta de pipeline. Mover o código para fora da função de consulta do pipeline.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Não é possível iniciar uma nova transação enquanto uma transação implícita iniciada por SET AUTOCOMMIT=FALSE estiver ativa.
COMMIT ou ROLLBACK a transação atual primeiro e SET AUTOCOMMIT=TRUE antes de iniciar uma nova transação.
AUTOCOMMIT_NOT_SUPPORTED
A AUTOCOMMIT funcionalidade de modo está atualmente em desenvolvimento e ainda não é suportada no Databricks.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT não pode ser acedido ou modificado no Editor SQL legado. Muda para o novo Editor SQL (<docLink>) ou usa um caderno ligado a um armazém SQL do Databricks.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT só pode ser acedido ou modificado em armazéns SQL Databricks.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT não é permitido durante uma transação ativa. Compromete-se ou recue primeiro.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE não é permitido quando AUTOCOMMIT já está desativado. Esta restrição evita confusão e mantém os limites das transações claros.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE não é permitido depois de instruções terem sido executadas numa transação implícita iniciada por SET AUTOCOMMIT=FALSE. Só é permitido imediatamente depois SET AUTOCOMMIT=FALSE (antes de qualquer afirmação), ou depois COMMIT ou ROLLBACK.
AUTO_TTL_COLUMN_NOT_FOUND
Esquema de tabela inválido para Auto-TTL. A coluna <column> Auto-TTL não pode ser encontrada.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
A coluna <column> Auto-TTL tem um tipo <type> que é inválido. O tipo de coluna tem de ser um dos TIMESTAMP, TIMESTAMP_NTZ, ou DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Por favor, contacte o seu representante Databricks para ativar a funcionalidade Auto-TTL.
AUTO_TTL_INCOMPLETE_SETTING
Para definir o Auto-TTL numa tabela, ambas as propriedades autottl.timestampColumn da tabela são autottl.expireInDays necessárias, mas <missing> está em falta.
AUTO_TTL_INVALID_COLUMN_CHANGE
Coluna <column> não pode ser <operation> , pois é usada na definição de Auto-TTL.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
O Auto-TTL não é suportado em tabelas clones superficiais.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
O Auto-TTL não é suportado em tabelas com clones superficiais.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
O Auto-TTL requer que a Otimização Preditiva esteja ativada.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
O Auto-TTL só é suportado em tabelas UC Managed (UC Managed Tables).
AVRO_CANNOT_WRITE_NULL_FIELD
Não é possível gravar valor nulo para o campo <name> definido como tipo <dataType>de dados Avro não nulo.
Para permitir um valor nulo para este campo, especifique o seu esquema avro como um tipo de união com "null" usando a opção avroSchema.
AVRO_DEFAULT_VALUES_UNSUPPORTED
O uso de valores padrão não é suportado quandorescuedDataColumn está habilitado. Talvez seja possível remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue como false, mas os valores padrão não serão aplicados e os valores nulos ainda serão usados.
AVRO_INCOMPATIBLE_READ_TYPE
Não é possível converter Avro <avroPath> para SQL <sqlPath> porque o tipo de dados codificado original é <avroType>, no entanto, você está tentando ler o campo como <sqlType>, o que levaria a uma resposta incorreta.
Para permitir a leitura deste campo, habilite a configuração SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Não é possível chamar a <functionName> função SQL porque a fonte de dados Avro não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-avro' carregado, por exemplo, usando o argumento --packages na linha de comando e, em seguida, tente novamente sua consulta ou comando.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
O uso de correspondência de campo posicional não é suportado quando rescuedDataColumn ou failOnUnknownFields está ativado. Remova essas opções para continuar.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
O fornecedor ou credenciais de chaves Azure estão configurados incorretamente. Motivo: <causedBy>.
BATCH_METADATA_NOT_FOUND
Não foi possível encontrar o lote <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Falha na validação da(s) opção(ões) de fonte de dados do BigQuery.
Para mais detalhes, consulte BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
As credenciais de conexão do BigQuery devem ser especificadas com o parâmetro 'GoogleServiceAccountKeyJson' ou todos os 'projectId', 'OAuthServiceAcctEmail' e 'OAuthPvtKey'.
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> causou transbordamento. Use <functionName> para ignorar o problema de estouro e retornar NULL.
BUILT_IN_CATALOG
<operation> não suporta catálogos incorporados.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
O método <methodName> não pode ser chamado no streaming Dataset/DataFrame.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN não pode alterar o agrupamento de tipos/subtipos de colunas de bucket, mas encontrou a coluna de bucket <columnName> na tabela <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN não é suportado para colunas de partição, mas encontrou a coluna de partição <columnName> na tabela <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
A marca d'água precisa ser definida para reatribuir a coluna de tempo do evento. Falha ao encontrar a definição de marca d'água na consulta de streaming.
CANNOT_CAST_DATATYPE
Não é possível converter <sourceType> para <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Não é possível converter Protobuf <protobufColumn> em SQL <sqlColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Não é possível converter <protobufType> de Protobuf para SQL tipo <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Não é possível converter SQL <sqlColumn> para Protobuf <protobufColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Não é possível converter SQL <sqlColumn> para Protobuf <protobufColumn> porque <data> não está em valores definidos para enum: <enumString>.
CANNOT_COPY_STATE
Não é possível copiar o estado do catálogo, como o banco de dados atual e as exibições temporárias, do Unity Catalog para um catálogo herdado.
CANNOT_CREATE_DATA_SOURCE_TABLE
Falha ao criar a tabela da fonte de dados <tableName>:
Para mais detalhes, consulte CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
O URL fornecido não pode ser decodificado: <url>. Certifique-se de que o URL está formatado corretamente e tente novamente.
CANNOT_DELETE_SYSTEM_OWNED
O <resourceType> de propriedade do sistema não pode ser excluído.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Não é possível eliminar a restrição com o nome <constraintName>, partilhada com uma restrição CHECK.
e uma restrição PRIMARY KEY ou FOREIGN KEY. Você pode soltar o PRIMARY KEY ou
FOREIGN KEY restrição por consultas:
ALTER TABLE ..
DROP PRIMARY KEY ou
ALTER TABLE ..
DROP FOREIGN KEY ..
NÃO_PODE_EXCLUIR_TABELA_BASE_REFERENCIADA_POR_CLONE_RASO
Não é possível soltar a tabela <baseTable> porque ela é referenciada por um ou mais clones superficiais: <cloneList>.
DROP todos os clones superficiais antes de eliminar a tabela base. Se isso não for possível, considere usar 'DROP TABLE...FORCE' para largar a mesa à força.
WARNING: Isso quebrará imediatamente todas as referências de clones superficiais existentes e as tornará inutilizáveis.
CANNOT_ESTABLISH_CONNECTION
Não é possível estabelecer conexão com o banco de dados <jdbcDialectName> remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, verifique a configuração de rede do seu espaço de trabalho e certifique-se de que ele não tenha restrições de saída para o host. Verifique também se o host não bloqueia conexões de entrada da rede onde os clusters Spark do espaço de trabalho estão implantados. ** Mensagem de erro detalhada: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Não é possível estabelecer conexão com o banco de dados <jdbcDialectName> remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o seu host, pois você está usando o Serverless Compute. Se suas políticas de rede não permitirem tráfego de entrada na Internet, use computação sem servidor ou entre em contato com seu representante Databricks para saber mais sobre a rede privada sem servidor. ** Mensagem de erro detalhada: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Não é possível estabelecer <protocol> ligação com <host>. Por favor, verifique a configuração de rede do seu espaço de trabalho e certifique-se de que não tem restrições de saída para o anfitrião. Por favor, verifique também se o host não bloqueia as ligações de entrada da rede onde os clusters do workspace estão implantados.
CANNOT_INVOKE_IN_TRANSFORMATIONS
As transformações e ações do conjunto de dados só podem ser invocadas pelo driver, não dentro de outras transformações do conjunto de dados; Por exemplo, dataset1.map(x => dataset2.values.count() * x) é inválido porque a transformação de valores e a ação de contagem não podem ser realizadas dentro da transformação dataset1.map. Para obter mais informações, consulte SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Erro ao carregar o gestor de arquivos do ponto de verificação de streaming para path=<path>.
Para mais detalhes, ver CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Não é possível carregar a classe <className> ao registrar a função <functionName>, certifique-se de que está no classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Ocorreu um erro durante o estado de carregamento.
Para mais detalhes, consulte CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Falha ao mesclar tipos de dados incompatíveis <left> e <right>. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas para tipos de dados compatíveis antes de tentar a mesclagem.
CANNOT_MERGE_SCHEMAS
Esquemas de mesclagem com falha:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>.
CANNOT_MODIFY_CONFIG
Não é possível modificar o valor da configuração do Spark: <key>.
Ver também «https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements».
CANNOT_MODIFY_STATIC_CONFIG
Não é possível modificar o valor da configuração estática do Spark: <key>.
CANNOT_PARSE_DECIMAL
Não é possível interpretar o decimal. Certifique-se de que a entrada é um número válido com separadores opcionais de vírgula ou vírgula.
CANNOT_PARSE_INTERVAL
Não é possível analisar <intervalString>. Certifique-se de que o valor fornecido está em um formato válido para definir um intervalo. Você pode consultar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.
CANNOT_PARSE_JSON_FIELD
Não é possível analisar o nome <fieldName> do campo e o valor <fieldValue> do JSON tipo <jsonType> de token para o tipo de dado <dataType>Spark alvo.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Erro ao interpretar os bytes do descritor no Protobuf FileDescriptorSet.
CANNOT_PARSE_TIME
A cadeia de caracteres de entrada <input> não pode ser convertida para um valor de hora porque não corresponde ao formato de data e hora <format>.
CANNOT_PARSE_TIMESTAMP
<message>. Use <func> para tolerar cadeia de caracteres de entrada inválida e retornar NULL em vez disso.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Não é possível consultar MV/ST durante a inicialização.
Para mais detalhes, consultar CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Não é possível ler o arquivo no caminho <path> porque ele foi arquivado. Ajuste os filtros de consulta para excluir ficheiros arquivados.
CANNOT_READ_FILE
Não é possível ler o arquivo <format> no caminho: <path>.
Para mais detalhes, consulte CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Não é possível ler a chave sensível '<key>' do provedor seguro.
CANNOT_RECOGNIZE_HIVE_TYPE
Não é possível reconhecer a string do tipo hive: <fieldType>, coluna: <fieldName>. O tipo de dados especificado para o campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e certifique-se de que é um tipo de dados Spark SQL válido. Consulte a documentação do Spark SQL para obter uma lista de tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, certifique-se de que você está usando uma versão suportada do Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Não é possível fazer referência a um <objType> de catálogo Unity em objetos do Hive Metastore.
CANNOT_REMOVE_RESERVED_PROPERTY
Não é possível remover a propriedade reservada: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Não é permitido renomear um <type> entre catálogos.
CANNOT_RENAME_ACROSS_SCHEMA
Não é permitido renomear um <type> entre esquemas.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Não é possível resolver a coluna do quadro de dados <name>. É provavelmente por causa de referências ilegais como df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
Não é possível resolver <targetString>.* com as colunas de entrada dadas <columns>. Verifique se a tabela ou estrutura especificada existe e está acessível nas colunas de entrada.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Falha ao definir permissões no caminho criado <path> voltar para <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Não é possível clonar tabelas superficiais no Unity Catalog e no Hive Metastore.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Não é possível clonar superficialmente uma tabela <table> que tenha o Auto-TTL ativado.
CANNOT_SHALLOW_CLONE_NESTED
Não é possível clonar superficialmente uma tabela <table> que já é um clone superficial.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
O clone raso só é suportado para o tipo de tabela MANAGED. A tabela <table> não é MANAGED tabela.
CANNOT_UPDATE_FIELD
Não é possível atualizar o tipo do campo <table><fieldName>.
Para mais detalhes, veja CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
O particionamento declarado <requestedPartitionColumns> entra em conflito com o particionamento existente de tabela <existingPartitionColumns>.
Por favor, exclua a tabela ou altere o particionamento declarado para corresponder às suas partições.
CANNOT_UP_CAST_DATATYPE
Não é possível converter <expression> de <sourceType> para <targetType>.
<details>
CANNOT_USE_KRYO
Não é possível carregar o codec de serialização Kryo. A serialização do Kryo não pode ser usada no cliente Spark Connect. Use a serialização Java, forneça um Codec personalizado ou use o Spark Classic.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Múltiplos pseudónimos não são suportados na cláusula de marca de água.
NÃO_USAR_NOME_RESERVADO_DE_FORNECEDOR_DE_TRANSMISSÃO
Não é possível usar o nome do provedor de streaming reservado: <providerName>.
CANNOT_VALIDATE_CONNECTION
Não há suporte para a validação da conexão <jdbcDialectName>. Entre em contato com o suporte do Databricks para obter soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
CANNOT_WRITE_STATE_STORE
Erro ao gravar arquivos de armazenamento de estado para o provedor <providerClass>.
Para mais detalhes, ver CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
O valor <expression> do tipo <sourceType> não pode ser convertido para <targetType> porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast para tolerar entradas malformadas e retornar NULL em vez disso.
Para mais detalhes, consulte CAST_INVALID_INPUT
CAST_OVERFLOW
O valor <value> do tipo <sourceType> não pode ser convertido para <targetType> devido a um overflow. Use try_cast para tolerar o excesso e retornar NULL em vez disso.
CAST_OVERFLOW_IN_TABLE_INSERT
Falha em atribuir um valor do tipo <sourceType> à coluna do tipo <targetType> ou à variável <columnName> devido a um overflow. Use try_cast no valor de entrada para tolerar sobrecarga e retornar NULL em vez disso.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
A conversão de catálogo de UC Foreign para UC Standard falhou porque o catálogo contém entidades estrangeiras (até 10 são mostrados aqui): <entityNames>. Para ver a lista completa de entidades estrangeiras neste catálogo, por favor consulte os scripts na 'ALTER CATALOG DROP CONNECTION'documentação de comandos.
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
O catálogo não pode ser convertido de UC Foreign para UC Standard. Apenas <convertableCatalogTypes> catálogos UC estrangeiros podem ser convertidos para UC Standard.
CATALOG_NOT_FOUND
O catálogo <catalogName> não foi encontrado. Considere definir a configuração <config> do SQL como um plug-in de catálogo.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
A criação de tabelas Delta com <feature> recurso de tabela não é permitida. Entre em contato com o suporte da Databricks.
CHECKPOINT_DIR_NOT_SET
O diretório Checkpoint não foi definido no SparkContext.
Por favor, defina com SparkContext.setCheckpointDir().
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
O bloco de verificação <rddBlockId> não foi encontrado!
O executor que originalmente marcou essa partição não está mais vivo ou o RDD original não é mais persistente.
Se esse problema persistir, você pode considerar usar rdd.checkpoint() em vez disso, que é mais lento do que o ponto de verificação local, mas mais tolerante a falhas.
VIOLAÇÃO_DE_RESTRIÇÃO_DE_VERIFICAÇÃO
CHECK restrição <constraintName> <expression> violada pela linha com valores:
<values>
CIRCULAR_CLASS_REFERENCE
Não pode ter referências circulares na classe; mas obteve a referência circular da classe <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> deve substituir <method1> ou <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects não suporta a classe <cls> como coleção resultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Os comandos de Sala Limpa não são suportados
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type> dentro de uma Sala Limpa. Use o nome de um <type> dentro da sala branca, seguindo o formato de [catalog].[schema].[<type>].
Se não tiver certeza sobre qual nome usar, você pode executar "SHOW ALL IN CLEANROOM [clean_room]" e usar o valor na coluna "nome".
CLONING_WITH_HISTORY_INVALID_OPTION
A clonagem com histórico é especificada com uma opção inválida: <invalidOption>.
Sintaxe válida: CREATE (OU REPLACE) TABLE ... PROFUNDO CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Não há suporte para clonagem com histórico.
CLOUD_FILE_ALREADY_EXISTS
O ficheiro na nuvem já existe. Motivo: <causedBy>.
CLOUD_FILE_NOT_FOUND
O ficheiro cloud não foi encontrado. Motivo: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Foi recebida uma notificação de ficheiro para o ficheiro: <filePath> mas já não existe. Certifique-se de que os ficheiros não são eliminados antes de serem processados. Para continuar seu fluxo, você pode definir o <config> de configuração do Spark SQL como true.
CLOUD_PROVIDER_ERROR
Erro do provedor de nuvem: <message>
CLUSTERING_COLUMNS_MISMATCH
O clustering especificado não corresponde ao da tabela existente <tableName>.
Colunas de agrupamento especificadas: [<specifiedClusteringString>].
Colunas de agrupamento existentes: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' não suporta clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Entre em contacto com o seu representante Databricks para ativar a funcionalidade de agrupamento automático.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Habilite clusteringTable.enableClusteringTableFeature para utilizar CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO requer que a Otimização Preditiva esteja ativada.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO só é suportado em tabelas UC Managed.
CODEC_NOT_AVAILABLE
O codec <codecName> não está disponível.
Para mais detalhes, ver CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Não é possível encontrar um nome curto para o codec <codecName>.
COLLATION_INVALID_NAME
O valor <collationName> não representa um nome de agrupamento correto. Nomes de agrupamento válidos sugeridos: [<proposals>].
COLLATION_INVALID_PROVIDER
O valor <provider> não representa um provedor de agrupamento correto. Os fornecedores suportados são: [<supportedProviders>].
COLLATION_MISMATCH
Não foi possível determinar qual agrupamento usar para funções e operadores de cadeia de caracteres.
Para mais detalhes, ver COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Não é possível criar matriz com <numberOfElements> elementos que excedam o limite <maxRoundedArrayLength>de tamanho da matriz,
Para mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Aliases de coluna não são permitidos no <op>.
COLUMN_ALREADY_EXISTS
A coluna <columnName> já existe. Escolha outro nome ou renomeie a coluna existente.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Alguns valores no campo <pos> são incompatíveis com o tipo de matriz de coluna. Tipo esperado <type>.
COLUMN_MASKS_ABAC_MISMATCH
As máscaras de coluna não puderam ser resolvidas em <tableName> porque havia uma incompatibilidade entre máscaras de coluna herdadas de políticas e máscaras de coluna explicitamente definidas. Para continuar, desative o Controle de Acesso Baseado em Atributos (ABAC) e entre em contato com o suporte do Databricks.
COLUMN_MASKS_RESTRIÇÃO_DE_VERIFICAÇÃO_NÃO_SUPORTADA
Não há suporte para a criação de uma restrição CHECK na tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_DUPLICAR_USANDO_NOME_DA_COLUNA
Uma instrução <statementType> tentou atribuir uma política de máscara de coluna a uma coluna que incluía duas ou mais outras colunas referenciadas na lista USING COLUMNS com o mesmo nome <columnName>, o que é inválido.
COLUMN_MASKS_FUNCIONALIDADE_NÃO_SUPORTADA
Não há suporte para políticas de máscara de coluna para <tableName>:
Para mais detalhes, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível <statementType> <columnName> a partir da tabela <tableName> porque é referenciada numa política de máscara de colunas para a coluna <maskedColumn>. O proprietário da tabela deve remover ou alterar esta política antes de prosseguir.
COLUMN_MASKS_FONTE_NÃO_SUPORTADA_MESCLAGEM
As operações MERGE INTO não suportam as políticas de máscara de coluna na tabela de origem <tableName>.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET (Mesclagem de destino não suportada)
As operações MERGE INTO não suportam a gravação na tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_NOME_DA_COLUNA_DE_ALVO_MULTIPARTES
Esta instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName> com múltiplas partes no nome, o que é inválido.
COLUMN_MASKS_MULTI_PART_USANDO_NOME_DE_COLUNA
Esta instrução tentou atribuir uma política de máscara de coluna a uma coluna e a lista de USING COLUMNS incluiu o nome <columnName> com várias partes de nome, o que é inválido.
COLUMN_MASKS_NOT_ENABLED
O suporte para definir máscaras de coluna não está habilitado
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
As políticas de máscara de coluna só são suportadas no Unity Catalog.
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
Não é possível criar um índice ON TABLE <tableName> secundário porque a tabela tem políticas de máscara de coluna definidas.
COLUMN_MASKS_MOSTRAR_PARTIÇÕES_NÃO_SUPORTADAS
O comando SHOW PARTITIONS não é suportado para tabelas<format> com máscaras de coluna.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED (Fonte de clonagem de tabela não suportada)
<mode> clone da tabela <tableName> com políticas de máscara de coluna não é suportado.
COLUMN_MASKS_TABELA_CLONAGEM_ALVO_NÃO_SUPORTADO
Não é suportado clonar <mode> para tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_CONSTANTE_NÃO_SUPORTADA_COMO_PARÂMETRO
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição de máscara de coluna e tente novamente o comando.
COLUMN_MASKS_TIPO_DE_DADO_NÃO_SUPORTADO
Função <functionName> usada como uma política de mascaramento de coluna contém parâmetro com tipo de dados <dataType> não suportado.
COLUMN_MASKS_PROVEDOR_NÃO_SUPORTADO
Falhou ao executar o comando <statementType> porque a atribuição de políticas de máscara de coluna não é suportada na fonte de dados de destino com o provedor de tabela: "<provider>".
COLUMN_MASKS_USANDO_NOME_DE_COLUNA_IGUAL_A_COLUNA_ALVO
A coluna <columnName> tinha o mesmo nome que a coluna de destino, que é inválida; Remova a coluna da lista de USING COLUMNS e tente novamente o comando.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> coluna <colName> não estiver definida na tabela <tableName>, as colunas definidas da tabela são: <tableCols>.
COLUMN_NOT_FOUND
A coluna <colName> não pode ser encontrada. Verifique a ortografia e a correção do nome da coluna de acordo com a configuração do SQL <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
Coluna <columnName> não encontrada na tabela <tableFullName>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Coluna ordinal fora dos limites. O número de colunas na tabela é <attributesLength>, mas o ordinal da coluna é <ordinal>.
Os atributos são os seguintes: <attributes>.
COMANDO_NÃO_ATIVADO
<command> não está habilitado.
COMMA_PRECEDING_CONSTRAINT_ERROR
Inesperado '', antes da definição da(s) restrição(ões). Certifique-se de que a cláusula de restrição não comece com uma vírgula quando as colunas (e expectativas) não estiverem definidas.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
O comando COMMENT ON CONNECTION ainda não foi implementado
COMPARATOR_RETURNS_NULL
O comparador devolveu um NULL para uma comparação entre <firstValue> e <secondValue>.
Ele deve retornar um inteiro positivo para "maior que", 0 para "igual" e um inteiro negativo para "menor que".
Para reverter para um comportamento preterido em que NULL é tratado como 0 (igual), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Não é possível processar tipos de dados de entrada para a expressão: <expression>.
Para mais detalhes, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Outra instância desta consulta [id: <queryId>] acabou de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId> novo runId: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
O número mínimo de slots livres necessários no cluster é <numTasks>, no entanto, o cluster tem apenas <numSlots> slots livres. A consulta será interrompida ou falhará. Aumente o tamanho do cluster para continuar.
CONCURRENT_STREAM_LOG_UPDATE
Atualização simultânea do log. Vários trabalhos de streaming detetados para <batchId>.
Certifique-se de que apenas um trabalho de streaming é executado num local de ponto de verificação específico de cada vez.
CONFIG_NOT_AVAILABLE
A configuração <config> não está disponível.
CONFLICTING_CLUSTER_CONFIGURATION
As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>. Remova essas configurações da configuração do cluster e reinicie o cluster do Spark.
CONFLICTING_DIRECTORY_STRUCTURES
Estruturas de diretórios conflitantes detetadas.
Caminhos suspeitos:
<discoveredBasePaths>
Se os caminhos fornecidos forem diretórios de partição, defina "basePath" nas opções da fonte de dados para especificar o diretório raiz da tabela.
Se houver vários diretórios raiz, carregue-os separadamente e, em seguida, unifique-os.
CONFLICTING_PARTITION_COLUMN_NAMES
Nomes de colunas de partição conflitantes detetados:
<distinctPartColLists>
Para diretórios de tabela particionados, os arquivos de dados devem viver apenas em diretórios folha.
E diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios para arquivos inesperados ou nomes de colunas de partição inconsistentes:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
O nome da coluna da partição '<partitionColumnName>' conflita com o nome da coluna reservada.
O esquema do <tableName> é incompatível com o Hive, o Spark gera automaticamente uma coluna reservada '<partitionColumnName>' para armazenar a tabela de uma maneira específica.
Use um nome diferente para a coluna de partição.
CONFLICTING_PROVIDER
O provedor especificado <provider> é inconsistente com o provedor de catálogo existente <expectedProvider>. Use 'USING <expectedProvider>' e tente novamente o comando.
CONFLICTING_SQL_CONFIGURATION
As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>. Remova essas configurações da configuração do SparkSession.
CONNECT
Erro genérico do Spark Connect.
Para obter mais detalhes, consulte CONNECT
CONNECTION_ALREADY_EXISTS
Não é possível criar a ligação <connectionName> porque ela já existe.
Escolha um nome diferente, solte ou substitua a conexão existente ou adicione a cláusula IF NOT EXISTS para tolerar conexões pré-existentes.
CONNECTION_NAME_CANNOT_BE_EMPTY
Não é possível executar este comando porque o nome da conexão deve estar não vazio.
CONNECTION_NOT_FOUND
Não é possível executar este comando porque o nome da conexão <connectionName> não foi encontrado.
CONNECTION_OPTION_NOT_SUPPORTED
As ligações do tipo '<connectionType>' não suportam a(s) seguinte(s) opção(ões): <optionsNotSupported>. Opções suportadas: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Não é possível criar conexão do tipo '<connectionType>'. Tipos de ligação suportados: <allowedTypes>.
TIPO_DE_CONEXÃO_NÃO_SUPORTADO_PARA_INJEÇÃO_DE_OPÇÕES
A conexão com nome <connectionName> e tipo <connectionType> não é suportada nas opções de dataframe.
TIPO_DE_CONEXÃO_NÃO_SUPORTADO_PARA_FUNÇÃO_DE_CONSULTA_REMOTA
A conexão com o nome '<connectionName>' do tipo '<connectionType>' não é suportada para a execução da função de consulta remota.
CONNECT_INVALID_PLAN
O plano Spark Connect é inválido.
Para mais detalhes, veja CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Erro de migração de sessão genérica (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Para mais detalhes, consulte CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
As restrições de tabela só são suportadas no Unity Catalog.
CONSTRAINT_ALREADY_EXISTS
A restrição '<constraintName>' já existe. Exclua primeiro a restrição existente.
Restrição existente:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
A restrição <constraintName> já existe na base de dados <schemaName>.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Não é possível remover a restrição inexistente <constraintName> da tabela <tableName>.
CONVERSION_INVALID_INPUT
O valor <str> (<fmt>) não pode ser convertido porque <targetType> está malformado. Corrija o valor de acordo com a sintaxe ou altere seu formato. Use <suggestion> para tolerar entradas malformadas e retornar NULL em vez disso.
COPY_INTO_COLUMN_ARITY_MISMATCH
Não é possível escrever para <tableName>, a razão é
Para mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Esquema inválido <scheme>.
COPY INTO credenciais de origem atualmente suportam apenas s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO credenciais de origem devem especificar <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Ficheiros duplicados foram confirmados numa operação COPY INTO simultânea. Tente novamente mais tarde.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Esquema inválido <scheme>.
COPY INTO criptografia de origem atualmente suporta apenas s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO a encriptação suporta apenas ADLS Gen2 ou o protocolo de ficheiro abfss://
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO A encriptação de origem deve especificar '<key>'.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opção de encriptação inválida <requiredKey>.
COPY INTO A criptografia de origem deve especificar '<requiredKey>' = '<keyValue>'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
O COPY INTO recurso '<feature>' não é compatível com '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO exceto pela anexação de dados não pode ser executado simultaneamente com outras transações. Tente novamente mais tarde.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO falhou em carregar o seu estado, número máximo de tentativas excedido.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Uma incompatibilidade de esquema foi detetada durante a cópia para a tabela Delta (Tabela: <table>).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada pela configuração:
COPY_OPTIONS ('mergeSchema' = 'verdadeiro')
Diferença de esquema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
O formato dos ficheiros fonte deve ser CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. O uso de COPY INTO como fonte em tabelas Delta não é suportado, pois dados duplicados podem ser processados após operações de OPTIMIZE. Essa verificação pode ser desativada executando o comando SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
O diretório de origem não continha nenhum arquivo analisável do tipo <format>. Por favor, verifique o conteúdo de '<source>'.
O erro pode ser silenciado definindo '<config>' como 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Ocorreu um erro interno durante o processamento do estado COPY INTO.
Para mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Falha ao analisar o comando COPY INTO.
Para mais detalhes, consulte COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
O COPY INTO recurso '<feature>' não é suportado.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Não é possível descarregar dados no formato '<formatType>'. Os formatos suportados para <connectionType> são: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Não é possível converter a função de catálogo '<identifier>' em uma função SQL devido a informações de função corrompidas no catálogo. Se a função não for uma função SQL, certifique-se de que o nome da classe '<className>' é carregável.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
O comando CREATE FOREIGN SCHEMA ainda não foi implementado
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
O comando CREATE FOREIGN TABLE ainda não foi implementado
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE OU REFRESH MATERIALIZED VIEW não é suportado. Use CREATE OU REPLACE MATERIALIZED VIEW em vez disso.
CREATE_OR_REFRESH_MV_ST_ASYNC
Não é possível CREATE OU REFRESH visualizações materializadas ou tabelas de streaming com ASYNC especificado. Remova ASYNC da instrução CREATE OU REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Não é permitido criar o modo de exibição permanente <name> sem atribuir explicitamente um alias para a expressão <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE coluna <columnName> especifica o descritor "<optionName>" mais de uma vez, o que é inválido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Não é possível criar a visualização <viewName>, a razão é
Para mais detalhes, ver CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Forneça credenciais ao criar ou atualizar locais externos.
CREDENTIAL_PURPOSE_MISMATCH
A credencial <credentialName> tem finalidade <actualPurpose> , mas a finalidade dada no comando é <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
A opção CSV enforceSchema não pode ser definida ao usar rescuedDataColumn ou failOnUnknownFields, pois as colunas são lidas pelo nome em vez de ordinal.
CYCLIC_FUNCTION_REFERENCE
Referência da função cíclica detetada: <path>.
DATABRICKS_DELTA_NOT_ENABLED
O Databricks Delta não está ativado na sua conta.<hints>
DATAFLOW_GRAPH_NÃO_ENCONTRADO
Não foi possível encontrar um gráfico de fluxo de dados com id <graphId>
TipoDeDados_NaoPodeOrdenar
Type <dataType> não suporta operações ordenadas.
DATATYPE_MISMATCH
Não é possível resolver <sqlExpr> devido a incompatibilidade de tipo de dados:
Para mais detalhes, ver DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> requer um parâmetro length, por exemplo <type>(10). Por favor, especifique o comprimento.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Write Lineage sem êxito: falta a relação correspondente com as políticas para CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
A fonte de dados '<provider>' já existe. Escolha um nome diferente para a nova fonte de dados.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
A ligação <connectionName> não é suportada neste contexto porque não tem uma lista externa de opções configurada. Por favor, atualize a ligação para incluir um arquivo válido <optionName>.
DATA_SOURCE_EXTERNAL_ERROR
Erro encontrado ao salvar em fonte de dados externa.
DATA_SOURCE_NOT_EXIST
Fonte de dados '<provider>' não encontrada. Certifique-se de que a fonte de dados está registada.
DATA_SOURCE_NOT_FOUND
Falha ao encontrar a fonte de dados: <provider>. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Falhou a validação das opções da fonte de dados <dataSource>.
Para mais detalhes, consulte DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
A opção <option> não deve estar vazia e não deve conter caracteres inválidos, cadeias de caracteres de consulta ou parâmetros.
DATA_SOURCE_OPTION_IS_REQUIRED
A opção <option> é necessária.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
A opção <optionName> não é permitida pela ligação <connectionName> e não pode ser fornecida externamente.
VALOR_OPÇÃO_FONTE_DE_DADOS_INVÁLIDO
A opção de fonte de dados fornecida '<option>' contém valor inválido ('<value>').
Para mais detalhes, consulte DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
O motor <dataSourceEngine> de origem de dados externo gerou erro de sintaxe durante a execução da consulta '<query>'.
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
O esquema da tabela da fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
Esquema da fonte de dados: <dsSchema>
Esquema esperado: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
O URL JDBC não é permitido nas opções de fonte de dados, especifique as opções 'host', 'port' e 'database'.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Para mais detalhes, ver DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Sobrecarga da operação de data e hora: <operation>.
DC_API_QUOTA_EXCEEDED
Você excedeu a cota da API para a fonte de dados <sourceName>.
Para mais detalhes, consulte DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Falha ao estabelecer uma conexão com a fonte <sourceName>. Código de erro: <errorCode>.
Para mais detalhes, ver DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Ocorreu um erro nas chamadas da API do Dynamics, errorCode: <errorCode>.
Para mais detalhes, ver DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Erro aconteceu em chamadas JDBC Netsuite, errorCode: <errorCode>.
Para mais detalhes, ver DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhum atribuído
Ocorreu uma alteração de esquema na tabela <tableName> da fonte de <sourceName>.
Para mais detalhes, ver DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Ocorreu um erro nas chamadas da API ServiceNow, errorCode: <errorCode>.
Para mais detalhes, ver DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
O carregamento para o objeto <objName> está incompleto porque o trabalho de consulta da API do Salesforce demorou demasiado tempo, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar esta tabela de destino específica. Se o erro persistir, registre um ticket. ID do trabalho: <jobId>. Situação profissional: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Ocorreu um erro em chamadas de API do Sharepoint, errorCode: <errorCode>.
Para mais detalhes, ver DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ocorreu um erro na chamada da API <sourceName>. Tipo de API de origem: <apiType>. Código de erro: <errorCode>.
Às vezes, isso pode acontecer quando você atinge um <sourceName> limite de API. Se você não tiver excedido o limite da API, tente executar novamente o conector. Se o problema persistir, submeta um pedido.
DC_UNSUPPORTED_ERROR
Erro não suportado ocorreu na fonte de dados <sourceName>.
Para mais detalhes, ver DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Ocorreu um erro nas chamadas da API RAAS do Workday, errorCode: <errorCode>.
Para mais detalhes, ver DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
A precisão decimal <precision> excede a precisão máxima <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
O banco de dados padrão <defaultDatabase> não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
DEFAULT_PLACEMENT_INVALID
Uma DEFAULT palavra-chave num MERGE, INSERT, UPDATEcomando , ou SET VARIABLE não podia ser atribuída diretamente a uma coluna alvo porque fazia parte de uma expressão.
Por exemplo: UPDATE SET c1 = DEFAULT é permitido, mas UPDATE T SET c1 = DEFAULT + 1 não é permitido.
DEFAULT_UNSUPPORTED
Falha ao executar o comando <statementType> porque DEFAULT valores não são suportados para a fonte de dados de destino com o provedor de tabela: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Definir um fluxo <flowName> único com a opção 'uma vez' não é suportado.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON Suportado apenas quando [EXTENDED|FORMATTED] é especificado.
Por exemplo: DESCRIBE EXTENDED <tableName> AS JSON é suportado mas DESCRIBE <tableName> AS JSON não é.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
A consulta de streaming foi lida a partir de uma tabela Delta inesperada (id = '<newTableId>').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>') de acordo com o ponto de verificação.
Isso pode acontecer quando alteraste o código para ler de uma nova tabela ou excluíste e
recriou uma tabela. Reverta a alteração ou exclua o ponto de verificação da consulta de streaming
para reiniciar a partir do zero.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Não há suporte para funções de janela distintas: <windowExpr>.
DIVIDE_BY_ZERO
Divisão por zero. Use try_divide para tolerar que o divisor seja 0 e devolva NULL em vez disso. Se necessário, defina <config> como "false" para ignorar esse erro.
Para mais detalhes, ver DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
As expectativas só são suportadas dentro de um pipeline Lakeflow Spark Declarative Pipeline.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED Os VIEWs com uma CLUSTER BY cláusula são suportados apenas num pipeline Lakeflow Spark Declarative Pipeline.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW as localizações são suportadas apenas num pipeline Lakeflow Spark Declarative Pipeline.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW esquemas com um tipo especificado são suportados apenas numa pipeline Lakeflow Spark Declarative Pipeline.
DLT_VIEW_TABLE_CONSTRAINTS_NÃO_SUPORTADO
CONSTRAINT as cláusulas numa vista só são suportadas num pipeline Lakeflow Spark Declarative Pipeliness.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
A função de consulta remota não suporta consultas DML.
DROP_COMMAND_TYPE_MISMATCH
Não é possível largar a <metadataType> com DROP <commandType>.
Use DROP <metadataTypeUpper> em vez disso.
DROP_SCHEDULE_DOES_NOT_EXIST
Não é possível excluir SCHEDULE numa tabela sem uma programação ou disparador existente.
DUPLICATED_CTE_NAMES
A definição de CTE não pode ter nomes duplicados: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Nomes de campos duplicados no Arrow Struct não são permitidos, recebeu <fieldNames>.
DUPLICATED_MAP_KEY
Foi encontrada uma chave de mapa duplicada <key>, por favor, verifique os dados de entrada.
Se você quiser remover as chaves duplicadas, você pode definir <mapKeyDedupPolicy> como "LAST_WIN" para que a chave inserida finalmente tenha precedência.
DUPLICATED_METRICS_NAME
O nome da métrica não é exclusivo: <metricName>. O mesmo nome não pode ser usado para métricas com resultados diferentes.
No entanto, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, auto-junções).
DUPLICATE_ASSIGNMENTS
As colunas ou variáveis <nameList> aparecem mais de uma vez como destinos de atribuição.
DUPLICATE_CLAUSES
Encontradas cláusulas duplicadas: <clauseName>. Por favor, remova um deles.
DUPLICATE_CONDITION_IN_SCOPE
Encontrada condição <condition> duplicada no escopo. Por favor, remova um deles.
DUPLICATE_EXCEPTION_HANDLER
Encontrados manipuladores duplicados. Por favor, remova um deles.
Para mais detalhes, consulte DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Encontrado conf SQL duplicado para o conjunto de dados '<datasetName>': '<key>' é definido por '<flowName1>' e '<flowName2>'
DUPLICATE_KEY
Encontradas chaves duplicadas <keyColumn>.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
A chamada para a rotina <routineName> é inválida porque inclui várias atribuições de argumentos para o mesmo nome de parâmetro <parameterName>.
Para mais detalhes, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Encontrado(s) nome(s) duplicado(s) na lista de parâmetros da rotina definida pelo usuário <routineName>: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Coluna(s) duplicada(s) encontrada(s) na lista de colunas da cláusula RETURNS da rotina definida pelo usuário <routineName>: <columns>.
NOME_DE_VARIÁVEL_DUPLICADO_DENTRO_DE_DECLARE
Variável <variableName> duplicada encontrada na lista de variáveis declaradas. Por favor, remova um deles.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
O nó anterior emitiu uma linha com eventTime=<emittedRowEventTime> que é mais antiga que current_watermark_value=<currentWatermark>
Isso pode levar a problemas de correção nos operadores com estado a jusante no pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor atual da marca d'água global.
EMPTY_JSON_FIELD_VALUE
Falha ao analisar uma cadeia de caracteres vazia para o tipo de dados <dataType>.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Arquivo local vazio na consulta <operation> no ambiente de preparação
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
A fonte de dados <format> não suporta a gravação de esquemas vazios ou esquemas vazios aninhados. Certifique-se de que o esquema de dados tem pelo menos uma ou mais colunas.
ENCODER_NOT_FOUND
Não foi encontrado um codificador do tipo <typeName> para a representação interna do Spark SQL.
Considere alterar o tipo de entrada para um dos suportados em '<docroot>/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
O rótulo final <endLabel> não pode existir sem o rótulo inicial.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Algumas partições nos tópicos do Kafka relatam um deslocamento disponível menor do que o deslocamento final ao executar a consulta com Trigger.AvailableNow. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
Offset mais recente: <latestOffset>, Offset final: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Para a fonte de dados Kafka com Trigger.AvailableNow, o deslocamento final deve ser menor ou igual para cada partição de tópico em comparação com o deslocamento previamente buscado. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
compensação pré-buscada: <prefetchedOffset>, compensação final: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Erro ao ler dados avro -- encontrou uma impressão digital desconhecida: <fingerprint>, não tenho certeza de qual esquema usar.
Isso pode acontecer se registares esquemas adicionais depois de iniciares o teu contexto Spark.
EVENT_LOG_EMPTY
O log de eventos para <tableOrPipeline> não tem esquema e não contém eventos. Tente novamente mais tarde depois que os eventos forem gerados
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Não é possível consultar logs de eventos de um cluster compartilhado atribuído ou sem isolamento, use um cluster compartilhado ou um armazém SQL Databricks.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
A EVENT_LOG função Table-Valued não é suportada para pipelines que usam o campo 'esquema' ou que publicam no armazenamento predefinido.
Para consultar o log de eventos, publique-o no metastore especificando o campo event_log nas configurações do pipeline.
Para mais informações, consulte a documentação de pipelines declarativos do Monitor Lakeflow Spark: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
Não há logs de eventos disponíveis para <tableOrPipeline>. Tente novamente mais tarde depois que os eventos forem gerados
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
O tipo de tabela de <tableIdentifier> é <tableType>.
Consultar registos de eventos apenas suporta vistas materializadas, tabelas de streaming ou pipelines Lakeflow Spark Declarative Pipeline
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
A hora do evento <eventName> possui um tipo <eventType> inválido, mas o esperado era "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Excede a limitação de comprimento do tipo char/varchar: <limit>.
EXCEL_DATA_SOURCE_NOT_ENABLED
A fonte de dados do Excel não está habilitada neste cluster.
EXCEL_FILE_ERROR
Erro ao processar o arquivo do Excel '<filePath>'.
Para mais detalhes, consulte EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Valor de opção de leitura inválido para fonte de dados do Excel.
Para mais detalhes, consulte EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
A fonte de dados do Excel não suporta o valor '<value>' para a opção de gravação '<option>'.
Para mais detalhes, ver EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_INVALID_WRITE_SCHEMA
A fonte de dados do Excel não oferece suporte ao esquema '<schema>' para escrita.
<hint>
EXCEL_PARSING_ERROR
Erro ao analisar dados do Excel.
Para mais detalhes, ver EXCEL_PARSING_ERROR
OPÇÃO_DE_ESCRITA_NÃO_SUPORTADA_NO_EXCEL
A fonte de dados do Excel não suporta a opção de gravação '<option>'.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT coluna <columnName> foi resolvida e esperava-se que fosse do tipo StructType, mas foi encontrado o tipo <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
As colunas em uma lista EXCEPT devem ser distintas e não sobrepostas, mas têm (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
As EXCEPT colunas [<exceptColumns>] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>] da expansão da estrela.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
O nome da coluna/campo <objectName> na cláusula EXCEPT não pode ser resolvido. Queria dizer um dos seguintes: [<objectList>]?
Nota: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna da estrutura pai, etc.) durante uma expansão de estrutura. Tente remover os qualificadores se eles forem usados com colunas aninhadas.
EXECUTOR_DISK_OUT_OF_SPACE
Disco executor fora do espaço. Por favor, aumente a capacidade do disco, se disponível. Se estiver a usar Serverless, por favor contacte a nossa equipa de suporte.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
A cláusula USING deste comando EXECUTE IMMEDIATE continha vários argumentos com o mesmo alias (<aliases>), o que é inválido; Atualize o comando para especificar aliases exclusivos e tente novamente.
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' espera uma mesa permanente, mas <tableName> é uma mesa temporária. Em vez disso, especifique uma tabela permanente.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' espera uma visão permanente, mas <viewName> é uma visão temporária.
EXPECT_TABLE_NOT_VIEW
'<operation>' espera uma tabela, mas <viewName> é uma vista.
Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
A tabela <tableName> não suporta <operation>.
Para mais detalhes, consulte EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Falha ao decodificar uma linha para um valor das expressões: <expressions>.
EXPRESSION_ENCODING_FAILED
Falha ao codificar um valor das expressões: <expressions> para uma linha.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
A expressão <expr> não pode ser traduzida para expressão v2.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão de coluna <expr> não pode ser classificada porque seu tipo <exprType> não é ordenável.
EXTERNAL_METASTORE_CLIENT_ERROR
Falha na operação do cliente:
Para mais detalhes, ver EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Falha ao executar a operação na tabela <sourceTable> de origem porque o clone <targetTable> superficial ainda existe e seu status é inválido. Se pretender realmente continuar com esta operação, limpe o clone superficial executando o comando DROP explicitamente.
EXTERNAL_TABLE_INVALID_SCHEME
As tabelas externas não suportam o <scheme> esquema.
FABRIC_REFRESH_INVALID_SCOPE
Erro ao executar 'REFRESH FOREIGN <scope> <name>'. Não é possível repor um tecido <scope> diretamente, use 'REFRESH FOREIGN CATALOG <catalogName>' para repor o Catálogo de Tecido.
FAILED_EXECUTE_UDF
Função definida pelo utilizador (<functionName>: (<signature>) => <result>) falhou devido a: <reason>.
FAILED_FUNCTION_CALL
Falha na preparação da função <funcName> para a chamada. Por favor, verifique os argumentos da função.
FAILED_JDBC
Falha do JDBC <url> na operação:
Para mais detalhes, ver FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Falha na interpretação da estrutura: <raw>.
FAILED_READ_FILE
Erro ao ler o arquivo <path>.
Para mais detalhes, ver FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Falha ao registrar classes com Kryo.
FAILED_RENAME_PATH
Falha ao renomear <sourcePath> para <targetPath>, pois o destino já existe.
FAILED_RENAME_TEMP_FILE
Falha ao renomear o ficheiro temporário <srcPath> para <dstPath> pois FileSystem.rename retornou falso.
FAILED_ROW_TO_JSON
Falhou a conversão do valor <value> da linha da classe <class> para o tipo <sqlType> SQL alvo no JSON formato.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Falhou a criação de um plano para consulta direta nos ficheiros: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Falha ao carregar a rotina <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
A instrução, incluindo possíveis funções SQL e exibições referenciadas, era muito complexa para ser analisada.
Para atenuar esse erro, divida a instrução em várias partes menos complexas.
FEATURE_NOT_ENABLED
O recurso <featureName> não está habilitado. Considere definir a configuração <configKey> para <configValue> para ativar este recurso.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> não é suportado em armazéns SQL clássicos. Para usar esse recurso, use um SQL warehouse Pro ou Serverless.
FEATURE_REQUIRES_UC
<feature> não é suportado sem o Unity Catalog. Para usar esse recurso, ative o Unity Catalog.
FEATURE_UNAVAILABLE
<feature> não é suportado no seu ambiente. Para usar esse recurso, entre em contato com o Suporte da Databricks.
FETCH_FAILED
Tarefa falhada ao buscar dados ou metadados de embaralhamento: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
O controle de acesso refinado (FGAC) na computação dedicada falhou devido à seguinte exceção: <message>
FIELD_ALREADY_EXISTS
Não é possível modificar a coluna <op>, porque <fieldNames> já existe no <struct>.
FIELD_NOT_FOUND
Não existe tal campo de estrutura <fieldName> em <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Arquivo no caminho de preparação <path> já existe, mas OVERWRITE não está definido
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Não é permitido consultar a fonte de dados <source> na computação sem servidor. Na computação sem servidor, apenas as fontes de dados <allowlist> são suportadas.
Palavra-chave proibida na consulta JDBC
A opção <queryOption> de consulta não pode conter palavras-chave proibidas. Remova as seguintes palavras-chave da consulta: <keywords>
FORBIDDEN_OPERATION
A operação <statement> não é permitida no <objectType>: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>
FOREACH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>
FOREIGN_KEY_MISMATCH
As colunas de referência de chave estrangeira <parentColumns> não correspondem às colunas referenciadas de chave primária <childColumns>.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Não é possível executar este comando porque o nome do <objectType> estrangeiro deve não estar vazio.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
A tabela não é elegível para upgrade de UC Foreign para UC External. Reason:
Para mais detalhes, consulte FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
O objeto <objectName> não é elegível para conversão para uma vista UC Managed (UC Managed view). Reason:
Para mais detalhes, veja FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
A inferência 'from_json' encontrou atualizações de esquema conflitantes em: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json encontrou columnNameOfCorruptRecord presente (<columnNameOfCorruptRecord>)
num JSON objeto e já não pode avançar. Configure um valor diferente para
a opção 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
A inferência de from_json não pôde ler o esquema armazenado em: <location>
FROM_JSON_INFERENCE_FAILED
from_json foi incapaz de inferir o esquema. Por favor, forneça um em vez disso.
FROM_JSON_INFERENCE_NOT_SUPPORTED
A inferência from_json só é suportada ao definir tabelas de streaming
FROM_JSON_INVALID_CONFIGURATION
from_json configuração é inválida:
Para mais detalhes, consulte FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json não podia evoluir de <old> para <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
A função <function> requer parâmetros nomeados. Parâmetros sem nomes: <exprs>. Por favor, atualize a chamada de função para adicionar nomes a todos os parâmetros, por exemplo, <function>(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName> tem valor padrão: (<defaultValue>) e expressão de geração: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
O Hive 2.2 e versões inferiores não suportam getTablesByType. Use o Hive 2.3 ou versão superior.
GET_WARMUP_TRACING_FAILED
Falha ao obter rastreamento de inicialização. Causa: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
A função get_warmup_tracing() não é permitida.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocolo de grafite inválido: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
O lavatório de grafite requer a propriedade '<property>'.
GROUPING_COLUMN_MISMATCH
Não é possível encontrar a coluna de agrupamento (<grouping>) nas colunas de agrupamento <groupingColumns>.
GROUPING_ID_COLUMN_MISMATCH
As colunas de grouping_id (<groupingIdColumn>) não correspondem às colunas de agrupamento (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>.
GROUP_BY_AGGREGATE
Funções agregadas não são permitidas em GROUP BYmas foram encontradas em <sqlExpr>.
Para mais detalhes, consulte a secção GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> refere-se a uma expressão <aggExpr> que contém uma função agregada. Funções agregadas não são permitidas em GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY posição <index> não está na lista de seleção (intervalo válido é [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão <sqlExpr> não pode ser usada como uma expressão de agrupamento porque seu tipo de dados <dataType> não é um tipo de dados ordenável.
HDFS_HTTP_ERROR
Ao tentar ler a partir do HDFS, a solicitação HTTP falhou.
Para mais detalhes, ver HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
A opção hint não é suportada na <jdbcDialect> fonte de dados JDBC. Os dialetos suportados são MySQLDialect, OracleDialect e DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
A consulta ou o comando não pôde ser executado porque a configuração 'spark.databricks.hive.metastore.tablePlaceholderPath' forneceu um caminho de espaço reservado inválido para a tabela Hive Metastore. Atualize essa configuração com um novo valor para fornecer um caminho válido e, em seguida, execute novamente a consulta ou o comando novamente.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
A consulta ou o comando falhou porque o caminho do espaço reservado da tabela do Hive Metastore não está definido, o que é necessário quando o local do esquema está no DBFS e o local da tabela é um objeto/arquivo. Defina spark.databricks.hive.metastore.tablePlaceholderPath como um caminho ao qual você tenha acesso e, em seguida, execute novamente a consulta ou o comando novamente.
HLL_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>; apenas são suportados buffers de esboço HLL válidos como entradas (tais como os produzidos pela função hll_sketch_agg).
HLL_INVALID_LG_K
Chamada inválida para <function>; O valor lgConfigK deve estar entre <min> e <max>, inclusive: <value>.
HLL_K_MUST_BE_CONSTANT
Chamada inválida para <function>; o K valor deve ser um valor constante, mas obteve uma expressão não constante.
HLL_UNION_DIFFERENT_LG_K
Os esboços têm valores de lgConfigK diferentes: <left> e <right>. Defina o parâmetro allowDifferentLgConfigK como true para chamar <function> com valores de lgConfigK diferentes.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
O caminho de clone superficial '<path>' não pôde ser resolvido para uma tabela no Unity Catalog. Verifique se a tabela existe e está federada ao Catálogo Unity.
HYBRID_ANALYZER_EXCEPTION
Ocorreu uma falha ao tentar resolver uma consulta ou comando com o analisador de ponto fixo herdado e com o resolvedor de passagem única.
Para mais detalhes, consulte HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> não é um identificador válido, pois tem mais do que partes do <limit> nome.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Opção de gerador de sequência de coluna IDENTITY duplicada: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY passo da coluna não pode ser 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType> não é suportado para colunas IDENTITY.
ILLEGAL_DAY_OF_WEEK
Entrada ilegal para o dia da semana: <string>.
ILLEGAL_STATE_STORE_VALUE
Valor ilícito fornecido ao Armazenamento de Estado
Para mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
A conexão não pode ser criada devido ao esquema inadequado de URI <uri> fornecido para a opção de conexão '<option>'.
Regime(s) permitido(s): <allowedSchemes>.
Adicione um esquema se ele não estiver presente no URI ou especifique um esquema a partir dos valores permitidos.
INCOMPARABLE_PIVOT_COLUMN
Coluna de pivot inválida <columnName>. As colunas dinâmicas devem ser comparáveis.
LEITURA_INCOMPATÍVEL_DE_VISUALIZAÇÃO_DE_LOTE
View <datasetIdentifier> é uma exibição em lote e deve ser referenciada usando SparkSession#read. Essa verificação pode ser desabilitada definindo Spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_COLUMN_TYPE
<operator> só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber> da tabela <tableOrdinalNumber> é do tipo <dataType1>, o que não é compatível com <dataType2> na coluna correspondente da primeira tabela.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Detetado um DataSourceRegister incompatível. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Não é possível gravar dados incompatíveis para a tabela <tableName>:
Para mais detalhes, consulte INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Os tipos de junção <joinType1> e <joinType2> são incompatíveis.
INCOMPATIBLE_STREAMING_VIEW_READ
View <datasetIdentifier> é uma exibição de streaming e deve ser referenciada usando SparkSession#readStream. Essa verificação pode ser desabilitada definindo Spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
A consulta SQL da vista <viewName> tem uma alteração de esquema incompatível e a coluna <colName> não pode ser resolvida. Esperavam-se <expectedNum> colunas com o nome <colName>, mas foram recebidas <actualCols>.
Tente recriar a visualização executando: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Tipo complexo incompleto:
Para mais detalhes, veja: INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Você poderá obter um resultado diferente devido à atualização para
Para mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> Requer pelo menos <minArgs> argumentos e, no máximo <maxArgs> , argumentos.
INCORRECT_RAMP_UP_RATE
Max offset com <rowsPerSecond> rowsPerSecond é <maxSeconds>, mas 'rampUpTimeSeconds' é <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Não foi possível determinar qual agrupamento usar para operação de cadeia de caracteres. Use a cláusula COLLATE para definir o agrupamento explicitamente.
INDETERMINATE_COLLATION_IN_EXPRESSION
O tipo de dados <expr> tem agrupamento indeterminado. Use a cláusula COLLATE para definir o agrupamento explicitamente.
INDETERMINATE_COLLATION_IN_SCHEMA
O esquema contém agrupamento indeterminado em: [<columnPaths>]. Use a cláusula COLLATE para definir o agrupamento explicitamente.
INDEX_ALREADY_EXISTS
Não é possível criar o índice <indexName> na tabela <tableName> porque ele já existe.
INDEX_NOT_FOUND
Não é possível encontrar o índice <indexName> na tabela <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> está desativado ou sem suporte. As funções do INET ainda não estão disponíveis publicamente.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Não há suporte para o tipo de gatilho <trigger> para esse tipo de cluster.
Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Não é possível escrever para <tableName>, a razão é
Para mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Não é possível escrever em '<tableName>', <reason>:
Colunas da tabela: <tableColumns>.
Colunas de partição com valores estáticos: <staticPartCols>.
Colunas de dados: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Todas as colunas na USING cláusula devem aparecer na mesma posição nos esquemas de destino e de origem.
USING não há suporte para cláusulas que contenham colunas desalinhadas.
As seguintes colunas estão desalinhadas: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
A tabela deve ser particionada e todas as colunas especificadas devem representar o conjunto completo das colunas de partição da tabela.
As seguintes colunas não são colunas de partição: <nonPartitionColumns>
As seguintes colunas de partições estão faltando: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Por favor, contacte o seu representante Databricks para ativar a INSERT INTO...REPLACE USING funcionalidade (...)
INSUFFICIENT_PERMISSIONS
Privilégios insuficientes:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
O utilizador <user> não tem privilégios suficientes para a localização externa <location>.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Não há dono para <securableName>. Peça ao administrador para definir um proprietário.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
O utilizador não possui <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
O utilizador não tem permissão <action> em <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
O proprietário de <securableName> é diferente do proprietário de <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
O cliente não tem permissão para definir um tempo limite de retenção personalizado para os resultados do CloudFetch.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
A credencial de armazenamento <credentialName> tem privilégios insuficientes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
O utilizador não pode <action> em <securableName> devido às permissões em seguráveis subjacentes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
O utilizador não pode <action> em <securableName> devido às permissões nos objetos de segurança subjacentes.
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Estouro de número inteiro durante a operação com intervalos.
Para obter mais detalhes, consulte INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Divisão por zero. Use try_divide para tolerar que o divisor seja 0 e devolva NULL em vez disso.
INVALID_AGGREGATE_FILTER
A expressão FILTER<filterExpr> em uma função agregada é inválida.
Para mais detalhes, consulte INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Encontrado um codificador agnóstico inválido. Esperava uma instância de AgnosticEncoder, mas obteve <encoderType>. Para mais informações consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_ARRAY_INDEX
O índice <indexValue> está fora dos limites. A matriz tem <arraySize> elementos. Use a função SQL get() para permitir o acesso a um elemento em um índice inválido e retornar NULL em seu lugar.
Para mais detalhes, ver INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
O índice <indexValue> está fora dos limites. A matriz tem <arraySize> elementos. Use try_element_at para permitir o acesso a um elemento em um índice inválido e retornar NULL em vez disso.
Para mais detalhes, ver INVALID_ARRAY_INDEX_IN_ELEMENT_AT (Índice de array inválido no elemento em)
INVALID_ARTIFACT_PATH
Artefacto com nome <name> é inválido. O nome deve ser um caminho relativo e não pode fazer referência a diretórios de pais/irmãos/sobrinhos.
INVALID_ATTRIBUTE_NAME_SYNTAX
Erro de sintaxe no nome do atributo: <name>. Verifique se os backticks aparecem em pares, que uma sequência de texto entre aspas seja uma parte completa do nome e use um backtick apenas dentro das partes do nome entre aspas.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
O número de dias especificado para Auto-TTL deve ser não negativo.
INVALID_AWS_AUTHENTICATION
Escolha exatamente um dos seguintes métodos de autenticação:
Forneça o nome da sua credencial de serviço Databricks (
<serviceCredential>) (como uma opção de fluxo de faísca ou como uma variável de ambiente de cluster).Forneça a AWS AccessKey (
<awsAccessKey>) e a SecretAccessKey (<awsSecretKey>) para usar chaves da AWS.Não forneça as chaves da AWS nem uma credencial de serviço Databricks para usar a cadeia padrão do provedor de credenciais da AWS para autenticação do Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Forneça o nome da sua credencial de serviço Databricks (<serviceCredential>)
OU ambos <awsAccessKey> e <awsSecretKey>
INVALID_BITMAP_POSITION
A posição <bitPosition> no bitmap com índice 0 está fora dos limites. O bitmap tem <bitmapNumBits> bits (<bitmapNumBytes> bytes).
INVALID_BOOLEAN_STATEMENT
É esperada uma declaração booleana na condição, mas <invalidStatement> foi encontrado.
INVALID_BOUNDARY
O limite <boundary> é inválido: <invalidValue>.
Para mais detalhes, ver INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Não é possível usar <type> para coluna de bucket. Não há suporte para tipos de dados agrupados para bucketing.
CONTAGEM_DE_BALDE_INVÁLIDA
O número de buckets deve ser maior que 0, mas menor ou igual a bucketing.maxBuckets (<bucketingMaxBuckets>). Entendi <numBuckets>.
INVALID_BUCKET_FILE
Arquivo de bucket inválido: <path>.
INVALID_BYTE_STRING
O formato esperado é ByteString, mas era <unsupported> (<class>).
INVALID_CIDR_RANGE
A função <functionName> recebeu um intervalo CIDR inválido: <value>.
INVALID_CLONE_SESSION_REQUEST
Pedido de clone de sessão inválido.
Para mais detalhes, veja INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
A fonte de dados <datasource> não pode salvar a coluna <columnName> porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Por favor, use um alias para renomeá-lo.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Coluna ou campo <name> é do tipo <type>, mas deverá ser <expectedType>.
INVALID_CONF_VALUE
O valor '<confValue>' na configuração "<confName>" é inválido.
Para mais detalhes, ver INVALID_CONF_VALUE
CARACTERÍSTICAS_INVÁLIDAS_DE_RESTRIÇÃO
As características de restrição [<characteristics>] são duplicadas ou entram em conflito entre si.
INVALID_CORRUPT_RECORD_TYPE
A coluna <columnName> para registos corrompidos deve ter o tipo anulável STRING, mas tem <actualType>.
INVALID_CURRENT_RECIPIENT_USAGE
A função current_recipient só pode ser usada na instrução CREATE VIEW ou na instrução ALTER VIEW para definir uma visualização apenas de partilha no Unity Catalog.
INVALID_CURSOR
O cursor é inválido.
Para obter mais informações, consulte INVALID_CURSOR
FORMATO_DE_FONTE_DE_DADOS_INVÁLIDO_PARA_INJEÇÃO_DE_OPÇÕES_DE_CONEXÃO
A conexão com nome <connectionName> e tipo <connectionType> não suporta o formato <actualFormat>. Formato suportado: <expectedFormat>.
TENTATIVA_INVALIDA_DE_SUBSTITUICAO_DA_OPCAO_DO_FONTE_DE_DADOS
A opção <optionName> já existe na conexão <connectionName> e não pode ser substituída.
INVALID_DATETIME_PATTERN
Padrão datetime não reconhecido: <pattern>.
Para mais detalhes, ver INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
O suporte DBFS não pode ser acedido.
Para mais detalhes, veja INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> não é suportado para a chave de configuração SQL <confKey>
INVALID_DEFAULT_VALUE
Falha ao executar <statement> comando porque a coluna de destino ou variável <colName> tem um valor DEFAULT<defaultValue>,
Para mais detalhes, ver INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valor inválido para delimitador.
Para mais detalhes, ver INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
O catálogo de destino do comando SYNC deve estar dentro do Unity Catalog. Encontrado <catalog>.
INVALID_DRIVER_MEMORY
A memória do sistema <systemMemory> deve ser pelo menos <minSystemMemory>.
Aumente o tamanho da pilha usando a opção --driver-memory ou "<config>" na configuração do Spark.
OPÇÕES_INVÁLIDAS_DE_DROP_TABLE
Não é possível especificar as opções PURGE e FORCE no comando DROP TABLE. Utilize ou PURGE ou FORCE, mas não ambos.
INVALID_DYNAMIC_OPTIONS
As opções passadas <option_list> são proibidas para a tabela estrangeira <table_name>.
INVALID_EMPTY_LOCATION
O nome do local não pode ser cadeia de caracteres vazia, mas <location> foi dado.
CONFIGURAÇÕES_AMBIENTAIS_INVÁLIDAS_DEPENDÊNCIAS
O parâmetro de dependências de configurações de ambiente está ausente ou não pôde ser analisado em uma lista de cadeias de caracteres. Formato esperado: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Esta versão de runtime não suporta uma versão de ambiente para fontes de dados. Valor: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Declaração de condição inválida.
Para mais detalhes, ver INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Encontrada uma cadeia de escape inválida: <invalidEscape>. A cadeia de escape deve conter apenas um caractere.
INVALID_ESCAPE_CHAR
EscapeChar deveria ser uma string literal de comprimento um, mas recebeu <sqlExpr>.
INVALID_EXECUTOR_MEMORY
A memória do executor <executorMemory> deve ser pelo menos <minSystemMemory>.
Aumente a memória do executor usando a opção --executor-memory ou "<config>" na configuração do Spark.
INVALID_EXPRESSION_ENCODER
Encontrado um codificador de expressão inválido. Espera uma instância de ExpressionEncoder, mas obteve <encoderType>. Para mais informações consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
O tipo de expressão deve ser do tipo string mas obteve <exprType>.
INVALID_EXTERNAL_TYPE
O tipo externo <externalType> não é válido para o tipo <type> na expressão <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
Não é possível extrair um valor de <base>. Preciso de um tipo complexo [STRUCT, ARRAY, MAP] mas já tenho <other>.
INVALID_EXTRACT_FIELD
Não é possível extrair <field> de <expr>.
INVALID_EXTRACT_FIELD_TYPE
O nome do campo deve ser uma cadeia de caracteres literal não nula, mas é <extraction>.
INVALID_FIELD_NAME
O nome do campo <fieldName> é inválido: <path> não é uma struct.
INVALID_FLOW_QUERY_TYPE
Flow <flowIdentifier> retorna um tipo de relação inválido.
Para mais detalhes, consulte INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
O formato é inválido: <format>.
Para mais detalhes, veja INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
O intervalo válido para segundos é [0, 60] (inclusive), mas o valor fornecido é <secAndMicros>. Para evitar este erro, use try_make_timestamp, que retorna NULL em caso de erro.
Se não quiser usar a versão padrão de timestamp da sessão desta função, utiliza try_make_timestamp_ntz ou try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Uso inválido da GETDIAGNOSTICS instrução.
Para mais detalhes, ver INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Uso inválido da GETDIAGNOSTICS instrução. O único valor suportado para um número de condição na GETDIAGNOSTICS instrução é 1.
INVALID_HANDLE
O identificador <handle> é inválido.
Para mais detalhes, ver INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Declaração de manipulador inválida.
Para mais detalhes, consulte INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
O parâmetro de entrada: método, valor: <paramValue> não é um parâmetro válido para http_request porque não é um método HTTP válido.
INVALID_HTTP_REQUEST_PATH
O parâmetro de entrada: path, value: <paramValue> não é um parâmetro válido para http_request porque a travessia de caminho não é permitida.
INVALID_IDENTIFIER
O identificador não citado <ident> é inválido e deve ser novamente citado como: <ident>.
Os identificadores não citados só podem conter ASCII letras ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e sublinhado ('_').
Os identificadores não cotados também não devem começar com um dígito.
Diferentes fontes de dados e meta-armazenamentos podem impor restrições adicionais a identificadores válidos.
INVALID_INDEX_OF_ZERO
O índice 0 é inválido. Um índice deve ser 0 < 0 or > (o primeiro elemento tem índice 1).
INVALID_INLINE_TABLE
Tabela embutida inválida.
Para mais detalhes, ver INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Erro ao analisar '<input>' para intervalo. Certifique-se de que o valor fornecido está em um formato válido para definir um intervalo. Você pode consultar a documentação para o formato correto.
Para mais detalhes, ver INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Não é possível adicionar um intervalo a uma data porque sua parte de microssegundos não é 0. Para resolver isto, converta a data de entrada num timestamp, que suporta a adição de intervalos com microssegundos não zerados.
INVALID_IP_ADDRESS
A função <functionName> recebeu um endereço IP inválido: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
A função <functionName> recebeu um endereço IP inválido ou intervalo CIDR: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> não é um identificador válido do Java e não pode ser usado como nome de campo
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
A opção <optionKey> não é um parâmetro válido para esta conexão jdbc.
INVALID_JDBC_CONNECTION_OPTION_VALUE
A opção <optionKey> com um valor <optionValue> não é uma opção válida para esta conexão jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH
Tipo de junção inválido em joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Falhou a conversão da JSON cadeia '<invalidType>' para um tipo de dado. Introduza um tipo de dados válido.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
As colações só podem ser aplicadas a tipos de cadeia, mas o tipo de JSON dados é <jsonType>.
INVALID_JSON_RECORD_TYPE
Detetou um tipo inválido de registo JSON ao inferir um esquema comum no modo <failFastMode>. Esperava um tipo STRUCT, mas encontrei <invalidType>.
INVALID_JSON_ROOT_FIELD
Não é possível converter JSON o campo raiz para o tipo Spark alvo.
INVALID_JSON_SCHEMA_MAP_TYPE
O esquema de entrada <jsonSchema> só pode conter STRING como um tipo de chave para um MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
O valor da configuração "<bufferSizeConfKey>" deve ser inferior a 2048 MiB, mas foi recebido <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
O objeto '<obj>' é inválido ou malformado para <serdeOp> ao usar <serdeClass>.
INVALID_LABEL_USAGE
O uso do rótulo <labelName> é inválido.
Para mais detalhes, ver INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Chamada de função lambda inválida.
Para mais detalhes, consulte INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
O <joinType>JOIN com a correlação LATERAL não é permitido porque uma subconsulta OUTER não pode ser correlacionada com o seu parceiro de junção. Remova a correlação LATERAL ou use um INNERJOINou LEFT OUTERJOIN em vez disso.
INVALID_LIMIT_LIKE_EXPRESSION
O limite como expressão <expr> é inválido.
Para mais detalhes, ver INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Para mais detalhes, ver INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Nome inválido '<name>' no comando <command>. Motivo: <reason>
INVALID_NON_ABSOLUTE_PATH
O caminho não absoluto fornecido <path> não pode ser qualificado. Atualize o caminho para um local de montagem dbfs válido.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
O literal numérico <rawStrippedQualifier> está fora do intervalo válido de <typeName> com valor mínimo de <minValue> e valor máximo de <maxValue>. Por favor, ajuste o valor em conformidade.
INVALID_OBSERVED_METRICS
Métricas observadas inválidas.
Para mais detalhes, consultar INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opções inválidas:
Para mais detalhes, ver INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
A função agregada pandas UDF <functionList> não pode ser invocada simultaneamente com outras funções agregadas não-pandas.
INVALID_PARAMETER_MARKER_VALUE
Um mapeamento de parâmetros inválido foi fornecido:
Para mais detalhes, consulte INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
O valor do(s) parâmetro(s) <parameter> em <functionName> é inválido:
Para mais detalhes, ver INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Não é possível usar <type> para coluna de partição.
INVALID_PARTITION_OPERATION
O comando partition é inválido.
Para mais detalhes, ver INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Não foi possível converter o valor <value> para o tipo de dados <dataType> para a coluna de partição <columnName>. Verifique se o valor corresponde ao tipo de dados esperado para esta coluna de partição.
INVALID_PIPELINE_ID
A identificação do pipeline <pipelineId> não é válida.
Um ID de pipeline deve ser um UUID no formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
INVALID_PRIVILEGE
Privilege <privilege> não é válido para <securable>.
INVALID_PROPERTY_KEY
<key> é uma chave de propriedade inválida, por favor, use aspas, por exemplo, SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> é um valor de propriedade inválido, por favor, use aspas, por exemplo, SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
O nome da coluna <columnName> é inválido porque não é qualificado com um nome de tabela ou consiste em mais de 4 partes de nome.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
A consulta parametrizada deve usar parâmetros posicionais ou nomeados, mas não ambos.
INVALID_RECURSIVE_CTE
Definição recursiva inválida encontrada. As consultas recursivas devem conter uma UNION ou uma UNION ALL declaração com 2 filhos. O primeiro filho precisa ser o termo âncora sem referências recursivas. Qualquer CTE interno de nível superior não deve conter autorreferências.
INVALID_RECURSIVE_REFERENCE
Referência recursiva inválida encontrada dentro WITH RECURSIVE da cláusula.
Para mais detalhes, ver INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Não foi possível executar regexp_replace para origem = "<source>", padrão = "<pattern>", substituição = "<replacement>" e posição = <position>.
INVALID_RESETTABLE_DEPENDENCY
As tabelas <upstreamResettableTables> são reiniciáveis, mas têm uma dependência não reiniciável a jusante '<downstreamTable>'.
reset falhará, pois o Spark Streaming não suporta dados de origem excluídos. Você pode remover a propriedade <resetAllowedKey>=false de '<downstreamTable>' ou adicioná-la às suas dependências antecedentes.
INVALID_RESET_COMMAND_FORMAT
O formato esperado é 'RESET' ou 'RESET tecla'. Se quiser incluir caracteres especiais em tonalidade, por favor use aspas, por exemplo, RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL quando o manipulador não está ativo.
RESIGNAL só pode ser usada dentro do corpo do manipulador de exceções.
INVALID_S3_COPY_CREDENTIALS
COPY INTO as credenciais devem incluir AWS_ACCESS_KEY, AWS_SECRET_KEY, e AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
O modo de salvamento especificado <mode> é inválido. Os modos de gravação válidos incluem "adicionar", "sobrescrever", "ignorar", "erro", "erro se existir" e "padrão".
INVALID_SCHEMA
O esquema de entrada <inputSchema> não é uma cadeia de caracteres de esquema válida.
Para mais detalhes, veja INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres do alfabeto, números e _.
TIPO_DE_ESQUEMA_INVÁLIDO_NESTRURAL
Tipo de esquema inválido. Espere um tipo struct, mas tem <dataType>.
INVALID_SCHEME
O catálogo Unity não suporta <name> como o esquema de arquivo padrão.
INVALID_SECRET_LOOKUP
Consulta de segredo inválida:
Para mais detalhes, ver INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
O formato esperado é 'SET', 'SET chave', ou 'SET chave=valor'. Se quiser incluir caracteres especiais em tonalidade, ou incluir ponto e vírgula no valor, por favor use aspas, por exemplo, SET key=value.
INVALID_SHARED_ALIAS_NAME
O <sharedObjectType> nome do alias deve ter a forma "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
O esquema <schema> especificado pelo usuário é inválido quando a opção está habilitada singleVariantColumn . O esquema deve ser um campo variante ou um campo variante mais um campo de coluna corrompido.
INVALID_SOURCE_CATALOG
O catálogo de origem não deve estar dentro do Unity Catalog para o comando SYNC. Encontrado <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
A fonte da operação do serviço MERGE de filtragem só pode conter projeções e filtros.
Ajuste o MERGE comando ou use uma tabela de preparo como fonte.
<stmt>
INVALID_SPARK_CONFIG
Configuração inválida do Spark:
Para mais detalhes, ver INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Valor inválido SQLSTATE : '<sqlState>'.
SQLSTATE deve ter exatamente 5 caracteres e conter apenas A-Z e 0-9.
SQLSTATE não deve começar com «00», «01» ou «XX».
INVALID_SQL_ARG
O argumento <name> de sql() é inválido. Considere substituí-lo por um literal SQL ou por funções construtoras de coleção, como map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
Não é possível criar uma função SQL com CONTAINS SQL que acede a uma tabela/vista ou a uma função SQL que leia dados SQL. Por favor, use READS SQL DATA em vez disso.
INVALID_SQL_SYNTAX
Sintaxe SQL inválida:
Para mais detalhes, ver INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Caminho de staging inválido na consulta de staging <operation>: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
A cláusula INTO de EXECUTE IMMEDIATE só é válida para consultas, mas a instrução dada não é uma consulta: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
A declaração ou cláusula: <operation> não é válida.
INVALID_STREAMING_RATE_SOURCE_VERSION
Versão inválida para a origem da taxa: <version>. A versão deve ser 1 ou 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
O intervalo de gatilho em tempo real é definido como <interval> ms. Isso é menor do que os <minBatchDuration> ms mínimos especificados por spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
O intervalo de ponto de verificação de <interval> do gatilho em tempo real não pôde ser analisado. Verifique se introduziu um número inteiro positivo.
INVALID_SUBQUERY_EXPRESSION
Subconsulta inválida:
Para mais detalhes, ver INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> não suporta <tableName>. Por favor, use ALTER <targetTableType>...<command> em vez disso.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES não suporta <tableName>. Por favor, use ALTER <targetTableType>...SET TBLPROPERTIES em vez disso.
INVALID_TEMP_OBJ_REFERENCE
Não é possível criar o objeto persistente <objName> do tipo <obj> porque ele faz referência ao objeto temporário <tempObjName> do tipo <tempObj>. Torne o objeto temporário <tempObjName> persistente ou torne o objeto persistente <objName> temporário.
INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp> fornecido não corresponde à sintaxe <format>esperada.
INVALID_TIMEZONE
O fuso horário: <timeZone> é inválido. O fuso horário deve ser um identificador de zona baseado em região ou um deslocamento de zona. Os IDs de região devem ter o formato 'área/cidade', como 'América/Los_Angeles'. Os deslocamentos de zona devem estar no formato '(+|-)HH', '(+|-)HH:mm' ou '(+|-)HH:mm:ss', por exemplo '-08', '+01:00' ou '-13:33:33', e devem estar no intervalo de -18:00 a +18:00. 'Z' e 'UTC' são aceites como sinónimos de '+00:00'.
INVALID_TIME_TRAVEL_SPEC
Não é possível especificar a versão e o carimbo de data/hora quando a tabela percorre o tempo.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
A expressão de marca temporal de viagem no tempo <expr> é inválida.
Para mais detalhes, ver INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
O valor do literal <valueType> digitado é inválido: <value>.
INVALID_UDF_IMPLEMENTATION
Function <funcName> não implementa um ScalarFunction ou AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> a tabela de origem está no Hive Metastore e a tabela de destino está no Unity Catalog.
INVALID_URL
O url é inválido: <url>. Use try_parse_url para tolerar a URL inválida e retornar NULL em vez disso.
INVALID_USAGE_OF_STAR_OR_REGEX
Uso inválido de <elem> em <prettyName>.
INVALID_UTF8_STRING
Sequência de bytes UTF8 inválida encontrada na string: <str>.
INVALID_UUID
O <uuidInput> de entrada não é um UUID válido.
O UUID deve ter o formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
Por favor, verifique o formato do UUID.
INVALID_VARIABLE_DECLARATION
Declaração de variável inválida.
Para mais detalhes, consulte INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
O valor da variante <value> não pode ser convertido em <dataType>. Por favor, use try_variant_get em vez disso.
INVALID_VARIANT_FROM_PARQUET
Variante inválida.
Para obter mais detalhes, verifique INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
O caminho <path> não é um caminho de extração de variante válido no <functionName>.
Um caminho válido deve começar com $ e é seguido por zero ou mais segmentos como [123], .name, ['name'], ou ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
O esquema <schema> não é um esquema de destruição de variante válido.
INVALID_WHERE_CONDITION
A condição WHERE<condition> contém expressões inválidas: <expressionList>.
Reescreva a consulta para evitar funções de janela, funções de agregação e funções de gerador na cláusula WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Não é possível especificar ORDER BY ou uma moldura de janela para <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Função <funcName> inválida com WITHIN GROUP.
Para obter mais detalhes, consulte INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
O gerador da fonte de dados gerou um número inválido de mensagens de commit. Esperava exatamente uma mensagem de commit de cada tarefa, mas recebeu <detail>.
INVALID_WRITE_DISTRIBUTION
A distribuição de gravação solicitada é inválida.
Para mais detalhes, ver INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
Houve um erro ao ligar-se ao host IRC, impossível vender credenciais para a tabela <tableIdentifier>.
Para mais detalhes, veja IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
Falha ao executar <command>. Saída do comando:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Falha ao executar <command>.
ISOLATION_ENVIRONMENT_ERROR
Falhei em instalar dependências de ambiente devido <name> a um erro do sistema.
Para mais detalhes, veja ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Falhou a instalação de dependências de ambiente para <name>.
Para mais detalhes, veja ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Erro de sintaxe do mecanismo externo JDBC. O erro foi causado pela consulta <jdbcQuery>.
<externalEngineError>.
Para mais detalhes, consulte JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
A condição <joinCondition> de junção tem o tipo <conditionType> inválido, o esperado é "BOOLEAN".
KAFKA_DATA_LOSS
Alguns dados podem ter sido perdidos porque já não estão disponíveis em Kafka;
ou os dados foram removidos pelo Kafka ou o tópico pode ter sido excluído antes de todos os dados estarem no
tópico foi processado.
Se você não quiser que sua consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Reason:
Para mais detalhes, ver KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Não foi possível ler até o número de sequência desejado <endSeqNum> para o fragmento <shardId> em
Kinesis Stream <stream> com o modo de consumidor <consumerMode>. A consulta falhará devido a
potencial perda de dados. O último registro lido foi no número sequencial <lastSeqNum>.
Isso pode acontecer se os dados com endSeqNum já tiverem sido envelhecidos, ou se o fluxo do Kinesis tiver sido afetado por algum outro motivo.
suprimido e reconstruído com o mesmo nome. O comportamento de falha pode ser substituído
definindo spark.databricks.kinesis.failOnDataLoss como false na configuração do spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
Para o fluxo de kinesis <streamId>, o consumidor EFO <consumerId> anteriormente registado no fluxo foi excluído.
Reinicie a consulta para que um novo consumidor seja registrado.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Para o estilhaço <shard>, a chamada anterior da API subscribeToShard foi feita dentro dos 5 segundos anteriores à próxima chamada.
Reinicie a consulta após 5 segundos ou mais.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
O shardId mínimo obtido do Kinesis (<fetchedShardId>)
é menor do que o shardId mínimo registado (<trackedShardId>).
Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,
e uma consulta de streaming usando esse fluxo do Kinesis é reiniciada usando um local de ponto de verificação existente.
Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.
KINESIS_POLLING_MODE_UNSUPPORTED
O modo de sondagem do Kinesis não é suportado.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Para o estilhaço <shard>, o último registo lido do Kinesis em buscas anteriores tem número de sequência <lastSeqNum>,
que é maior do que o registro lido na busca atual com número de sequência <recordSeqNum>.
Isso é inesperado e pode acontecer quando a posição inicial de nova tentativa ou próxima busca é inicializada incorretamente e pode resultar em registros duplicados a jusante.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Para ler a partir de Fluxos de Kinesis com configurações de consumo (consumerName, consumerNamePrefix, ou registeredConsumerId), consumerMode deve ser efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Para ler a partir do Kinesis Streams com consumidores registrados, você deve especificar as opções registeredConsumerId e registeredConsumerIdType.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Para ler do Kinesis Streams, deve-se configurar uma (mas não ambas) das opções streamName ou streamARN como uma lista de nomes de fluxos/ARNs separada por vírgulas.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Para ler a partir do Kinesis Streams com consumidores registados, não configure as opções consumerName ou consumerNamePrefix, pois elas não terão efeito.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
O número de IDs de consumidor registrados deve ser igual ao número de fluxos do Kinesis, mas obteve <numConsumerIds> IDs de consumidor e fluxos de <numStreams>.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
O consumidor registrado <consumerId> fornecido não pode ser encontrado para streamARN <streamARN>. Verifique se registou o consumidor ou, caso contrário, não forneça a opção registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
O tipo de consumidor registado <consumerType> é inválido. Deve ser name ou ARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
Para a função <functionName>, não é possível fundir esboços KLL: <reason>
KLL_SKETCH_INVALID_INPUT
Para a função <functionName>, dados binários de esboço KLL inválidos: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Para a função <functionName>, o valor do quantil deve estar entre 0,0 e 1,0 (inclusive), mas obtém <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
Para a função <functionName>, o parâmetro k deve ser um valor constante, mas obteve uma expressão não constante.
KLL_SKETCH_K_OUT_OF_RANGE
Para a função <functionName>, o k parâmetro deve estar entre 8 e 65535 (inclusive), mas obteve <k>.
KRYO_BUFFER_OVERFLOW
Falha na serialização do Kryo: <exceptionMsg>. Para evitar isso, aumente o valor "<bufferSizeConfKey>".
LABELS_MISMATCH
O rótulo de início <beginLabel> não corresponde ao rótulo final <endLabel>.
ETIQUETA_OU_PARA_VARIÁVEL_JÁ_EXISTE
O rótulo ou a FOR variável <label> já existe. Escolha outro nome ou renomeie o existente.
N/A
O rótulo ou FOR nome <label> da variável é proibido.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
A fonte de dados de federação do Lakehouse '<provider>' requer a versão mais recente do Databricks Runtime.
Para mais detalhes, consulte LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN com funções de tabela definidas pelo utilizador otimizadas para Arrow (UDTFs) não são suportadas. As setas UDTF não podem ser utilizadas no lado direito de uma junção lateral.
Em vez disso, use um UDTF regular ou reestruture sua consulta para evitar a junção lateral.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE Sem um prestador, não é permitido.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA caminho de entrada não existe: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL deve ser usado juntamente com o esquema de file, mas obteve: <actualSchema>.
LOCATION_ALREADY_EXISTS
Não é possível nomear a tabela gerenciada como <identifier>, pois seu local associado <location> já existe. Escolha um nome de tabela diferente ou remova primeiro o local existente.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Algumas das partições no(s) tópico(s) Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
Partições de tópico para o offset mais recente: <tpsForLatestOffset>, partições de tópico para o offset final: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Mensagens Avro malformadas são detetadas na desserialização de mensagens. Modo de análise: <mode>. Para processar uma mensagem Avro malformada como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVE'.
MALFORMED_CHARACTER_CODING
Valor inválido encontrado ao executar <function> com <charset>
MALFORMED_CSV_RECORD
Registro CSV malformado: <badRecord>
MALFORMED_LOG_FILE
O ficheiro de log foi malformado: falha em ler a versão de log correta do <text>.
MALFORMED_PROTOBUF_MESSAGE
Mensagens Protobuf malformadas são detetadas na desserialização de mensagens. Modo de análise: <failFastMode>. Para processar a mensagem protobuf malformada como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVE'.
MALFORMED_RECORD_IN_PARSING
Registros malformados são detetados na análise de registros: <badRecord>.
Modo de análise: <failFastMode>. Para processar registros malformados como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVE'.
Para mais detalhes, consulte MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Estado malformado na fonte RatePerMicroBatch.
Para mais detalhes, consulte MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
O binário variante está malformado. Verifique se a fonte de dados é válida.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Tentei ativar o clustering líquido numa tabela Managed Apache Iceberg sem desativar tanto os vetores de eliminação como o rastreio de linhas. Vetores de eliminação e rastreamento de linhas não são suportados para tabelas Apache Iceberg Geridas, mas são necessários para concorrência ao nível das linhas com tabelas Líquidas. Para permitir o agrupamento líquido numa tabela Apache Iceberg gerida com controlo reduzido de concorrência, os vetores de eliminação e o rastreamento de linhas devem ser desativados para esta tabela.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
As tabelas gerenciadas do Apache Iceberg não suportam <operation>.
MANAGED_TABLE_WITH_CRED
Não há suporte para a criação de tabela gerenciada com credencial de armazenamento.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Não é possível <refreshType> a exibição materializada porque a mesma é anterior a ter um pipelineId. Para habilitar o <refreshType>, elimine e recrie a visualização materializada.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Não é possível criar a visualização materializada com <refreshPolicy> a política de atualização porque não é suportada para atualização incremental. Reason:
Para mais detalhes, veja MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
A operação de visualização materializada <operation> não é permitida:
Para mais detalhes, consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
A expressão de saída <expression> em uma vista materializada deve ser explicitamente associada.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Visualização materializada <name> não pôde ser criada com consulta de streaming. Por favor, use CREATE [OR REFRESH] STREAMING TABLE ou remova a STREAM palavra-chave da sua FROM cláusula para transformar esta relação numa consulta em lote.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Atualmente, a Operação <operation> não é suportada em visões materializadas.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Não é possível criar a nova variável <variableName> porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch precisa ser um inteiro positivo menor ou igual a <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>; apenas buffers de esboços MCV válidos são suportados como entradas (como os produzidos pela mcv_collect_internal função).
MERGE_CARDINALITY_VIOLATION
A condição de pesquisa ON da instrução MERGE correspondeu a uma única linha da tabela de destino e a várias linhas da tabela de origem.
Isso pode resultar na execução de operações na linha de destino mais de uma vez com uma operação de atualização ou exclusão, o que não é permitido.
MERGE_WITHOUT_WHEN
Deve haver pelo menos uma cláusula WHEN numa declaração MERGE.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT não está habilitado.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>" não é suportado pelo argumento "<argName>" para a METRIC_STORE função de tabela.
Para mais detalhes, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
A rotina <routineName> do Metric Store está atualmente desativada neste ambiente.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
A definição de visualização métrica contém uma junção com um critério ambíguo: <expr>. Use os critérios de união ou qualifique explicitamente as using colunas com o alias <sourceAlias>.
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
A visualização métrica não tem permissão para usar tabelas de cache.
METRIC_VIEW_FEATURE_DISABLED
O recurso de visualização métrica está desativado. Certifique-se de que "spark.databricks.sql.metricView.enabled" está definido como true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
A função MEASURE() usa apenas um atributo como entrada, mas tem <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
A definição de exibição métrica é inválida. Motivo: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
A visualização métrica não é permitida nas definições de CTE. Plano: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
A visualização métrica não tem permissão para usar junções. Plano: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
As materializações de visualização métrica estão desativadas. Certifique-se de que "spark.databricks.sql.metricView.materializations.enabled" está definido como true.
MATERIALIZAÇÕES_VISTA_MÉTRICA_NÃO_AGREGADAS_COM_VISTA_MÉTRICA
A materialização não agregada não é suportada quando a visualização métrica faz referência a outras visualizações métricas.
METRIC_VIEW_MATERIALIZATION_ON_TEMPORARY_VIEW_NOT_SUPPORTED (Materialização da visão métrica em visão temporária não é suportada)
A materialização não é suportada em visualizações métricas temporárias.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
A materialização não é suportada para vistas métricas que contenham expressões dependentes do invocador. Estas expressões impedem a reutilização da materialização.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> as colunas de medida não podem ser usadas em GROUP BY cláusulas ou como valores categóricos. Recomendamos envolvê-los com uma função agregada como SUM() para o comportamento esperado.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
O uso da coluna de medida <column> de uma exibição métrica requer uma função MEASURE() para produzir resultados.
METRIC_VIEW_NOT_MATERIALIZED
Chamado comando visualização materializada na vista métrica sem materializações definidas
Para mais detalhes, veja METRIC_VIEW_NOT_MATERIALIZED
VISUALIZAÇÃO_MÉTRICA_NÃO_SUPORTADA_NO_HMS
As visualizações métricas não são suportadas no HMS.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
A visualização métrica <oldName> não tem permissão para ser renomeada para um catálogo ou esquema diferente: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
O recurso de junção de flocos de neve da visualização métrica está desativado. Certifique-se de que "spark.databricks.sql.metricView.snowflake.join.enable" está definido como true.
METRIC_VIEW_UNSUPPORTED_USAGE
Não há suporte para o uso da visualização métrica. Plano: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
A visualização métrica não está autorizada a usar a função de janela <expr>.
METRIC_VIEW_YAML_V11_DISABLED
A visualização métrica YAML v1.1 está desativada. Certifique-se de que "spark.databricks.sql.metricView.yaml.v11.enabled" está definido como true.
MIGRATION_NOT_SUPPORTED
<table> não é suportado para migrar para a tabela gerenciada por UC porque não é uma <tableKind> tabela.
Certifique-se de que a tabela que está sendo migrada é uma tabela delta externa de UC e
ele é referenciado por seu nome em vez de caminho.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> não é suportado para migração de tabela gerida para tabela externa porque não é uma tabela <tableKind>.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
A fonte de dados Kafka no Trigger.AvailableNow deve fornecer as mesmas partições de tópico do deslocamento pré-buscado até o deslocamento final para cada microlote. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.
partições de tópico para offset pré-buscado: <tpsForPrefetched>, partições de tópico para offset final: <tpsForEndOffset>.
MISSING_AGGREGATION
A expressão não agregadora <expression> baseia-se em colunas que não participam na cláusula GROUP BY.
Adicione as colunas ou a expressão ao GROUP BY, agregue a expressão ou use <expressionAnyValue> se você não se importar com qual dos valores dentro de um grupo é retornado.
Para mais detalhes, ver MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
O catálogo <plugin> não suporta
Para mais detalhes, veja MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Cláusula em falta <clauses> para a operação <operation>. Por favor, adicione as cláusulas necessárias.
MISSING_CONNECTION_OPTION
As ligações do tipo '<connectionType>' devem incluir a(s) seguinte(s) opção(ões): <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
O nome do banco de dados não é especificado no catálogo de sessões v1. Certifique-se de fornecer um nome de banco de dados válido ao interagir com o catálogo v1.
MISSING_GROUP_BY
A consulta não inclui uma cláusula GROUP BY. Adicione GROUP BY ou transforme-o nas funções de janela usando cláusulas OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK restrição deve ter um nome.
MISSING_PARAMETER_FOR_KAFKA
O parâmetro <parameterName> é necessário para Kafka, mas não é especificado em <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
O parâmetro <parameterName> é obrigatório, mas não é especificado em <functionName>.
MISSING_SCHEDULE_DEFINITION
Deve ser fornecida uma definição de calendário após SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
A operação atingiu o tempo limite, mas nenhum prazo de tempo limite está configurado. Para definir um tempo limite baseado no tempo de processamento, use 'GroupState.setTimeoutDuration()' na operação 'mapGroupsWithState' ou 'flatMapGroupsWithState'. Para tempo limite baseado no tempo dos eventos, use 'GroupState.setTimeoutTimestamp()' e defina uma marca d'água usando 'Dataset.withWatermark()'.
MISSING_WINDOW_SPECIFICATION
A especificação da janela não está definida na cláusula WINDOW para <windowName>. Para obter mais informações sobre WINDOW cláusulas, consulte '<docroot>/sql-ref-syntax-qry-select-window.html'.
MODIFY_BUILTIN_CATALOG
Não é suportada a modificação do catálogo pré-definido <catalogName>.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Não há suporte para fluxo com nome de várias partes '<flowName>'.
MULTIPLE_EXCEL_DATA_SOURCE
Detetaram múltiplas fontes de dados Excel com o nome <provider> (<sourceNames>). Especifique o nome da classe totalmente qualificada ou remova-<externalSource> do classpath.
MULTIPLE_LOAD_PATH
O Databricks Delta não suporta vários caminhos de entrada na API load().
caminhos: <pathList>. Para criar um único DataFrame carregando
vários caminhos da mesma tabela Delta, por favor, carregue o caminho raiz de
a tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
Se são provenientes de diferentes tabelas Delta, utilize as APIs union()/unionByName() do Dataset
para combinar os DataFrames gerados por chamadas de API load() separadas.
MULTIPLE_MATCHING_CONSTRAINTS
Encontrado pelo menos duas restrições correspondentes com a condição dada.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> e <clause2> não pode coexistir no mesmo operador de pipe SQL usando '|>'. Separe as várias cláusulas de resultado utilizando operadores de pipe distintos e, depois, volte a executar a consulta.
MULTIPLE_TIME_TRAVEL_SPEC
Não é possível especificar a viagem no tempo na cláusula e nas opções de viagem no tempo.
MULTIPLE_XML_DATA_SOURCE
Detetaram múltiplas fontes de dados com o nome <provider> (<sourceNames>). Especifique o nome da classe totalmente qualificada ou remova-<externalSource> do classpath.
MULTI_ALIAS_WITHOUT_GENERATOR
O aliasing de várias partes (<names>) não é suportado com <expr> pois não é uma função geradora.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
A expressão <expr> não suporta mais de uma fonte.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
A coluna <measureColumn> de medida na vista métrica não pode referenciar colunas de dimensão (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
A referência <measureColumn> não qualificada da coluna de medida na vista métrica multi-fonte não é permitida. Por favor, qualifique a coluna de medidas com o pseudónimo de origem.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
A expressão de agregação sobre múltiplas fontes na vista métrica não é suportada: <expr>.
MULTI_UDF_INTERFACE_ERROR
Não é permitido implementar várias interfaces UDF, classe UDF <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Cláusulas ou opções mutuamente exclusivas <clauses>. Por favor, remova uma destas cláusulas.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
A consulta de entrada espera um <expectedType>, mas a tabela subjacente é um <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Os parâmetros nomeados não são suportados para a função <functionName>; Em vez disso, tente novamente a consulta com argumentos posicionais para a chamada de função.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Não é possível chamar a função <functionName> porque as referências de argumento nomeado não são suportadas. Neste caso, a referência de argumento nomeada foi <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Não é possível chamar a função <functionName> porque as referências de argumento nomeado não estão habilitadas aqui.
Neste caso, a referência de argumento nomeada foi <argument>.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
NAMESPACE_ALREADY_EXISTS
Não é possível criar o namespace <nameSpaceName> porque já existe.
Escolha um nome diferente, solte o namespace existente ou adicione a cláusula IF NOT EXISTS para tolerar namespace pré-existente.
NAMESPACE_NOT_EMPTY
Não é possível soltar um namespace <nameSpaceNameName> porque ele contém objetos.
Use DROP NAMESPACE...CASCADE para eliminar o namespace e todos os seus objetos.
NAMESPACE_NOT_FOUND
O namespace <nameSpaceName> não pode ser encontrado. Verifique a ortografia e a correção do namespace.
Se você não qualificou o nome com, verifique a saída current_schema() ou qualifique o nome com o corretamente.
Para tolerar o erro na queda use DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Falha na solicitação nativa. requestId: <requestId>, nuvem: <cloud>, operação: <operation>
solicitação: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
Erro: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
A Fonte de Dados XML Nativa não está habilitada neste cluster.
NEGATIVE_SCALE_DISALLOWED
Não é permitida uma escala negativa: «<scale>». Defina a configuração <sqlConf> como "true" para permiti-la.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Encontrou o valor negativo em <frequencyExpression>: <negativeValue>, mas esperava um valor integral positivo.
NESTED_AGGREGATE_FUNCTION
Não é permitido usar uma função agregada no argumento de outra função agregada. Utilize a função de agregação interna numa subconsulta.
NESTED_EXECUTE_IMMEDIATE
Não são permitidos comandos EXECUTE IMMEDIATE aninhados. Certifique-se de que a consulta SQL fornecida (<sqlString>) não contenha outro comando EXECUTE IMMEDIATE.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Detetaram referências <expression> ao âmbito externo na subconsulta lateral que não é suportada. Por favor, certifique-se de que a subconsulta lateral não contém subconsultas que referenciam atributos de escopos externos aninhados.
Referências nestadas em subconsulta não são suportadas
Detetadas referências <expression> de escopo externo na subconsulta que não são suportadas.
VIOLAÇÃO_DE_CONSTRANGIMENTO_DE_VERIFICAÇÃO_NOVA
A nova restrição de verificação (<expression>) não pode ser adicionada porque seria violada pelos dados existentes na tabela <tableName>. Certifique-se de que todas as linhas existentes satisfaçam a restrição antes de adicioná-la.
NONEXISTENT_FIELD_NAME_IN_LIST
O(s) campo(s) <nonExistFields> do(s) não existe(m). Campos disponíveis: <fieldNames>
CONSTRAINTE_DE_VERIFICAÇÃO_NÃO_DETERMINÍSTICA
A restrição <checkCondition> de verificação não é determinística. As restrições de verificação devem conter apenas expressões determinísticas.
NON_FOLDABLE_ARGUMENT
A função <funcName> requer que o parâmetro <paramName> seja uma expressão dobrável do tipo <paramType>, mas o argumento real é um não-dobrável.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma declaração MERGE, apenas a última cláusula MATCHED pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma declaração MERGE, apenas a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED [BY TARGET] em uma declaração MERGE, apenas a última cláusula NOT MATCHED [BY TARGET] pode omitir a condição.
NON_LITERAL_PIVOT_VALUES
É necessário expressões literais para valores de pivô, detectadas em <expression>.
NON_PARTITION_COLUMN
PARTITION cláusula não pode conter a coluna não-partição: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
A função de janela não é suportada no <windowFunc> (como coluna <columnName>) no streaming de DataFrames/Datasets.
O Streaming Estruturado suporta apenas a agregação de janela de tempo usando a função WINDOW. (especificação da janela: <windowSpec>)
NOT_ALLOWED_IN_FROM
Não permitido na cláusula FROM:
Para mais detalhes, consulte NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
Não permitido na tubulação da cláusula WHERE.
Para mais detalhes, consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
A expressão <expr> utilizada para a rotina ou cláusula <name> deve ser uma constante STRING que é NOT NULL.
Para mais detalhes, ver NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
A operação <operation> não é permitida para <tableIdentWithDB> porque não é uma tabela particionada.
NOT_A_SCALAR_FUNCTION
<functionName> aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a cláusula FROM ou redefina <functionName> como uma função escalar.
NOT_A_TABLE_FUNCTION
<functionName> aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da cláusula FROM ou redefina <functionName> como uma função de tabela.
NOT_ENOUGH_ARGS
A função <functionName> espera pelo menos <minNum> parâmetros, mas recebe <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
NULL valor apareceu no campo não anulável: <walkedTypePath>Se o esquema for inferido a partir de um tuple/case class Scala ou de um bean Java, tente usar scala.Option[_] ou outros tipos anuláveis (como java.lang.Integer em vez de int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
A atribuição de um NULL não é permitida aqui.
Para mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN não é suportado para alterar a coluna <table><originName> com tipo <originType> para <newName> com tipo <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN não é suportado para alterar a coluna <table> de <fieldName>, incluindo os seus campos aninhados várias vezes no mesmo comando.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> não é suportado para tabelas v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> não é suportado, se você quiser ativá-lo, defina "spark.sql.catalogImplementation" como "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Comando não suportado no catálogo JDBC:
Para mais detalhes, ver NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> não é suportado num <endpoint>SQL.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> não é suportado na computação sem servidor.
NOT_UNRESOLVED_ENCODER
Esperava-se um codificador não resolvido, mas <attr> foi encontrado.
NO_ACTIVE_TRANSACTION
Não há nenhuma transação ativa para <action>.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Não é possível determinar o valor padrão porque <colName> não é anulável e não tem valor por defeito.
NO_HANDLER_FOR_UDAF
Nenhum manipulador para UDAF '<functionName>'. Use sparkSession.udf.register(...) em vez disso.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
Nenhum local externo pai foi encontrado para o caminho '<path>'. Crie uma localização externa num dos caminhos pai e depois tente novamente executar a consulta ou o comando.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> não tem uma restrição de chave primária.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Não é possível encontrar <catalystFieldPath> no esquema Protubuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nenhum atribuído
Nenhum local de armazenamento foi encontrado para a tabela '<tableId>' ao gerar credenciais de tabela. Verifique o tipo de tabela e o URL do local da tabela e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_CATALOG_EXCEPTION
O catálogo '<catalog>' não foi encontrado. Verifique o nome do catálogo e tente novamente a consulta ou o comando.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nenhum atribuído
A sala limpa '<cleanroom>' não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde ao nome de uma sala limpa existente válida e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_CONSTRAINT_EXCEPTION
Restrição <constraint> não encontrada em <identifier>.
NO_SUCH_CREDENTIAL_EXCEPTION
A credencial '<credential>' não existe. Verifique se o nome da credencial está escrito corretamente e corresponde ao nome de uma credencial existente válida e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nenhum atribuído
A localização externa '<externalLocation>' não existe. Verifique se o nome do local externo está correto e tente novamente a consulta ou o comando.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nenhum atribuído
O metastore não foi encontrado. Peça ao administrador da conta para atribuir um metastore ao espaço de trabalho atual e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nenhum atribuído
O provedor de compartilhamento '<providerName>' não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde ao nome de um nome de provedor existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nenhum atribuído
O destinatário '<recipient>' não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde ao nome de um destinatário existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nenhum atribuído
A partilha '<share>' não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde ao nome de um compartilhamento existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nenhum atribuído
A credencial de armazenamento '<storageCredential>' não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde ao nome de uma credencial de armazenamento existente válida e, em seguida, tente novamente a consulta ou o comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nenhum atribuído
O usuário '<userName>' não existe. Verifique se o usuário ao qual você concede permissão ou altera a propriedade está escrito corretamente e corresponde ao nome de um usuário existente válido e, em seguida, tente novamente a consulta ou o comando novamente.
NO_UDF_INTERFACE
A classe <className> UDF não implementa nenhuma interface UDF.
NULLABLE_COLUMN_OR_FIELD
A coluna ou campo <name> é anulável enquanto é necessário que não seja anulável.
NULLABLE_ROW_ID_ATTRIBUTES
Os atributos de ID de linha não podem ser anuláveis: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
A opção de leitura/gravação da fonte de dados <option> não pode ter valor nulo.
NULL_MAP_KEY
Não é possível usar null como chave de mapa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável fornecida <varName> é nula.
NULL_VALUE_SIGNAL_STATEMENT
Os argumentos da instrução de sinal exigem valores não nulos, mas <argument> receberam um valor nulo.
NUMERIC_OUT_OF_SUPPORTED_RANGE
O valor <value> não pode ser interpretado como numérico, pois tem mais de 38 dígitos.
NUMERIC_VALUE_OUT_OF_RANGE
Para mais detalhes, consulte NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> só pode ser realizada em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns> colunas e a entrada <invalidOrdinalNum> tem <invalidNumColumns> colunas.
NUM_TABLE_VALUE_ALIASES_MISMATCH
O número de aliases fornecidos não corresponde ao número de colunas de saída.
Nome da função: <funcName>; número de pseudónimos: <aliasesNum>; Número de colunas de saída: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nenhuma declaração de identidade personalizada foi fornecida.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
A função de chamada <functionName> não é suportada neste <location>; <supportedFunctions> apoiados aqui.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
A operação SQL <operation> só é suportada em conectores Databricks SQL com suporte ao Unity Catalog.
OPERATION_CANCELED
A operação foi cancelada.
OPERATION_REQUIRES_UNITY_CATALOG
A operação <operation> requer o Unity Catalog habilitado.
OP_NOT_SUPPORTED_READ_ONLY
No modo de sessão somente leitura, <plan> não é suportado.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY posição <index> não está na lista de seleção (intervalo válido é [1, <size>]).
PARQUET_CONVERSION_FAILURE
Não é possível criar um conversor Parquet para o tipo de dados <dataType> cujo tipo Parquet é <parquetType>.
Para mais detalhes, ver PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Tipo de Parquet ilegal: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Tipo de Parquet não reconhecido: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Tipo de parquet ainda não suportado: <parquetType>.
PARSE_EMPTY_STATEMENT
Erro de sintaxe, instrução vazia inesperada.
PARSE_MODE_UNSUPPORTED
A função <funcName> não suporta o <mode> modo. Os modos aceitáveis são PERMISSIVE e FAILFAST.
PARSE_SYNTAX_ERROR
Erro de sintaxe em ou perto de <error> <hint>.
PARTITIONS_ALREADY_EXIST
Não é possível ADICIONAR ou RENAME PARA partição(ões) <partitionList> na tabela <tableName> porque elas já existem.
Escolha um nome diferente, solte a partição existente ou adicione a cláusula IF NOT EXISTS para tolerar uma partição pré-existente.
PARTITIONS_NOT_FOUND
A(s) partição(ões) <partitionList> não pode ser encontrada na tabela <tableName>.
Verifique a especificação da partição e o nome da tabela.
Para tolerar o erro ao deixar cair, use ALTER TABLE...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
A coluna de partição <column> não encontrada no esquema <schema>. Forneça a coluna existente para particionamento.
PARTITION_LOCATION_ALREADY_EXISTS
A localização da partição <locationPath> já existe na tabela <tableName>.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Falhou ao executar a instrução ALTER TABLE SET PARTITION LOCATION, porque o
local da partição <location> não está sob o diretório de tabela <table>.
Para corrigi-lo, defina o local da partição para um subdiretório de <table>.
PARTITION_METADATA
<action> não é permitido na tabela <tableName> , uma vez que o armazenamento de metadados de partição não é suportado no Unity Catalog.
PARTITION_NUMBER_MISMATCH
Número de valores (<partitionNumber>) não correspondeu ao tamanho do esquema (<partitionSchemaSize>): os valores são <partitionValues>, esquema é <partitionSchema>, caminho do arquivo é <urlEncodedPath>.
Por favor, rematerialize a mesa ou entre em contato com o proprietário.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
A expressão <expression> deve estar dentro de 'partitionedBy'.
PATH_ALREADY_EXISTS
O caminho <outputPath> já existe. Defina o modo como "substituir" para substituir o caminho existente.
PATH_NOT_FOUND
O caminho não existe: <path>.
PATH_RESOLUTION_ERROR
Não foi possível resolver o caminho <path>. Causado por: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Deserializar o plano protobuf do Photon requer pelo menos <size> bytes, o que excede o limite permitido.
limite de <limit> bytes. Isto pode ser devido a um plano muito grande ou à presença de um plano muito grande
esquema amplo. Tente simplificar a consulta, remover colunas desnecessárias ou desativar o Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
O plano de protobuf de fóton serializado tem tamanho <size> bytes, o que excede o limite de
<limit> Bytes. O tamanho serializado dos tipos de dados no plano é de <dataTypeSize> bytes.
Isso pode ser devido a um plano muito grande ou à presença de um esquema muito amplo.
Considere reescrever a consulta para remover operações e colunas indesejadas ou desativar o Photon.
PIPELINE_DATASET_WITHOUT_FLOW
O conjunto <identifier> de dados de pipeline não tem fluxos definidos. Anexe uma consulta com a definição do conjunto de dados ou defina explicitamente pelo menos um fluxo que grava no conjunto de dados.
PIPELINE_DOES_NOT_EXIST
Pipeline '<pipelineId>' não existe
Para mais detalhes, ver PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Um identificador duplicado foi encontrado para elementos registrados no gráfico de fluxo de dados do pipeline.
Para mais detalhes, ver PIPELINE_DUPLICATE_IDENTIFIERS
Erro de Registo de Elemento de Gráfico SQL de Pipeline
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
A raiz de armazenamento de pipeline deve ser um caminho absoluto com um esquema de URI (por exemplo, file://, s3a://, hdfs://). Recebido: <storage_root>.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
A expressão <expr> não agrupada é fornecida como um argumento para o operador |>AGGREGATE pipe, mas não contém nenhuma função agregada, atualize-a para incluir uma função agregada e, em seguida, tente novamente a consulta.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
A função de agregação <expr> não é permitida ao utilizar a cláusula com o operador pipe |><clause>; por favor, utilize a cláusula com o operador pipe |>AGGREGATE.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valor de pivô inválido '<value>': o tipo de dados do valor <valueType> não corresponde ao tipo de dados da coluna de pivô <pivotType>.
POLICY_ALREADY_EXISTS
Não é possível criar política <policyName> porque ela já existe.
Escolha um nome diferente ou remova a política existente para tolerar conexões existentes.
POLICY_NOT_FOUND
Não é possível executar o <commandType> comando porque a política <policyName> em <securableFullname> não pode ser encontrada.
Verifique a ortografia e a correção.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Não é possível criar política para o tipo <securableType> seguro. Tipos protegíveis suportados: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
A funcionalidade <featureName> de pré-visualização não está ativada. Por favor, contacte o administrador do seu espaço de trabalho para ativar esta funcionalidade através do portal de pré-visualização.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Procedimento <procedureName> requer <expected> argumentos, mas <actual> foram fornecidos.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE com uma definição de rotina vazia não é permitido.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
O parâmetro <parameterName> é definido com o modo de parâmetro <parameterMode>. OUT e INOUT o parâmetro não podem ser omitidos ao invocar uma rotina e, por isso, não suportam uma DEFAULT expressão. Para continuar, remova a cláusula DEFAULT ou altere o modo de parâmetro para IN.
PROCEDURE_NOT_SUPPORTED
O procedimento armazenado não é suportado
PROCEDURE_NOT_SUPPORTED_WITH_HMS
O procedimento armazenado não é suportado com o Hive Metastore. Em vez disso, use o Catálogo Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Não foi possível encontrar dependência: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Erro ao ler o arquivo descritor Protobuf no caminho: <filePath>.
PROTOBUF_FIELD_MISSING
Procurar <field> no esquema Protobuf em <protobufSchema> deu <matchSize> correspondências. Candidatos: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Encontrado <field> no esquema Protobuf, mas não há correspondência no esquema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Incompatibilidade de tipo encontrada para o campo: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
As classes Java não são suportadas para <protobufFunction>. Entre em contato com o Suporte da Databricks para obter informações sobre opções alternativas.
PROTOBUF_MESSAGE_NOT_FOUND
Não é possível localizar o Message <messageName> no Descritor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Não é possível chamar a função <functionName> SQL porque a fonte de dados Protobuf não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-protobuf' carregado, como usando o argumento --packages na linha de comando e, em seguida, tente novamente sua consulta ou comando novamente.
PROTOBUF_TYPE_NOT_SUPPORT
Tipo de protobuf ainda não suportado: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
A tarefa no estágio de busca pubsub não pode ser repetida. Partição <partitionInfo> no estágio <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> não pode ser uma cadeia de caracteres vazia.
PS_INVALID_KEY_TYPE
Tipo de chave inválido para PubSub dedup: <key>.
PS_INVALID_OPTION
A opção <key> não é suportada pelo PubSub. Ele só pode ser usado em testes.
PS_INVALID_OPTION_TYPE
Tipo inválido para <key>. Tipo esperado de <key> ser do tipo <type>.
PS_INVALID_READ_LIMIT
Limite de leitura inválido no fluxo PubSub: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow inválido para decodificar em PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>. A entrada UnsafeRow pode estar corrompida: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
A consulta ou comando falhou devido a uma opção de leitura inválida: in spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Atualize <audience> para corresponder ao seguinte formato: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} e tente novamente a consulta ou o comando.
PS_MISSING_AUTH_INFO
Falha ao encontrar informações completas de autenticação do PubSub.
PS_MISSING_REQUIRED_OPTION
Não foi possível encontrar a opção necessária: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Não foi possível mover os arquivos de ponto de verificação de dados brutos do <src> para o diretório de destino: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Forneça sua credencial de serviço Databricks ou suas credenciais de conta de serviço GCP.
PS_MULTIPLE_FAILED_EPOCHS
O fluxo PubSub não pode ser iniciado, pois há mais do que uma tentativa de obtenção falhada: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> deve estar dentro dos seguintes limites (<min>, <max>) excluindo ambos os limites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Os clusters compartilhados não oferecem suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
O conector de origem PubSub só está disponível em cluster com spark.speculation desabilitado.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Ocorreu um erro ao tentar criar a subscrição <subId> no tópico <topicId>. Verifique se existem permissões suficientes para criar uma subscrição e tente novamente.
PS_UNABLE_TO_PARSE_PROTO
Não é possível analisar bytes serializados para gerar proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset não é suportado sem fornecer um limite.
PYTHON_DATA_SOURCE_ERROR
Falha ao <action> fonte de dados Python <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Falhou quando a fonte de dados de streaming em Python processa <action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é atualmente incompatível com o esquema da tabela; Para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para mais detalhes, veja QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Não é possível acessar a tabela referenciada porque uma diretiva de segurança de nível de linha atribuída anteriormente é atualmente incompatível com o esquema da tabela; Para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para mais detalhes, ver QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
A execução da consulta foi cancelada devido ao excesso do tempo limite (<timeoutSec>s). Você pode aumentar o limite em segundos definindo <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Veja go/rowcolumncontrols-allowlist. O LogicalPlan <unknownLogicalPlan> é incompatível com a política RLS/CM.
QUERY_REJECTED
A execução da consulta foi rejeitada.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
A configuração de armazenamento interno do espaço de trabalho impede que o Databricks acesse o armazenamento em nuvem.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
As etiquetas de consulta ainda não são suportadas em SQL.
QUERY_TAGS_SYNTAX_INVALID
Formato inválido para SET QUERY_TAGS comando.
QUERY_TAG_KEY_INVALID
Chave da etiqueta de consulta '<key>' Validação falhada.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
A chave da etiqueta de consulta pode não ser nula ou vazia. Os espaços em branco à frente e à saída são cortados nas teclas e valores.
QUERY_TAG_MAX_COUNT_EXCEEDED
O número de etiquetas de consulta ultrapassou o limite máximo por sessão de <tagLimit> tags.
QUERY_TAG_VALUE_INVALID
Valor da etiqueta de consulta '<value>' Validação falhada.
QUERY_WATCHDOG_CHECK_FAILED
Consulta ao verificação do watchdog falhou.
Para mais detalhes, veja QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
A chamada da função <functionName> tem <parameterName> e <alternativeName> definidos, que são pseudônimos um do outro. Por favor, defina apenas um deles.
READ_FILES_CREDENTIALS_PARSE_ERROR
Ocorreu um erro ao analisar as credenciais temporárias da função read_files().
Para mais detalhes, ver READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
O parâmetro necessário <functionName> da função <parameterName> deve ser atribuído na posição <expectedPos> sem o nome.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Apenas os tipos TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ são suportados para o carimbo de data e hora de expiração do destinatário.
RECURSION_LEVEL_LIMIT_EXCEEDED
Limite <levelLimit> de nível de recursão atingido, mas a consulta não se esgotou, tente aumentá-lo como 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.
RECURSION_ROW_LIMIT_EXCEEDED
Limite <rowLimit> de linha de recursão atingido, mas a consulta não se esgotou, tente definir um valor maior LIMIT ao consultar a relação CTE.
RECURSIVE_CTE_IN_LEGACY_MODE
As definições recursivas não podem ser usadas no modo de precedência CTE herdado (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
As definições recursivas não podem ser usadas quando o indicador inline herdado está definido como true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Referência recursiva encontrada no esquema Protobuf, que não pode ser processada pelo Spark por padrão: <fieldDescriptor>. Tente definir a opção recursive.fields.max.depth 1 a 10. Não é permitido ir além de 10 níveis de recursão.
RECURSIVE_VIEW
A visualização recursiva <viewIdent> detetada (ciclo: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referências a valores de coluna DEFAULT não são permitidas na cláusula PARTITION.
RELATION_LARGER_THAN_8G
Não é possível construir um <relationName> que seja maior que o 8G.
REMAINDER_BY_ZERO
O restante por zero. Use try_mod para tolerar que o divisor seja 0 e devolva NULL em vez disso. Se necessário, defina <config> como "false" para ignorar esse erro.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
A solicitação HTTP remota falhou com o código <errorCode>e a mensagem de erro <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Falhou em avaliar a <functionName> função SQL devido à incapacidade de analisar o JSON resultado da resposta HTTP remota; a mensagem de erro é <errorMessage>. Verifique a documentação da API: <docUrl>. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Falha ao avaliar a função <functionName> SQL devido à incapacidade de processar a resposta HTTP remota inesperada; A mensagem de erro é <errorMessage>. Verifique a documentação da API: <docUrl>. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
A solicitação remota falhou depois de tentar novamente <N> vezes; o último código de erro HTTP com falha foi <errorCode> e a mensagem foi <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Não foi possível avaliar a função <functionName> SQL porque <errorMessage>. Verifique os requisitos em <docUrl>. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.
FUNÇÃO_DE_CONSULTA_REMOTA_PARÂMETROS_DE_CONETOR_NÃO_SUPORTADOS
Não são suportados parâmetros <parameterNames> para a função remote_query, que consulta uma ligação do tipo<connectionName> '<connectionType>'.
Para mais detalhes, consulte REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
A falha ocorreu porque <sourcePath> não foi encontrado.
REPEATED_CLAUSE
A cláusula <clause> pode ser utilizada uma vez, no máximo, por operação <operation>.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
O parâmetro necessário <routineName> da rotina <parameterName> foi atribuído na posição <positionalIndex> sem o nome.
Atualize a chamada de função para remover o argumento nomeado com <parameterName> para este parâmetro ou remover o argumento posicional.
argumento em <positionalIndex> e, em seguida, tente executar a consulta novamente.
REQUIRED_PARAMETER_NOT_FOUND
Não é possível invocar <routineName> de rotina porque o parâmetro chamado <parameterName> é necessário, mas a chamada de rotina não forneceu um valor. Atualize a chamada de rotina para fornecer um valor de argumento (posicionalmente no índice <index> ou pelo nome) e tente novamente a consulta.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
A cláusula de marca de água exige um nome explícito se a expressão for especificada, mas obteve <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> requer um namespace de parte única, mas tem <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
A opção 'rescuedDataColumn' do leitor da API de DataFrame é mutuamente exclusiva com a opção 'singleVariantColumn' da API de DataFrame.
Remova um deles e, em seguida, tente novamente a operação DataFrame novamente.
RESERVED_CDC_COLUMNS_ON_WRITE
A gravação contém as colunas reservadas <columnList> que são utilizadas.
internamente como metadados para o Change Data Feed. Para poder gravar na tabela, renomeie ou elimine.
estas colunas ou desative o Feed de Dados de Alteração na tabela, definindo
<config> para falsear.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
A opção <option> tem valores restritos em clusters compartilhados para a fonte <source>.
Para mais detalhes, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Não é possível criar o <newRoutineType> <routineName> porque já existe um <existingRoutineType> desse nome.
Escolha um nome diferente, solte ou substitua o <existingRoutineType>existente ou adicione a cláusula IF NOT EXISTS para tolerar um <newRoutineType>pré-existente.
ROUTINE_NOT_FOUND
A rotina <routineName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e catálogo corretos.
Para tolerar o erro na queda, use DROP...IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
O rotina <routineName> não suporta o parâmetro <parameterName> especificado na posição <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
A função <routineName> não pode ser criada porque o nome de classe especificado '<className>' está reservado para uso do sistema. Renomeie a classe e tente novamente.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Os filtros de linha não puderam ser resolvidos em <tableName> porque havia uma incompatibilidade entre filtros de linha herdados de políticas e filtros de linha explicitamente definidos. Para continuar, desative o Controle de Acesso Baseado em Atributos (ABAC) e entre em contato com o suporte do Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Não há suporte para a criação de restrição CHECK na tabela <tableName> com políticas de segurança em nível de linha.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Uma coluna com nome <objectName> referenciada em filtro de linhas ou parâmetro de função de máscara para coluna não pode ser resolvida.
Isso pode acontecer se o esquema da tabela subjacente tiver sido alterado e a coluna referenciada não existir mais.
Por exemplo, isso pode ocorrer se a coluna foi removida em um sistema externo (por exemplo, uma tabela federada) ou se uma REPLACE operação na tabela descartou a coluna.
Para resolver isto, os utilizadores com privilégios de gestão na tabela podem inspecionar os filtros de linha atuais e máscaras de coluna usando DESCRIBE TABLE EXTENDED, e eliminar ou recriar quaisquer que refiram colunas inexistentes usandoSET.../ALTER TABLEDROP ROW FILTER ou MASK.
Nota: Databricks introduziu uma melhoria de segurança para preservar as máscaras de coluna durante as operações REPLACE quando o novo esquema inclui a mesma coluna, ainda que a máscara não seja especificada. Isso evita a perda não intencional de políticas nas tabelas.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Uma instrução <statementType> tentou atribuir uma diretiva de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>, o que é inválido.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Não há suporte para políticas de segurança em nível de linha para <tableName>:
Para mais detalhes, consulte ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível fazer <statementType> <columnName> a partir da tabela <tableName> porque ela é referenciada numa diretiva de segurança ao nível de linha. O proprietário da tabela deve remover ou alterar esta política antes de prosseguir.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
As operações MERGE INTO não suportam políticas de segurança a nível de linha na tabela de origem <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO operação não suporta a escrita na tabela <tableName> com políticas de segurança ao nível de linha.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Esta instrução tentou atribuir uma diretiva de segurança em nível de linha a uma tabela, mas a coluna referenciada <columnName> tinha várias partes de nome, o que é inválido.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
As políticas de segurança em nível de linha são suportadas apenas no Unity Catalog.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Não é possível criar um índice ON TABLE <tableName> secundário porque a tabela tem uma política de segurança ao nível da linha definida.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
O comando SHOW PARTITIONS não é suportado para tabelas<format> com diretiva de segurança em nível de linha.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode> clone da tabela <tableName> com diretiva de segurança em nível de linha não é suportado.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Clonar a tabela <mode> para <tableName> com a política de segurança a nível de linha não é suportado.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Não há suporte para o uso de uma constante como parâmetro em uma diretiva de segurança em nível de linha. Atualize o comando SQL para remover a constante da definição do filtro de linha e, em seguida, tente novamente o comando.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Função <functionName> usada para a política de segurança de nível de linha tem parâmetro com tipo <dataType>de dados não suportado.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Não foi possível executar o comando <statementType> porque a atribuição da política de segurança ao nível da linha não é suportada para a fonte de dados de destino com um fornecedor de tabelas: "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como uma linha.
ROW_VALUE_IS_NULL
Encontrou NULL numa sequência no índice <index>, esperava um valor diferente deNULL.
RULE_ID_NOT_FOUND
Não foi encontrado um id para o nome da regra "<ruleName>". Modifique RuleIdCollection.scala se estiver adicionando uma nova regra.
RUN_EMPTY_PIPELINE
Espera-se que os pipelines tenham pelo menos um conjunto de dados não temporário definido (tabelas, exibições persistentes), mas nenhum conjunto de dados não temporário foi encontrado em seu pipeline.
Por favor, verifique se incluiu os ficheiros fonte esperados e que o seu código-fonte inclui definições de tabelas (por exemplo, CREATE MATERIALIZED VIEW em código SQL, @dp.table em código Python).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Falha na autorização para a API de compartilhamento de dados do Salesforce. Verifique se os detalhes da conexão Databricks são fornecidos ao destino apropriado de compartilhamento de dados do Salesforce.
SAMPLE_TABLE_PERMISSIONS
Permissões não suportadas em bancos de dados/tabelas de exemplo.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> não substitui o método 'produceResult(InternalRow)' com implementação personalizada.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> não implementa ou substitui o método 'produceResult(InternalRow)'.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
A subconsulta escalar correlacionada '<sqlExpr>' não está presente em GROUP BY, nem numa função agregada.
Adicione-o à GROUP BY na posição ordinal ou envolva-o em first() (ou first_value) se não importar qual valor obtém.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como expressão.
SCDS_COMMIT_LOG_UNAVAILABLE
O registo de commit não existe com a localização do ponto de controlo=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE
Valor inválido para a opção de origem=<optionName> com errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
O logaritmo de deslocamento não existe com localização do ponto de controlo=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Falha ao especificar opção necessária=<optionName>.
SCHEDULE_ALREADY_EXISTS
Não é possível adicionar <scheduleType> a uma tabela que já tenha <existingScheduleType>. Por favor, abandone o horário existente ou use ALTER TABLE...ALTER <scheduleType> ... para a alterar.
SCHEDULE_PERIOD_INVALID
O período de agendamento para <timeUnit> deve ser um valor inteiro entre 1 e <upperBound> (inclusive). Recebido: <actual>.
SCHEMA_ALREADY_EXISTS
Não é possível criar o esquema <schemaName> porque já existe.
Escolha um nome diferente, solte o esquema existente ou adicione a cláusula IF NOT EXISTS para tolerar o esquema pré-existente.
SCHEMA_NOT_EMPTY
Não é possível soltar um esquema <schemaName> porque ele contém objetos.
DROP SCHEMA
...
CASCADE Use para eliminar o esquema e todos os seus objetos.
SCHEMA_NOT_FOUND
O esquema <schemaName> não pode ser encontrado. Verifique a ortografia e a correção do esquema e do catálogo.
Se não qualificaste o nome com um catálogo, verifica a saída do current_schema() ou qualifica o nome com o catálogo correto.
Para tolerar o erro na queda use DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Não foi possível inicializar o esquema do registo de esquemas.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Não é possível criar índice <indexName> de pesquisa no catálogo <indexCatalog> e no esquema <indexSchema>. O índice deve ser criado no mesmo catálogo e esquema da tabela <tableName> (<tableCatalog>base).<tableSchema>
SEARCH_INDEX_INVALID_PARAMETERS
Não é possível criar um índice de pesquisa, é dado parâmetro inválido:
Para mais detalhes, veja SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
A tabela com o nome <indexName> do índice já existe. Por favor, forneça um nome de índice personalizado que não conflite com tabelas existentes.
SEARCH_INDEX_OUTDATED_SCHEMA
O índice <indexName> de pesquisa tem um esquema desatualizado. Recrie o índice usando:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> requer colunas com tipos pesquisáveis (STRING COLLATE UTF8_BINARY, VARIANT, ou ARRAY).
Para mais detalhes, veja SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH requer <argument> que o argumento seja literais de cadeia, mas <actualExpr> foi dado. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Não é possível <operation> ON TABLE <tableName>. A operação só pode ser realizada em tabelas geridas.
Para converter uma tabela numa tabela gerida, use o ALTER TABLE <tableName> SET MANAGED comando.
Para obter mais informações, consulte https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Não posso <operation> ON TABLE <tableName>
A operação só pode ser realizada em tabelas com os seguintes formatos: <supportedFormats>.
Verifique o formato da tabela com DESCRIBE DETAIL <tableName>.
Se o formato atual for Parquet ou Apache Iceberg, pode convertê-lo permanentemente com CONVERT TO DELTA <tableName>; https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
Caso contrário, recrie a tabela num dos formatos suportados.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
O segundo argumento da função <functionName> precisa ser um inteiro.
SECRET_FUNCTION_INVALID_LOCATION
Não é possível executar <commandType> comando com uma ou mais referências não criptografadas à função SECRET; Por favor, criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente
SECURÁVEL_NÃO_EXISTE
<securable> não existe.
SEED_EXPRESSION_IS_UNFOLDABLE
A expressão semente <seedExpr> da expressão <exprWithSeed> deve ser dobrável.
SERVER_IS_BUSY
O servidor está ocupado e não pôde lidar com a solicitação. Aguarde um momento e tente novamente.
SET_QUERY_TAGS_SYNTAX_INVALID
Falhei em executar o SET comando porque a sintaxe era inválida. A sintaxe esperada para este comando é SET QUERY_TAGS ou SET QUERY_TAGS['chave'] = 'valor'. Por favor, corrija o comando para se conformar a esta sintaxe e depois volta a executá-lo.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
O servidor SFTP <host>:<port> está usando o algoritmo SSH RSA obsoleto para troca de chaves.
Considere atualizar o servidor SFTP para usar um algoritmo mais seguro, como ECDSA ou ED25519.
Como alternativa, ignore esse erro definindo <escapeHatchConf> como true
SFTP_UNABLE_TO_CONNECT
Falha ao conectar-se ao servidor SFTP <host> na porta <port> com o nome de utilizador <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
A chave do host do servidor <host> SFTP é desconhecida ou mudou.
Por favor, verifique a mensagem de erro abaixo e depois forneça a impressão digital chave no Key fingerprint campo.
Por exemplo, se a mensagem disser 'ECDSA a impressão digital da chave é SHA256:XXX/YYY', submeta 'SHA256:XXX/YYY' como impressão digital da chave.
Mensagem de erro de ligação:
<error>
SFTP_USER_DOES_NOT_MATCH
O utilizador recuperado da credencial <credentialUser> não corresponde ao daquele especificado no caminho SFTP <path>.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS com namespaces conflitantes: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
A validação da(s) opção(ões) de fonte de dados do Snowflake falhou.
Para mais detalhes, consulte SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy deve ser usado em conjunto com bucketBy.
SPARK_JOB_CANCELLED
Tarefa <jobId> cancelada <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Um CREATE TABLE sem lista de colunas explícitas não pode especificar informações de bucketing.
Por favor, use o formulário com uma lista explícita de colunas e especifique as informações de bucketing.
Como alternativa, permita que as informações de segmentação sejam inferidas pela omissão da cláusula.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Não é possível especificar CLUSTER BY e CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Não é possível especificar CLUSTER BY e PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Um CREATE TABLE sem lista de colunas explícita não pode especificar PARTITIONED BY.
Por favor, use o formulário com lista de colunas explícitas e especifique PARTITIONED BY.
Alternativamente, permita que o particionamento seja inferido omitindo a cláusula PARTITION BY.
SQL_CONF_NOT_FOUND
A configuração de SQL <sqlConf> não pode ser encontrada. Verifique se a configuração existe.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Não são permitidos scripts SQL em comandos EXECUTE IMMEDIATE. Certifique-se de que a consulta SQL fornecida (<sqlString>) não é Script SQL. Certifique-se de que o sql_string é uma instrução SQL bem formada e não contém BEGIN e END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
O número máximo de caracteres em um script SQL (id: <scriptId>) foi excedido. O número máximo de caracteres permitido é <maxChars>, e o script tinha <chars> caracteres.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
O número máximo de linhas em um script SQL (id: <scriptId>) foi excedido. O número máximo de linhas permitido é <maxLines>, e o script tinha <lines> linhas.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
O número máximo de declarações de variáveis locais em um script SQL (id: <scriptId>) foi excedido. O número máximo de declarações permitido é <maxDeclarations>, e o script tinha <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
O número máximo de chamadas de procedimento aninhadas foi excedido com o procedimento (nome: <procedureName>, callId: <procedureCallId>). O número máximo permitido de chamadas de procedimento aninhadas é <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Erro transitório ao aceder o caminho de preparação de destino <path>, por favor tente novamente daqui a alguns minutos.
STAR_GROUP_BY_POS
O asterisco (*) não é permitido numa lista de seleção quando é usada a posição ordinal GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Falha ao executar a operação do processador com estado=<operationType> com manipulador inválido=<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Falha ao executar a operação do processador com estado =<operationType> com modo de tempo inválido =<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
A variável de estado com nome <stateVarName> já foi definida no StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Não é possível usar TTL para state=<stateName> em timeMode=<timeMode>, em vez disso, invoque TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
A duração do TTL deve ser maior que zero para State store operation=<operationType> on state=<stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Modo de tempo desconhecido <timeMode>. Os modos do "timeMode" aceites são 'none', 'processingTime', 'eventTime'
STATE_REPARTITION_INVALID_CHECKPOINT
A localização do posto de controlo fornecida está<checkpointLocation> num estado inválido.
Para mais detalhes, veja STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
O parâmetro <parameter> de repartição é inválido:
Para mais detalhes, veja STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Falha ao criar família de colunas com caractere inicial sem suporte e nome=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Falha ao executar a operação de família de colunas=<operationName> com nome inválido=<colFamilyName>. O nome da família da coluna não pode estar vazio ou incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=default
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
A localização <checkpointLocation> do ponto de controlo deve estar vazia no lote 0
Por favor, utilize uma nova localização do ponto de controlo ou apague os dados existentes na localização do ponto de controlo.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformação de esquema incompatível com família de colunas=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> não suporta iterador reutilizável.
STATE_STORE_HANDLE_NOT_INITIALIZED
O identificador não foi inicializado para este StatefulProcessor.
Use apenas o StatefulProcessor dentro do operador transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Número incorreto de ordinais de ordenação,<numOrderingCols>, para o codificador de varredura de intervalos. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Número incorreto de colunas de prefixo<numPrefixCols> para codificador de varredura de prefixo. As colunas de prefixo não podem ser zero nem ser maior ou igual ao número de colunas do esquema.
STATE_STORE_INVALID_AVRO_SCHEMA
Foi detetado um esquema inválido para a codificação Avro.
Para mais detalhes, consulte STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Não é possível alterar <configName> de <oldConfig> para <newConfig> entre reinicializações. Defina <configName> como <oldConfig>ou reinicie com um novo diretório de pontos de verificação.
STATE_STORE_INVALID_PROVIDER
O Fornecedor de Armazenamento de Estado <inputClass> fornecido não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Não é possível alterar <stateVarName> para <newType> entre as reinicializações da consulta. Defina <stateVarName> como <oldType>ou reinicie com um novo diretório de pontos de verificação.
Esquema de chave de armazenamento de estado não compatível (STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE)
O esquema de chave fornecido não corresponde ao esquema existente no estado do operador.
Esquema existente=<storedKeySchema>; esquema fornecido=<newKeySchema>.
Para executar a consulta sem validação de esquema, defina spark.sql.streaming.stateStore.stateSchemaCheck como false.
Observe que a execução sem validação de esquema pode ter um comportamento não determinístico.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Ao aceder ao armazenamento de estado do RocksDB para operação de streaming com estado, a chamada à função <funcName> nativa do RocksDB atingiu o tempo limite após esperar <timeoutMs> ms. Tente novamente e reinicie o cluster se o erro persistir.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
A coluna de ordenação do tipo nulo com nome=<fieldName> e índice=<index> não é suportada para o codificador de pesquisa por intervalos.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
O Provedor de Armazenamento de Estado <inputClass> fornecido não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Portanto, ele não suporta a opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
O ficheiro <zipFilePath> zip snapshot do RocksDB já existe. Isto significa que o snapshot já foi carregado para DFS.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
O número de arquivos de esquema de estado <numStateSchemaFiles> excede o número máximo de arquivos de esquema de estado para esta consulta: <maxStateSchemaFiles>.
Adicionado: <addedColumnFamilies>, Removido: <removedColumnFamilies>
Defina 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' para um número maior ou reverta as alterações do esquema de estado
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
State store operation=<operationType> não suportado na família de colunas ausente=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
O número de evoluções de esquema de estado <numSchemaEvolutions> excede o número máximo de evoluções de esquema de estado, <maxSchemaEvolutions>, permitido para esta família de colunas.
Família de colunas ofensivas: <colFamilyName>
Defina 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' para um número maior ou reverta as modificações do esquema de estado
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
O esquema de valor fornecido não corresponde ao esquema existente no estado do operador.
Esquema existente=<storedValueSchema>; esquema fornecido=<newValueSchema>.
Para executar a consulta sem validação de esquema, defina spark.sql.streaming.stateStore.stateSchemaCheck como false.
Observe que a execução sem validação de esquema pode ter um comportamento não determinístico.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
A coluna de ordenação de tamanho variável com nome=<fieldName> no índice=<index> não é suportada para o codificador de varredura por intervalos.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
A coluna de partição estática <staticName> também está especificada na lista de colunas.
STDS_COMMITTED_BATCH_UNAVAILABLE
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>. Certifique-se de que a consulta foi executada e que qualquer microlote foi confirmado antes de interromper.
STDS_CONFLICT_OPTIONS
As opções <options> não podem ser especificadas em conjunto. Por favor, especifique um.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation> e batchId=<batchId>.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relatar para as comunidades ou fornecedores correspondentes se o erro persistir.
STDS_FAILED_TO_READ_STATE_SCHEMA
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. Opções: <sourceOptions>.
Execute novamente a consulta de streaming para construir o esquema de estado e relatar para as comunidades ou fornecedores correspondentes se o erro persistir.
STDS_INVALID_OPTION_VALUE
Valor inválido para a opção de origem '<optionName>':
Para mais detalhes, ver STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
A leitura de estado em diferentes versões do formato checkpoint não é suportada.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
O Estado não tem qualquer partição. Verifique se a consulta aponta para o estado válido. Opções: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
O registo de offset para <batchId> não existe, localização do ponto de verificação: <checkpointLocation>.
Especifique o ID do lote que está disponível para consulta - você pode consultar os IDs de lote disponíveis usando a fonte de metadados de estado.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Os metadados não estão disponíveis para o registo de deslocamento para <batchId>, localização do ponto de verificação: <checkpointLocation>.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' deve ser especificado.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
A Execução de Consultas Adaptativa não é suportada para operadores com estado no Streaming Estruturado.
STREAMING_CHECKPOINT_METADATA_ERROR
Erro com metadados de ponto de verificação de streaming.
Para mais detalhes, ver STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Falhou a operação de pin para a consulta de streaming com localização do checkpoint=<checkpointLocation> at batchId=<batchId>.
Para mais detalhes, veja STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Falhou a realização da operação de retrocesso para a consulta de streaming com localização do checkpoint=<checkpointLocation>.
Para mais detalhes, veja STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Erro durante a operação de retrocesso do ponto de verificação de streaming.
Para mais detalhes, ver STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Não é possível transmitir da vista materializada <viewName>. Não há suporte para streaming de visualizações materializadas.
STREAMING_OUTPUT_MODE
Modo de saída de streaming inválido: <outputMode>.
Para mais detalhes, consulte STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Erro de evolução de consultas em streaming:
Para mais detalhes, veja STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Esperava o deslocamento da fonte de taxa da versão <expectedVersion>, mas recebeu a versão <actualVersion>. Para continuar, defina a opção "versão" para <expectedVersion> nas opções de fonte de taxa. Por exemplo, spark.readStream.format("rate").option("version", "<expectedVersion>").
ALTERAÇÃO NO NÚMERO DE PARTIÇÕES NÃO SUPORTADA PARA STREAMING_RATE_SOURCE_V2
O número de partições (<prevNum>) usadas no microlote anterior é diferente do número atual de partições (<currNum>). Pode haver duas razões possíveis:
A opção "numPartitions" da fonte da taxa é alterada durante a reinicialização da consulta.
O tamanho do cluster pode mudar durante a reinicialização da consulta.
Defina explicitamente a opção "numPartitions" na fonte de taxa como <prevNum> para corrigir este problema.
STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED (Fonte de Taxa de Streaming V2, Tempo de Aceleramento Não Suportado)
A opção "rampUpTime" não é suportada pela tarifa versão 2. Para usar essa opção, defina a opção "versão" como 1. Por exemplo, spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
O modo de streaming em tempo real tem a seguinte limitação:
Para mais detalhes, consulte STREAMING_REAL_TIME_MODE
Transmissão de Propagação de Marca d'Água em Tempo Real
A propagação da marca d'água em tempo real tem a seguinte limitação:
Para mais detalhes, consulte STREAMING_REAL_TIME_WATERMARK_PROPAGATION
Streaming_Sink_Modo_Entrega
Modo de entrega do destino de streaming inválido: <deliveryMode>.
Para mais detalhes, consulte STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Intervalo de deslocamento de salto inválido: o deslocamento <endOffset> final é menor do que o deslocamento <startOffset>inicial. Corrige este intervalo de deslocamento e tente novamente.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Não é possível reiniciar a consulta de streaming com operadores com estado porque o diretório de estados está vazio ou em falta.
Isto ocorre tipicamente quando ficheiros de estado foram eliminados ou a consulta de streaming foi anteriormente executada sem operadores com estado, mas reiniciada com operadores com estado.
Por favor, remova os operadores com estado, use uma nova localização de ponto de controlo ou restaure os ficheiros de estado em falta.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
O nome do operador com estado de streaming não corresponde ao operador nos metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador stateful da consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>]; Operadores com estado no lote atual: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
Streaming Table <tableName> precisa ser atualizada para executar <operation>.
Se a tabela for criada a partir de DBSQL, execute REFRESH STREAMING TABLE.
Se a tabela for criada por um pipeline no Lakeflow Spark Declarative Pipeliness, por favor execute uma atualização do pipeline.
STREAMING_TABLE_NOT_SUPPORTED
tabelas de streaming só podem ser criadas e atualizadas nos Lakeflow Spark Declarative Pipeliness e Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
A operação <operation> não é permitida:
Para mais detalhes, ver STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
A tabela de streaming <tableName> somente pode ser criada a partir de uma consulta de streaming. Adicione a palavra-chave STREAM à sua cláusula FROM para transformar essa relação em uma consulta de streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
O fluxo Kinesis <streamName> em <region> não foi encontrado.
Inicie uma nova consulta apontando para o nome correto do fluxo.
STRUCT_ARRAY_LENGTH_MISMATCH
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. Os <expected> campos são obrigatórios e os <actual> valores são fornecidos.
ST_INVALID_ALGORITHM_VALUE
Valor do algoritmo de interpolação de bordas inválido ou não suportado: '<alg>'.
ST_INVALID_CRS_VALUE
Valor CRS (sistema de referência de coordenadas) inválido ou não suportado: '<crs>'.
ST_INVALID_SRID_VALUE
Valor do SRID (identificador de referência espacial) inválido ou não suportado: <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
A soma da cláusula LIMIT e da cláusula OFFSET não deve ser maior do que o valor inteiro máximo de 32 bits (2.147.483.647), mas encontrou limite = <limit>, offset = <offset>.
SYNC_METADATA_DELTA_ONLY
O comando Repair table sync metadata só é suportado para tabela delta.
SYNC_SRC_TARGET_TBL_NOT_SAME
O nome da tabela de origem <srcTable> deve ser igual ao nome da tabela de destino <destTable>.
SYNTAX_DISCONTINUED
Suporte da cláusula ou palavra-chave: <clause> foi descontinuado neste contexto.
Para mais detalhes, ver SYNTAX_DISCONTINUED
TABLE_ARGUMENTS_NOT_ALLOWED (Argumentos na tabela não são permitidos)
TABLE parâmetros não são suportados em <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
Falhou a execução do DESCRIBE SEARCH INDEX comando porque a tabela <tableName> não é um índice válido <indexType> . Por favor, atualize o comando para usar um índice válido e tente novamente.
TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar a tabela ou vista <relationName>, pois ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.
TABLE_OR_VIEW_NOT_FOUND
A tabela ou vista <relationName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na queda use DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.
Para mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
O tipo de tabela de <tableName>, <tableType>, não suporta políticas ABAC.
Remova as políticas e tente novamente.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Não é possível <action> função SQL definida pelo usuário <functionName> com TABLE argumentos porque esta funcionalidade ainda não foi implementada.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Falha na avaliação da função de tabela <functionName> devido aos seus metadados de tabela <requestedMetadata>, embora a chamada de função <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Falha ao avaliar a função de tabela <functionName> porque seus metadados de tabela eram inválidos; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Há muitos argumentos de tabela para a função com valor de tabela.
Ele permite um argumento de tabela, mas tem: <num>.
Se você quiser permiti-lo, defina "spark.sql.allowMultipleTableArguments.enabled" como "true"
TABLE_WITH_ID_NOT_FOUND
Tabela com ID <tableId> não pode ser encontrada. Verifique a exatidão do UUID.
TASK_WRITE_FAILED
A tarefa falhou enquanto escrevia linhas para <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Locais implícitos de ponto de verificação temporária de streaming não são suportados no espaço de trabalho atual, por favor especifique um local de ponto de verificação explicitamente.
Para display(), defina o local do ponto de verificação usando:
display(df, checkpointLocation = "seu_caminho")
Para todas as outras consultas de streaming, use:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... não é suportado aqui, por favor use CREATE TEMPORARY VIEW em vez disso
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE não suporta especificar <unsupportedSpec>.
Para mais detalhes, veja TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Não é possível criar uma tabela <tableName> temporária porque começa com um prefixo <reservedPrefix>de nome reservado. Por favor, escolha um nome diferente e tente novamente.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] não é suportado com o tipo Compute atual. Por favor, use o Databricks SQL (DBSQL) para criar tabelas temporárias locais de sessão em vez disso.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
A criação de uma tabela temporária local de sessão exige um nome de tabela composto por uma única parte, no entanto, obteve <tableName>. Atualize o comando para usar um nome de tabela de uma única parte e tente novamente.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... não é suportado. Para criar uma tabela temporária, por favor remova a USING cláusula e tente novamente.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE não suporta a especificação de <unsupportedSpec>, remova esta especificação ou remova uma tabela permanente usando o comando DROP TABLE.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Para eliminar uma tabela temporária criada apenas na sessão, é necessário um nome de tabela simples, mas obteve <tableName>. Atualize o comando DROP TEMPORARY TABLE para usar um nome de tabela com uma única parte para eliminar uma tabela temporária, ou use o comando DROP TABLE para eliminar uma tabela permanente.
TEMP_TABLE_NOT_FOUND
A tabela <tableName> temporária não pode ser encontrada na sessão atual. Verifique a ortografia e a correção do nome da tabela e tente novamente a consulta ou o comando.
Para tolerar o erro ao soltar, use DROP TEMP TABLE IF EXISTS.
TABELA_TEMPORARIA_NAO_SUPORTADA_COM_TRABALHOS_DATABRICKS
A tabela temporária ainda não é suportada no Databricks Jobs. Em vez disso, use o Databricks Notebooks e entre em contato com o Suporte Databricks para obter mais informações.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
A operação <operation> de tabela temporária não é suportada no Hive Metastore.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Não há suporte para operações na tabela <tableName> temporária local de sessão:
Para mais detalhes, consulte TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> on temporary tables não é suportado com comandos V1. Por favor, defina o 'spark.sql.legacy.useV1Command' em false e tente novamente.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar a tabela ou exibição <relationName> temporária porque ela já existe.
Escolha um nome diferente, elimine ou substitua o objeto existente.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE não é suportado. Para substituir uma mesa temporária existente, retire-a usando DROP TEMPORARY TABLE ... [IF EXISTS] e recriá-lo usando CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
As operações em tabelas temporárias locais de sessão requerem o ambiente Databricks.
TEMP_TABLE_REQUIRES_DELTA
As operações em tabelas temporárias locais de sessão exigem que o catálogo Delta esteja ativado. Ligue o catálogo Delta e tente novamente.
TEMP_TABLE_REQUIRES_UC
As operações em tabelas temporárias locais de sessão requerem o Unity Catalog. Ative o Unity Catalog em seu ambiente de execução e tente novamente.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW ou as APIs de conjunto de dados correspondentes só aceitam nomes de exibição de parte única, mas obtiveram: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>; apenas buffers de esboço Theta válidos são suportados como entradas (como os produzidos pela theta_sketch_agg função).
THETA_INVALID_LG_NOM_ENTRIES
Chamada inválida para <function>; O valor lgNomEntries deve estar entre <min> e <max>, inclusive: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Chamada inválida para <function>; o lgNomEntries valor deve ser um valor constante, mas obteve uma expressão não constante.
TRAILING_COMMA_IN_SELECT
Vírgula à direita detetada na cláusula SELECT. Remova a vírgula à direita antes da cláusula FROM.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
O Change Data Feed não pode ser ativado numa transação porque uma tabela contém um nome de coluna reservado (<column_name>).
Para continuar, certifique-se de que a tabela usa apenas nomes de colunas não reservadas.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Não é permitido definir manualmente o ponto de referência elevado para o CDC Identities.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
Foi detetada uma alteração simultânea de metadados no objeto <table>. Execute ROLLBACK e tente novamente esta transação. Details:
Para mais detalhes, veja TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Foi detetada inconsistência de contexto de transação entre o thread atual e a sessão do Spark. Isso normalmente ocorre quando uma sessão do Spark é compartilhada em vários threads. Use uma sessão dedicada e um thread para cada transação e confirme/reverta a transação em seu thread antes de reutilizar a sessão e o thread para uma nova transação. Details:
Para mais detalhes, veja TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
A transação não pode ser executada, pois o carimbo de data/hora máximo de execução foi ultrapassado. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Falha ao executar a instrução.
Para mais detalhes, veja TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
A transação atual foi abortada. Por favor, execute ROLLBACK TRANSACTION antes de continuar. Motivo do aborto:
Para mais detalhes, veja TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Ocorreu um erro na função <function> definida pelo usuário do StatefulProcessor. Motivo: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
O número de linhas excede o limite permitido de <maxValues> para TRANSPOSE. Se isto foi pretendido, configure <config> para, pelo menos, corresponder à contagem atual de linhas.
TRANSPOSE_INVALID_INDEX_COLUMN
Coluna de índice inválida para TRANSPOSE porque: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
A transposição requer que as colunas que não sejam de índice compartilhem um tipo comum mínimo, mas <dt1> e <dt2> não o fazem.
TRIGGER_INTERVAL_INVALID
O intervalo de gatilho deve ser uma duração positiva que possa ser convertida em segundos inteiros. Recebido: <actual> segundos.
TUPLE_IS_EMPTY
Devido ao suporte limitado do Scala para tuplas, a tupla vazia não é suportada.
TUPLE_SIZE_EXCEEDS_LIMIT
Devido ao suporte limitado do Scala para tuplas, uma tupla com mais de 22 elementos não é suportada.
UC_BUCKETED_TABLES
Não há suporte para tabelas com buckets no Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
Para o Unity Catalog, especifique o nome do catálogo explicitamente. Por exemplo, SHOW GRANT your.address@email.com ON CATALOG principal.
UC_COMMAND_NOT_SUPPORTED
O(s) comando(s): <commandName> não são suportados no Unity Catalog.
Para mais detalhes, consulte UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
O(s) comando(s): <commandName> não são suportados para clusters do Unity Catalog sem servidor. Em vez disso, use clusters compartilhados ou de usuário único.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
O(s) comando(s): <commandName> não são suportados para clusters do Unity Catalog no modo de acesso compartilhado. Em vez disso, use o modo de acesso de usuário único.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Não foi possível encontrar uma conexão UC válida para acessar <path> depois de avaliar <connectionNames>.
Certifique-se de que pelo menos uma conexão UC válida esteja disponível para acessar o caminho de destino.
Erros detalhados para as conexões avaliadas:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
O tipo de credencial especificado não é suportado.
UC_DATASOURCE_NOT_SUPPORTED
O formato de fonte de dados <dataSourceFormatName> não é suportado no Catálogo Unity.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
As opções de fonte de dados não são suportadas no Unity Catalog.
UC_DEPENDENCY_DOES_NOT_EXIST
A dependência não existe no Unity Catalog:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
A cláusula LOCATION deve estar presente para o volume externo. Por favor, verifique a sintaxe 'CREATE EXTERNAL VOLUME...LOCATION ...' para criar um volume externo.
UC_FAILED_PROVISIONING_STATE
A consulta falhou porque tentou fazer referência à tabela <tableName> mas não conseguiu fazê-lo: <failureReason>. Atualize o <tableName> da tabela para garantir que ele esteja em um estado de provisionamento ativo e, em seguida, tente novamente a consulta.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Não é suportada a criação de uma tabela no Unity Catalog com o esquema de ficheiro <schemeName>.
Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION para o mesmo provedor de tabela e, em seguida, crie um catálogo com base na conexão com um comando CREATE FOREIGN CATALOG para fazer referência às tabelas nela.
Exceção_metastore_do_Hive_desativada
A operação tentou usar a Hive Metastore<identifier>, que está desativada devido ao acesso legado estar desligado na sua conta ou espaço de trabalho. Verifique novamente o catálogo padrão na sessão atual e na configuração de namespace padrão. Se você precisar acessar o Hive Metastore, peça ao seu administrador para configurar a federação do Hive Metastore através do Unity Catalog.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
O modo de exibição Federação do Hive Metastore não oferece suporte a dependências em vários catálogos. Exibir a vista <view> no catálogo da federação do Hive Metastore deve usar uma dependência do catálogo hive_metastore ou spark_catalog, mas a dependência <dependency> está em outro catálogo <referencedCatalog>. Atualize as dependências para satisfazer essa restrição e, em seguida, tente novamente sua consulta ou comando novamente.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
A federação do Hive Metastore não está habilitada neste cluster.
O acesso ao catálogo <catalogName> não é suportado neste cluster
UC_INVALID_DEPENDENCIES
As dependências de <securable> são registradas como <storedDeps> enquanto são analisadas como <parsedDeps>. Isso provavelmente ocorreu por meio do uso indevido de uma API não SQL.
Para mais detalhes, veja UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Não há suporte para namespaces aninhados ou vazios no Unity Catalog.
UC_INVALID_REFERENCE
Objetos que não sãoUnity-Catalog <name> não podem ser referenciados em objetos do Unity Catalog.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
O suporte de escrita do Unity Catalog Lakehouse Federation não está habilitado para o provedor <provider> neste cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
O volume gerenciado não aceita LOCATION cláusula. Por favor, verifique a sintaxe 'CREATE VOLUME ...' para criar um volume gerenciado.
UC_NOT_ENABLED
O Catálogo Unity não está habilitado neste cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
A Federação de Consultas do Catálogo Unity não está habilitada neste cluster.
UC_RESOLVED_DBFS_PATH_MISMATCH
A consulta falhou porque tentou fazer referência a <objectType> <name>, mas não foi possível fazê-lo: O caminho DBFS resolvido <resolvedHmsPath> não corresponde ao local de armazenamento do Unity Catalog <ucStorageLocation>.
UC_SEGREDOS_NÃO_HABILITADO
O suporte para Unity Catalog Secrets não está ativado.
UC_SECRET_ALREADY_EXISTS
Não é possível criar segredo <name> porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
UC_SECRET_NOT_FOUND
Segredo <name> não existe. Use 'SHOW SECRETS' para listar os segredos disponíveis.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
As credenciais de serviço não estão habilitadas neste cluster.
UC_TABLE_METADATA_OUT_OF_SYNC
Não é possível consultar a tabela <tableName> porque os metadados da tabela estão fora de sincronia no catálogo. Repare a tabela executando 'MSK REPAIR TABLE <tableName> SYNC METADATA' para sincronizar primeiro os metadados.
UC_UNCAUGHT_CLIENT_EXCEPTION
Encontrei um erro HTTP inesperado enquanto comunicava com o backend do Databricks Unity Catalog. Código de erro: <errCode>. Mensagem: <message>
UC_VOLUMES_NOT_ENABLED
O suporte para Unity Catalog Volumes não está habilitado nesta instância.
UC_VOLUMES_NOT_SUPPORTED
Os volumes não são suportados para esta operação. O caminho especificado era '<path>'.
UC_VOLUMES_SHARING_NOT_ENABLED
O suporte para Compartilhamento de Volume não está habilitado nesta instância.
UC_VOLUME_NOT_FOUND
O volume <name> não existe. Por favor, use 'SHOW VOLUMES' para listar os volumes disponíveis.
UDF_ENVIRONMENT_ERROR
Falha ao instalar dependências UDF para <udfName>, devido a um erro do sistema.
Para mais detalhes, ver UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Falha ao instalar dependências UDF para <udfName>.
Para mais detalhes, consulte UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: nenhum atribuído
Falha na execução da função <fn>
Para mais detalhes, ver UDF_ERROR
UDF_LIMITS
Um ou mais limites da UDF foram violados.
Para mais detalhes, ver UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Excedeu o limite UDF de toda a consulta de <maxNumUdfs> UDFs (limitado durante a visualização pública). Encontrado <numUdfs>. As UDF eram: <udfNames>.
UDF_PYSPARK_ERROR
O trabalhador Python saiu inesperadamente
Para mais detalhes, ver UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
O PySpark UDF <udf> (<eval-type>) não é suportado em clusters em modo de acesso partilhado.
UDF_PYSPARK_USER_CODE_ERROR
Falha na execução.
Para mais detalhes, ver UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
O valor padrão do parâmetro não é suportado para a função <functionType> definida pelo usuário.
UDF_USER_CODE_ERROR
A execução da função <fn> falhou.
Para mais detalhes, ver UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
O número de pseudónimos fornecidos na AS cláusula não corresponde ao número de colunas produzidas pela UDTF.
Esperava <aliasesSize> pseudônimos, mas consegui <aliasesNames>.
Certifique-se de que o número de aliases fornecidos corresponde ao número de colunas produzidas pela UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma OrderingColumn solicitada cuja expressão de nome de coluna incluía um alias <aliasName>desnecessário, remova esse alias e tente a consulta novamente.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' solicitada (<expression>) que não inclui um alias correspondente, atualize o UDTF para especificar um alias lá e tente a consulta novamente.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Não é possível converter o tipo SQL <toType> para o tipo Protobuf <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
Não é possível buscar tabelas do banco de dados Hive: <dbName>. Nome da classe de erro: <className>.
UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA
Falha ao inferir o esquema para a tabela <tableName> a partir dos seus fluxos a montante.
Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.
Esquema inferido até agora:
<inferredDataSchema>
Esquema incompatível:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Não é possível inferir esquema para <format>. Deve ser especificado manualmente.
NÃO AUTENTICADO
A solicitação não tem credenciais de autenticação válidas para a operação.
UNAUTHORIZED_ACCESS
Acesso não autorizado:
<report>
UNBOUND_SQL_PARAMETER
Encontrado o parâmetro não vinculado: <name>. Por favor, corrija args e forneça um mapeamento do parâmetro para um literal SQL ou para funções construtoras de colecção, como map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Encontrado um comentário entre parênteses não fechado. Por favor, anexe */ no final do comentário.
UNEXPECTED_INPUT_TYPE
Parâmetro <paramIndex> de função <functionName> requer o tipo <requiredType>, no entanto, <inputSql> tem o tipo <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
O parâmetro <namedParamKey> de função <functionName> requer o tipo <requiredType>, no entanto, <inputSql> tem o tipo <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operador inesperado <op> na declaração CREATE VIEW como uma fonte de streaming.
Uma consulta de visualização em streaming deve consistir apenas em SELECT, WHERE, e UNION ALL operações.
UNEXPECTED_POSITIONAL_ARGUMENT
Não é possível invocar <routineName> de rotina porque contém argumento(s) posicional(is) após o argumento nomeado atribuído a <parameterName>; reorganize-os para que os argumentos posicionais venham primeiro e, em seguida, tente novamente a consulta.
UNEXPECTED_SERIALIZER_FOR_CLASS
A classe <className> tem um serializador de expressão inesperado. Espera "STRUCT" ou "IF", o qual retorna "STRUCT", mas encontrou <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
O UNION operador ainda não é suportado dentro de expressões de tabela comuns recursivas (WITH cláusulas que se referem a si mesmas, direta ou indiretamente). Por favor, use UNION ALL em vez disso.
CONSTRAINTE_ÚNICA_DESATIVADA
O recurso de restrição exclusivo está desativado. Para ativá-lo, defina "spark.databricks.sql.dsv2.unique.enabled" como verdadeiro.
UNKNOWN_FIELD_EXCEPTION
Foi encontrado <changeType> durante a análise: <unknownFieldBlob>, que pode ser corrigido por uma nova tentativa automática: <isRetryable>.
Para mais detalhes, ver UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
A invocação da rotina <routineName> contém um argumento posicional desconhecido <sqlExpr> na posição <pos>. Isto é inválido.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Tipo primitivo desconhecido com id <id> foi encontrado num valor variante.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
A tentativa de tratar <descriptorName> como uma mensagem, mas era <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT exige que todas as expressões de <given> dadas sejam colunas quando nenhuma expressão <empty> é dada. Estas não são colunas: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Pelo menos uma coluna de valor precisa ser especificada para UNPIVOT, onde todas as colunas são especificadas como IDs.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
As colunas de valor a desagregar devem ter um tipo comum mínimo, alguns tipos não o têm: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Todas as colunas de valor não dinâmico devem ter o mesmo tamanho que há nomes de colunas de valor (<names>).
UNRECOGNIZED_PARAMETER_NAME
Não é possível invocar a rotina <routineName>, pois a chamada de rotina incluiu uma referência a um argumento nomeado chamado <argumentName>, mas essa rotina não inclui nenhuma assinatura com esse nome. Referiu-se a um dos seguintes? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Tipo SQL não reconhecido - nome: <typeName>, id: <jdbcType>.
UNRECOGNIZED_STATISTIC
A estatística <stats> não é reconhecida. Estatísticas válidas incluem count, count_distinct, approx_count_distinct, mean, stddev, min, max, e valores percentuais. O percentil deve ser um valor numérico seguido de '%', dentro do intervalo de 0% a 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Não foi possível resolver <name> para uma função com valor de tabela.
Certifique-se de que <name> é definida como uma função com valor de tabela e que todos os parâmetros necessários são fornecidos corretamente.
Se <name> não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Não é possível inferir o agrupamento de colunas para GROUP BY ALL com base na cláusula select. Especifique explicitamente as colunas de agrupamento.
UNRESOLVED_COLUMN
Uma coluna, variável ou parâmetro de função com nome <objectName> não pode ser resolvido.
Para mais detalhes, consulte COLUNA_NÃO_RESOLVIDA
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Não é possível resolver o nome da coluna "<colName>" entre (<fieldNames>).
UNRESOLVED_FIELD
Um campo com nome <fieldName> não pode ser resolvido com a coluna struct-type <columnPath>.
Para mais detalhes, ver UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING coluna <colName> não pode ser resolvida no <relationType>.
Referiu-se a uma das seguintes colunas? [<suggestion>].
UNRESOLVED_MAP_KEY
Não é possível resolver a coluna <objectName> como uma chave de mapa. Se a chave for um literal de cadeia de caracteres, adicione as aspas simples '' em torno dela.
Para mais detalhes, consulte UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Não é possível resolver a rotina <routineName> no caminho de pesquisa <searchPath>.
Verifique a ortografia de <routineName>, certifique-se de que a rotina existe e confirme se tem o privilégio USE no catálogo e no esquema, e o privilégio EXECUTE na rotina.
Para mais detalhes, consulte UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
O caminho de armazenamento para a tabela <identifier> não pode ser resolvido.
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING coluna <colName> não pode ser resolvida no lado <side> da junção. As colunas do lado <side>: [<suggestion>].
UNRESOLVED_VARIABLE
Não é possível resolver a variável <variableName> no caminho de busca <searchPath>.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
O formato de arquivo não estruturado <format> não é suportado. Os formatos de ficheiro suportados são <supportedFormats>.
Atualize o format da sua expressão <expr> para um dos formatos suportados e, em seguida, tente novamente a consulta.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
A opção de modelo não estruturado ('<option>' -> ''<value>) não é suportada. Os valores suportados são: <supportedValues>.
Mude para um dos valores suportados e, em seguida, tente novamente a consulta.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
O parâmetro de função 'ocrText' deve ser NULL ou omitido quando a opção 'metadataModel' é especificada. Uma opção especificada 'metadataModel' aciona a extração de metadados, onde um 'ocrText' fornecido é proibido.
UNSUPPORTED_ADD_FILE
Não suporta adicionar ficheiro.
Para mais detalhes, ver UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Não há suporte para a especificação de <parameter> com ALTER <commandTableType>.
UNSUPPORTED_ARROWTYPE
Tipo de seta não suportado <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
A função <funcName> não suporta consultas em lote.
UNSUPPORTED_CALL
Não é possível chamar o método "<methodName>" da classe "<className>".
Para mais detalhes, veja UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
O tipo char/varchar não pode ser usado no esquema da tabela.
Se você quiser que o Spark os trate como tipo de string igual ao Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
O tipo <type> char/varchar não pode ter agrupamento especificado.
UNSUPPORTED_CLAUSE_FOR_OPERATION
O <clause> não é suportado para <operation>.
UNSUPPORTED_COLLATION
A Ordenação <collationName> não é suportada para:
Para mais detalhes, consulte UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
O ancestral comum do caminho de origem e sourceArchiveDir deve ser registrado com UC.
Se vires esta mensagem de erro, é provável que tenhas registado o caminho de origem e o diretório de arquivamento de origem em diferentes locais externos.
Por favor, coloque-os em um único local externo.
UNSUPPORTED_CONNECT_FEATURE
O recurso não é suportado no Spark Connect:
Para mais detalhes, consulte UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CHARACTERISTIC
A característica de restrição '<characteristic>' não é suportada para o tipo de restrição '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
As cláusulas de restrição <clauses> não são suportadas.
UNSUPPORTED_CONSTRAINT_TYPE
Tipo de restrição sem suporte. Apenas <supportedConstraintTypes> são suportados
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Tipo de fonte de dados sem suporte para consulta direta em arquivos: <dataSourceType>
UNSUPPORTED_DATATYPE
Tipo de dados não suportado <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
A fonte de dados "<source>" não pode ser gravada no modo <createMode>. Em vez disso, use o modo "Acrescentar" ou "Substituir".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
A <format> fonte de dados não suporta a coluna <columnName> do tipo <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Não é possível criar codificador para <dataType>. Use um tipo de dados de saída diferente para seu UDF ou DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Os valores da coluna DEFAULT não são suportados.
Para mais detalhes, veja UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
O desserializador não tem suporte.
Para mais detalhes, consulte UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Não é possível criar a coluna gerada <fieldName> com a expressão de geração <expressionStr> por causa de <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Um operador de consulta contém uma ou mais expressões sem suporte.
Considere reescrevê-lo para evitar funções de janela, funções agregadas e funções geradoras na cláusula WHERE.
Expressões inválidas: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Um parâmetro de consulta contém expressão sem suporte.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
A expressão <sqlExpr> não é suportada numa função de janela.
UNSUPPORTED_FEATURE
O recurso não é suportado:
Para mais detalhes, veja UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Tipo de função definido pelo usuário não suportado: <language>
UNSUPPORTED_GENERATOR
O gerador não é suportado:
Para mais detalhes, consulte UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> com posição inicial <initialPosition> não é suportado pela fonte Kinesis
UNSUPPORTED_INSERT
Não é possível inserir no destino.
Para mais detalhes, consultar UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipo de junção não suportado '<typ>'. Os tipos de junção suportados incluem: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Não há suporte para a criação de uma tabela gerenciada <tableName> usando <dataSource> de fonte de dados. Precisa de usar a fonte DELTA de dados ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ...
UNSUPPORTED_MERGE_CONDITION
MERGE operação contém condição <condName> não suportada.
Para mais detalhes, consulte UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Chave de metadados não suportada: <key>. Teclas suportadas: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
A Tabela <tableName> tem uma política de segurança de nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança de nível de linha ou máscara de coluna; isso não é suportado. Sequência de chamadas: <callSequence>
OPERAÇÃO_NÃO_SUPORTADA_PARA_DISTRIBUIDOR_DE_MEMÓRIA_CONTÍNUA
A operação <operation> não é suportada para acumulador de memória contínua. Caso esteja a escrever um teste para o Modo de Transmissão Contínua em Tempo Real, considere usar CheckAnswerWithTimeout em detrimento de outras verificações.
UNSUPPORTED_OVERWRITE
Não é possível substituir o destino que também está sendo lido.
Para mais detalhes, ver UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Transformação de partição não suportada: <transform>. As transformadas suportadas são identity, bucket, e clusterBy. Certifique-se de que sua expressão de transformação use um desses.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
'<command>' não é suportado na API spark.sql("...") no Spark Declarative Pipeline.
Agrupamento_de_Procedimento_Não_Suportado
O procedimento <procedureName> deve especificar ou herdar DEFAULT COLLATION UTF8_BINARY. Utilize CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
O modo de gravação <saveMode> não é suportado para:
Para mais detalhes, ver UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
O comando SHOW CREATE TABLE não é suportado.
Para mais detalhes, consulte UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
O analisador de passagem única não pode processar essa consulta ou comando porque ainda não oferece suporte a <feature>.
UNSUPPORTED_SQL_UDF_USAGE
Não há suporte para o uso da função <functionName> SQL em <nodeName> .
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> modo de saída não suportado para <statefulOperator> no streaming de DataFrames/DataSets sem marca d'água.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Sem suporte para streaming de uma visualização. Reason:
Para mais detalhes, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Não há suporte para opções <options> de streaming para fonte <source> de dados em um cluster compartilhado. Por favor, confirme que as opções estão especificadas e escritas corretamente<prefixHint> e verifique https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode as limitações.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
A fonte <sink> de dados não é suportada como um coletor de streaming em um cluster compartilhado.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
A fonte <source> de dados não é suportada como uma fonte de streaming em um cluster compartilhado.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
A função <funcName> não suporta streaming. Remova a palavra-chave STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> não é suportado como fonte na Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Expressão de subconsulta não suportada:
Para mais detalhes, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
As alterações <changes> na tabela não são suportadas pelo catálogo na tabela <tableName>.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
A alteração <change> de tabela não é suportada para o catálogo JDBC na tabela <tableName>. As alterações suportadas incluem: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Não há suporte para a criação de chave primária com colunas de séries cronológicas
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Não há suporte para a criação de chave primária com mais de uma coluna de série cronológica <colSeq>
UNSUPPORTED_TIME_PRECISION
A precisão <precision> de segundos do tipo de dados TIME está fora do intervalo suportado [0, 6].
UNSUPPORTED_TIME_TYPE
O tipo de dados TIME não é suportado.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> não é suportado como fonte na Kinesis
UNSUPPORTED_TYPED_LITERAL
Literais do tipo <unsupportedType> não são suportados. Os tipos suportados são <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
A função <function> usa o(s) seguinte(s) recurso(s) que exigem uma versão mais recente do tempo de execução do Databricks: <features>. Por favor, consulte<docLink> para mais detalhes.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
Os tipos UDF não podem ser usados juntos: <types>
UNTYPED_SCALA_UDF
Está a utilizar um UDF de Scala não tipado, que não tem informações sobre o tipo de entrada.
O Spark pode passar cegamente um valor null para o closure do Scala com um argumento de tipo primitivo, e o closure receberá o valor padrão do tipo Java para o argumento null. Por exemplo, udf((x: Int) => x, IntegerType), o resultado será 0 caso a entrada seja nula. Para se livrar desse erro, você pode:
use APIs UDF de Scala tipadas (sem parâmetro de tipo de retorno), por exemplo,
udf((x: Int) => x).use APIs UDF Java, por exemplo,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), se os tipos de entrada forem todos não primitivos.defina "spark.sql.legacy.allowUntypedScalaUDF" como "true" e use essa API com cuidado.
UPGRADE_NOT_SUPPORTED
A tabela não é qualificada para atualização do Hive Metastore para o Unity Catalog. Reason:
Para mais detalhes, veja UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
A função definida pelo usuário é inválida:
Para mais detalhes, consulte USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
A função raise_error() foi usada para aumentar a classe de erro: <errorClass> que espera parâmetros: <expectedParms>.
Os parâmetros fornecidos <providedParms> não correspondem aos parâmetros esperados.
Por favor, certifique-se de fornecer todos os parâmetros esperados.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
A função raise_error() foi usada para gerar uma classe de erro desconhecida: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
O esquema especificado pelo utilizador não corresponde ao esquema real:
Especificado pelo utilizador: <schema>, atual: <actualSchema>. Se estiveres a usar
API DataFrameReader.schema ou criação de uma tabela, não especifiquem o esquema.
Ou, se estiveres a digitalizar uma tabela existente, retira-a e recria-a.
ESQUEMA_ESPECIFICADO_PELO_USUÁRIO_E_INFERIDO_NÃO_COMPATÍVEL
A tabela '<tableName>' tem um esquema especificado pelo usuário que é incompatível com o esquema
inferido da sua consulta de dados.
<streamingTableHint>
Esquema declarado:
<specifiedSchema>
Esquema inferido:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
A definição de catálogo ou esquema dentro do procedimento armazenado SQL SECURITY DEFINER não é suportada.
VARIABLE_ALREADY_EXISTS
Não é possível criar a variável <variableName> porque ela já existe.
Escolha um nome diferente ou solte ou substitua a variável existente.
VARIABLE_NOT_FOUND
A variável <variableName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e catálogo corretos.
Para tolerar o erro na queda use DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Não é possível construir uma Variante maior que 16 MiB. O tamanho máximo permitido de um valor de Variante é de 16 MiB.
VARIANT_DUPLICATE_KEY
Falha ao criar variante devido a uma chave de objeto duplicada <key>.
VARIANT_SIZE_LIMIT
Não é possível construir variante maior do que <sizeLimit> em <functionName>.
Evite cadeias de caracteres de entrada grandes para esta expressão (por exemplo, adicione chamada(s) de função para verificar o tamanho da expressão e convertê-la em NULL primeiro se for muito grande).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
O histórico da tabela de origem contém recurso(s) de tabela não suportado(s) pelo clone versionado nesta versão DBR: <unsupportedFeatureNames>.
Atualize para uma versão mais recente do DBR.
VIEW_ALREADY_EXISTS
Não é possível criar a vista <relationName> porque já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
VIEW_EXCEED_MAX_NESTED_DEPTH
A profundidade de visão <viewName> excede a profundidade máxima de resolução de visão (<maxNestedDepth>).
A análise é abortada para evitar erros. Se você quiser contornar isso, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
A vista <relationName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na queda use DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Não é possível criar volume <relationName> porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
WATERMARK_ADVANCEMENT_STRATEGY
A estratégia de avanço da marca d'água no streaming tem a seguinte limitação:
Para mais detalhes, consulte WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> função só pode ser avaliada em um quadro de janela ordenado baseado em linha com um único deslocamento: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
A função de janela <funcName> requer uma cláusula OVER.
WITH_CREDENTIAL
A sintaxe WITH CREDENTIAL não é suportada para <type>.
WRITE_STREAM_NOT_ALLOWED
writeStream pode ser chamado apenas em Dataset/DataFrame de streaming.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Falha ao executar o comando porque DEFAULT valores não são suportados ao adicionar novos
colunas para tabelas Delta previamente existentes; Por favor, adicione a coluna sem um padrão
primeiro, atribua o valor, e, em seguida, execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para efetuar a aplicação
para futuras linhas inseridas, em vez disso.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Falha ao executar o comando <commandType> porque atribuiu um valor à coluna DEFAULT.
mas o recurso de tabela correspondente não estava habilitado. Tente novamente o comando
depois de executar ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'suportado').
WRONG_COMMAND_FOR_OBJECT_TYPE
A operação <operation> requer um <requiredType>. Mas <objectName> é um <foundType>. Use <alternative> em vez disso.
WRONG_NUM_ARGS
O <functionName> requer <expectedNum> parâmetros, mas o número real é <actualNum>.
Para mais detalhes, ver WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> opção é necessária para ler / gravar arquivos em formato XML.
XML_UNSUPPORTED_NESTED_TYPES
XML não suporta <innerDataType> como tipo interno de <dataType>. Por favor, envolva <innerDataType> num campo StructType, ao usá-lo dentro de <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Os dados recuperados e a coluna curinga não podem ser ativados simultaneamente. Remova a opção wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
A coluna <columnName> ZOrderBy não existe.
Lago Delta
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Não foi possível encontrar o SparkSession ativo.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Não é possível definir um novo txn como ativo quando um já está ativo.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Falhou ao tentar adicionar a coluna <colName> porque o nome está reservado.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Por favor, envie um relatório de bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Por favor, envie um relatório de bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
O índice <columnIndex> para adicionar coluna <columnName> é inferior a 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Não é possível adicionar <columnName> porque seu pai não é um StructType. Encontrado <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct não encontrado na posição <position>.
DELTA_ADD_CONSTRAINTS
Por favor, use ALTER TABLE ADD CONSTRAINT para adicionar restrições CHECK.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Encontrado <sqlExpr> numa CHECK restrição. Expressões agregadas não são permitidas em CHECK restrições.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Encontrado <sqlExpr>. Uma coluna gerada não pode usar uma expressão agregada.
DELTA_AGGREGATION_NOT_SUPPORTED
Não há suporte para funções agregadas no <operation> <predicate>.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Falha ao alterar o agrupamento da coluna <column> porque ela tem um índice de filtro Bloom. Mantenha o agrupamento existente ou remova o índice do filtro bloom e tente novamente o comando para alterar o agrupamento.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Falha ao alterar a ordenação da coluna <column> porque é uma coluna de clusterização. Mantenha o agrupamento existente ou altere a coluna para uma coluna sem agrupamento com um comando ALTER TABLE e, em seguida, tente novamente o comando para alterar o agrupamento.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN não é suportado para alterar a coluna <currentType> para <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY é suportado apenas para tabela Delta com agrupamento Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY não pode ser aplicado a uma tabela particionada.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operação não permitida: ALTER TABLE RENAME TO não é permitida para tabelas Delta gerenciadas no S3, pois uma eventual consistência no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName> antes, você pode habilitar isso definindo <key> como verdadeiro.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível ativar o recurso de tabela <tableFeature> usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OU REPLACE TABLE CLUSTER BY para criar uma tabela Delta com aglomeração.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED requer COPY ou MOVE para ser especificado para tabela <table>estrangeira .
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED não suporta a tabela Uniform Apache Iceberg. Desative Uniform ou use SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED falhou.
Para mais detalhes, consulte DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED Comando não está ativado. Entre em contato com sua equipe de suporte Databricks para obter assistência.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED não consegue migrar a tabela dada.
Certifica-te de que a tabela está num estado válido e tenta novamente o comando. Se o problema persistir, contacte o suporte da Databricks.
Para mais detalhes, veja DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] A sintaxe não é suportada para a tabela <table>. Use ALTER TABLE ... SET MANAGED em vez disso.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Não há suporte para tabela <table> estrangeira para migração para tabela gerenciada por UC: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED Não suporta tabela com modo de compatibilidade ativado.
Desative o modo de compatibilidade na tabela antes de executar este comando.
DELTA_ALTER_TABLE_UNSET_MANAGED_NÃO_SUPORTA_UNIFORME
ALTER TABLE ... UNSET MANAGED não suporta o uniforme. Desative Uniform ou use UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> não pode ser revertido da tabela gerenciada para a tabela externa.
Para mais detalhes, consulte DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED Comando não está ativado. Entre em contato com sua equipe de suporte Databricks para obter assistência.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Não é possível alterar o tipo de dados do <column> de <from> para <to>. Esta alteração contém remoções e adições de colunas, pelo que são ambíguas. Por favor, faça essas alterações individualmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
A coluna de partição ambígua <column> pode ser <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contém dois locais diferentes: <identifier> e <location>.
Você pode remover a cláusula LOCATION da instrução CREATE TABLE ou definir
<config> verdadeiro para ignorar esta verificação.
DELTA_ARCHIVED_FILES_IN_LIMIT
A Tabela <table> não contém registos suficientes em arquivos não arquivados para satisfazer LIMIT de registos <limit> especificados.
DELTA_ARCHIVED_FILES_IN_SCAN
Encontrado <numArchivedFiles> arquivo(s) potencialmente arquivado(s) na tabela <table> que precisam ser verificados como parte desta consulta.
Os ficheiros arquivados não podem ser acedidos. O tempo atual até o arquivamento está configurado como <archivalTime>.
Ajuste os filtros de consulta para excluir quaisquer ficheiros arquivados.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
A operação "<opName>" não é permitida quando a tabela habilitou o feed de dados de alteração (CDF) e sofreu alterações de esquema usando DROP COLUMN ou RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Não é possível remover índices de filtros de Bloom para a(s) seguinte(s) coluna(s) inexistente(s): <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Ocorreu um erro de falta de memória ao escrever os índices de filtros Bloom para as seguintes colunas: <columnsWithBloomFilterIndices>.
Você pode reduzir o espaço ocupado pela memória dos índices de filtro bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
DELTA_CANNOT_CHANGE_DATA_TYPE
Não é possível alterar o tipo de dados: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Não é possível alterar a 'localização' da tabela Delta usando SET TBLPROPERTIES. Por favor, use ALTER TABLE SET LOCATION em vez disso.
DELTA_CANNOT_CHANGE_PROVIDER
'Provedor' é uma propriedade de tabela reservada e não pode ser alterada.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Não é possível criar índices de filtro bloom para a(s) seguinte(s) coluna(s) inexistente(s): <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
Não é possível criar <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Não é possível descrever o histórico de uma exibição.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Não é possível remover o índice de filtro Bloom em uma coluna não indexada: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Não é possível descartar o recurso de tabela de restrições de CHECK.
As seguintes restrições devem ser eliminadas primeiro: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Não é possível remover a funcionalidade da tabela de intercalações.
As colunas com agrupamentos não padrão devem ser alteradas para usar UTF8_BINARY primeiro: <colNames>.
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE
Não é possível descartar o recurso de tabela domainMetadata. A mesa <name> é uma mesa Apache Iceberg gerida. DomainMetadata não pode ser eliminado das tabelas Apache Iceberg geridas.
DELTA_NÃO_PODE_REMOVER_CARACTERÍSTICA_GEOSPATIAL
Não é possível descartar o recurso de tabela geoespacial. Recrie a tabela ou solte colunas com tipos de geometria/geografia: <colNames> e tente novamente.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> não teve sucesso. Não é possível eliminar a funcionalidade de tabela variante. Colunas variantes devem ser eliminadas primeiro: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
Não é possível avaliar a expressão: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Expectativa de uma tabela Delta com classificação em blocos, mas não consegue encontrar a especificação de bloco na tabela.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Não é possível gerar código para expressão: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Esta tabela está configurada para permitir apenas acréscimos. Se quiser permitir atualizações ou eliminações, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Não é possível substituir ou remover as propriedades de tabela relacionadas com o carimbo de data/hora de confirmação porque esta tabela é de propriedade do catálogo. Remova "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" e "delta.inCommitTimestampEnablementTimestamp" da TBLPROPERTIES cláusula e tente novamente o comando.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> não pode substituir ou desdefinir as propriedades da tabela de carimbo de data/hora de confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os da cláusula TBLPROPERTIES ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") e, em seguida, tente o comando novamente.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
A configuração <prop> da tabela Delta não pode ser especificada pelo usuário.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> não pode substituir as configurações de confirmações coordenadas de uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e, em seguida, tente executar o comando novamente.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Um uri (<uri>) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.
DELTA_CANNOT_RELATIVIZE_PATH
Um caminho (<path>) que não pode ser relativizado com a entrada atual encontrada no
log de transações. Por favor, execute novamente isso como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", verdadeiro)
e, em seguida, também executar:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Não é possível renomear <currentPath> para <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
A Tabela <tableName> não pode ser substituída, pois não existe. Use CREATE OU REPLACE TABLE para criar a tabela.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Não é possível resolver a coluna de agrupamento <columnName> em <schema> devido a um erro inesperado. Corre ALTER TABLE...CLUSTER BY ... para reparar metadados do clustering Delta.
DELTA_CANNOT_RESOLVE_COLUMN
Não é possível resolver a coluna <columnName> em <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Não é possível restaurar a tabela para a versão <version>. Versões disponíveis: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Não é possível restaurar a tabela para o carimbo de data e hora (<requestedTimestamp>) pois é anterior à versão mais antiga disponível. Por favor, use um timestamp após: (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Não é possível restaurar a tabela para a data e hora (<requestedTimestamp>) pois é posterior à versão mais recente disponível. Por favor, use uma marca temporal antes de (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> não pode definir propriedades da tabela de carimbo de data/hora de confirmação juntamente com confirmações coordenadas, porque a última depende da primeira e define a primeira internamente. Remova-os da cláusula TBLPROPERTIES ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") e, em seguida, tente o comando novamente.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Não é possível alterar o local de uma tabela baseada em caminho.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Não é possível definir delta.managedDataSkippingStatsColumns numa tabela de Pipelines Declarativos Spark que não seja do Lakeflow.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Ao habilitar 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>" não pode ser definida a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Ao habilitar 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>" não pode ser definida a partir das configurações do SparkSession. Desconfigure-o executando spark.conf.unset("<configuration>") e, em seguida, tente novamente o comando.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER não pode remover as configurações de confirmações coordenadas. Para downgrade de uma tabela a partir de commits coordenados, por favor tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Não é possível atualizar <tableName> o tipo de campo <fieldName> : atualizar o elemento atualizando <fieldName>.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Não é possível atualizar <tableName> o tipo de campo <fieldName> : atualizar um mapa atualizando <fieldName>.key ou <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Não é possível atualizar <tableName> o campo do tipo <typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Não é possível atualizar o campo <tableName> de tipo <fieldName>: atualize a estrutura adicionando, eliminando ou atualizando os seus campos.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Não é possível usar todas as colunas como colunas de partição.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE não pode excluir todos os arquivos elegíveis, pois alguns arquivos não são referenciados pelo log Delta. Por favor, execute VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> é uma visualização. Não é permitido fazer gravações numa vista.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Falha ao gravar um valor do tipo <sourceType> na coluna do tipo <targetType><columnName> devido a uma sobrecarga.
Use try_cast no valor de entrada para tolerar sobrecarga e retornar NULL em vez disso.
Se necessário, defina <storeAssignmentPolicyFlag> como "LEGACY" para ignorar esse erro ou defina <updateAndMergeCastingFollowsAnsiEnabledFlag> como true para reverter ao comportamento antigo e siga <ansiEnabledFlag> e UPDATEMERGE.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
A atualização ou downgrade de uma tabela gerida por catálogo não é suportada. Crie uma nova tabela com as características desejadas em vez disso.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Não é possível combinar a atualização da tabela <tableName> com a gestão de catálogo com outras alterações de propriedade.
Propriedades fornecidas: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Configuração delta.enableChangeDataFeed não pode ser definida. O feed de dados de mudança da Delta ainda não está disponível.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Os parâmetros de início/fim de leitura CDC não podem ser nulos. Forneça uma versão válida ou um carimbo de data/hora.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
A recuperação de alterações de tabela entre a versão <start> e a <end> falhou devido a um esquema de dados incompatível.
Seu esquema de leitura é <readSchema> na versão <readVersion>, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>.
Se possível, recupere as alterações da tabela usando o esquema da versão final definindo <config> como endVersion, ou entre em contato com o suporte.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
A recuperação de alterações de tabela entre a versão <start> e a <end> falhou devido a uma alteração de esquema incompatível.
Seu esquema de leitura é <readSchema> na versão <readVersion>, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>.
Se possível, consulte as alterações da tabela separadamente da versão <start> para <incompatibleVersion> - 1 e da versão <incompatibleVersion> para <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE. Esta solicitação parece ter como alvo o Change Data Feed, se esse for o caso, esse erro pode ocorrer quando o arquivo de dados de alteração está fora do período de retenção e foi excluído pela instrução VACUUM. Para obter mais informações, consulte <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Não é possível gravar na tabela com delta.enableChangeDataFeed ativo. O feed de dados de alteração da Delta não está disponível.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Não é possível verificar uma tabela não existente <path>. Você excluiu manualmente os arquivos no diretório _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dois caminhos foram fornecidos como o alvo CLONE por isso é ambíguo qual usar. Um externo
A localização para CLONE foi fornecida em <externalLocation> ao mesmo tempo que o caminho.
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
A origem do clone tem formato válido, mas não tem suporte para o recurso Delta.
Para mais detalhes, consulte DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
Arquivo (<fileName>) não copiado completamente. Tamanho esperado do arquivo: <expectedSize>, encontrado: <actualSize>. Para continuar com a operação, ignorando a verificação de tamanho do arquivo, defina <config> como false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Fonte de clone não suportada <mode> '<name>', cujo formato é <format>.
Os formatos suportados são 'delta', 'Apache Iceberg' e 'parquet'.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Tabela de origem não suportada:
Para informações adicionais, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Tabela de destino não suportada:
Para mais informações, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLONE_COM RASTREAMENTO DE LINHAS_SEM ESTATÍSTICAS
Não é possível clonar superficialmente uma tabela sem estatísticas e com o rastreamento de linha habilitado.
Se você quiser habilitar o rastreamento de linhas, primeiro precisará coletar estatísticas na tabela de origem executando:
ANALYZE TABLE table_name COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE não é suportado para tabela Delta com clustering Liquid para DBR versão < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY não é suportado porque a(s) seguinte(s) coluna(s): <columnsWithDataTypes> não suporta(m) o salto de dados.
DELTA_CLUSTERING_COLUMNS_MISMATCH
As colunas de agrupamento fornecidas não correspondem às da tabela existente.
fornecido:
<providedClusteringColumns>existente:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
O agrupamento líquido requer que as colunas de agrupamento tenham estatísticas. Não foi possível encontrar coluna(s) de agrupamento '<columns>' no esquema de estatísticas:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Não é permitida a criação de uma tabela externa sem agrupamento líquido a partir de um diretório de tabelas que têm agrupamento líquido; caminho: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' não suporta clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Não é possível concluir o <phaseOutType> da tabela com a funcionalidade de tabela <tableFeatureToAdd> (motivo: <reason>). Tente o comando OPTIMIZE novamente.
== Erro ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE uma tabela Delta com agrupamento Liquid numa tabela particionada não é permitida.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE não é suportado para a tabela Delta com Liquid clustering, se não houver colunas de clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
A transição de uma tabela Delta com clustering Liquid para uma tabela particionada não é permitida para operação: <operation>, quando a tabela existente tiver colunas de clustering não vazias.
Execute ALTER TABLE CLUSTER BY NONE para remover primeiro as colunas de agrupamento.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
O modo de sobrescrita de partições dinâmicas não é permitido para tabela Delta com Liquid clustering.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
O comando OPTIMIZE para a tabela Delta com clustering Liquid não suporta predicados de partição. Por favor, remova os predicados: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE comando para tabela Delta com clustering Líquido não pode especificar ZORDER BY. Por favor, remova ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
O valor clusterByAuto fornecido não corresponde ao da tabela existente.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY para clustering de Liquid suporta até <numColumnsLimit> colunas de clusterização, mas a tabela tem <actualNumColumns> colunas de clusterização. Remova as colunas de clustering extras.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Não é permitido especificar CLUSTER BY quando o esquema não está definido. Defina o esquema para a tabela <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering e bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS / bucketBy se quiser criar uma tabela Delta com clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
O clustering e o particionamento não podem ser especificados. Remova PARTITIONED BY / partitionBy / partitionedBy se quiser criar uma tabela Delta com clustering.
DELTA_COLLATIONS_NOT_SUPPORTED
As colações não são suportadas no Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
O salto de dados não é suportado para a coluna de partição '<column>'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
O salto de dados não é suportado para a coluna '<column>' do tipo <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
A propriedade max column id (<prop>) não está definida em uma tabela habilitada para mapeamento de coluna.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
A propriedade ID máxima da coluna (<prop>) em uma tabela com mapeamento de coluna ativado é <tableMax>, o que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
O tipo de dados da coluna <colName> não foi fornecido.
DELTA_COLUMN_NOT_FOUND
Não foi possível encontrar a coluna <columnName> fornecida [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Não é possível encontrar a coluna '<targetCol>' da tabela de destino a partir das colunas INSERT: <colNames>.
INSERT cláusula deve especificar o valor para todas as colunas da tabela de destino.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Não foi possível encontrar a coluna <columnName> em:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Espera-se que <columnPath> seja um tipo de dados aninhado, mas foi encontrado <other>. Estava à procura do
índice de <column> num campo aninhado.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
A coluna Struct <source> não pode ser inserida em um campo <targetType><targetField> em <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Não é possível manipular a confirmação da tabela dentro do estado da tabela de redirecionamento '<state>'.
DELTA_COMPACTION_VALIDATION_FAILED
A validação da compactação do caminho <compactedPath> para <newPath> falhou: Por favor, registre um relatório de bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Foi encontrado NullType aninhado na coluna <columName> que é de <dataType>. Delta não suporta a escrita NullType em tipos complexos.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Os arquivos foram adicionados ao <partition> por uma atualização simultânea. <retryMsg> <conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Esta transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo, <file>) por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Esta transação tentou ler um ou mais arquivos que foram excluídos (por exemplo, <file>) por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Este erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Uma transação concorrente escreveu novos dados desde que a transação atual leu a tabela. Por favor, tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONFLICT_SET_COLUMN
Há um conflito a partir destas SET colunas: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>, a configuração "<configuration>" não pode ser feita a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Durante <command>, a configuração "<configuration>" não pode ser definida através das configurações do SparkSession. Desconfigure-o executando spark.conf.unset("<configuration>") e, em seguida, tente novamente o comando.
DELTA_CONSTRAINT_ALREADY_EXISTS
A restrição '<constraintName>' já existe. Por favor, exclua a restrição antiga primeiro.
Antiga restrição:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
A coluna <columnName> tem o tipo de dados <columnType> e não pode ser alterada para o tipo de dados <dataType> porque esta coluna é referenciada pela(s) seguinte(s) restrição(ões) de verificação:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName> porque esta coluna é referenciada pela(s) seguinte(s) restrição(ões) de verificação:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Não é possível remover a restrição inexistente <constraintName> da tabela <tableName>. Para evitar o lançamento de um erro, forneça o parâmetro IF EXISTS ou defina a configuração da sessão SQL <config> para <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
A conversão da tabela Merge-on-Read <format> não é suportada: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Não foram encontradas informações de partição no catálogo da tabela <tableName>. Você já executou "MSCK REPAIR TABLE" em sua mesa para descobrir partições?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Não é possível converter a tabela Parquet com a coluna de partição agrupada <colName> em Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
A configuração '<config>' não pode ser definida como <mode> ao usar CONVERT TO DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Alterações de esquema não suportadas encontradas para <format> a tabela: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA suporta apenas tabelas de parquet, mas você está tentando converter uma <sourceName> fonte: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Não é possível ativar o rastreamento de linhas sem coletar estatísticas.
Se quiser habilitar o rastreamento de linhas, faça o seguinte:
- Habilitar a coleta de estatísticas executando o comando
SET <statisticsCollectionPropertyKey> = verdadeiro
- Execute
CONVERTTODELTAsem a opção NOSTATISTICS.
Se você não quiser coletar estatísticas, desative o rastreamento de linhas:
- Desative a ativação do recurso de tabela por padrão executando o comando:
RESET <rowTrackingTableFeatureDefaultKey>
- Desative a propriedade tabela por padrão executando:
SET <rowTrackingDefaultPropertyKey> = falso
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO alvo deve ser uma tabela Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Você está tentando criar uma tabela externa <tableName>
de <path> usando Delta, mas o esquema não é especificado quando o
O caminho de entrada está vazio.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Você está tentando criar uma tabela externa <tableName> de <path> usando Delta, mas não há nenhum log de transações presente em <logPath>. Verifique o trabalho upstream para certificar-se de que ele está escrevendo usando format("delta") e que o caminho é a raiz da tabela.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Não é suportada a criação de uma tabela Delta baseada em caminho com uma localização diferente. Identificador: <identifier>, Localização: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
O nome ou a localização da tabela têm de ser especificados.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
O esquema especificado não corresponde ao esquema existente em <path>.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção é manter o esquema existente, você pode omitir o
esquema do comando create table. Caso contrário, certifique-se de que
o esquema corresponde.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível ativar o recurso de tabela <tableFeature> usando TBLPROPERTIES. Use CREATE OU REPLACE TABLE CLUSTER BY para criar uma tabela Delta com aglomeração.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
As colunas de agrupamento especificadas não correspondem às colunas de agrupamento existentes em <path>.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
O particionamento especificado não corresponde ao particionamento existente em <path>.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
As propriedades especificadas não correspondem às propriedades existentes em <path>.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Não é possível criar tabela ('<tableId>'). O local associado ('<tableLocation>') não está vazio e também não é uma tabela Delta.
DELTA_DATA_CHANGE_FALSE
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: '<op>'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Este arquivo parquet pode ser excluído de acordo com a política de retenção de dados da Delta.
Duração padrão de retenção de dados do Delta: <logRetentionPeriod>. Tempo de modificação do arquivo parquet: <modificationTime>. Tempo de eliminação do ficheiro parquet: <deletionTime>. Excluído na versão Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
É inválido encaminhar ficheiros com vetores de eliminação sem a estatística de numRecords.
DESATIVAR_MATERIALIZAÇÃO_DE_FONTE_EM_INSERIR_SUBSTITUIR_COM_ON_OU_USANDO_NÃO_PERMITIDO
Não é permitido desativar a materialização de origem no INSERT REPLACE ON/USING ao definir 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' para 'none'.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Não é permitido desativar a materialização de origem definindo MERGE 'spark.databricks.delta.merge.materializeSource' como 'none'.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Ação(ões) DomainMetadata detetada(s) para domínios <domainNames>, mas DomainMetadataTableFeature não está ativado.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Índice <columnIndex> para remover coluna é inferior a 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Não é possível remover uma coluna de um esquema com uma única coluna. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
A operação de arquivo '<actionType>' para o caminho <path> foi especificada várias vezes.
Entra em conflito com <conflictingPath>.
Não é válido que existam várias operações de arquivo com o mesmo caminho em uma única confirmação.
DELTA_DUPLICATE_COLUMNS_FOUND
Coluna(s) duplicada(s) encontrada(s) <coltype>: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Nomes de coluna duplicados na cláusula INSERT.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Remova as colunas duplicadas antes de atualizar a tabela.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Dados duplicados ignorando colunas encontradas: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Erro interno: duas ações DomainMetadata dentro da mesma transação têm o mesmo domínio <domainName>.
ENTRADAS_DE_LOG_DUPLICADAS_DELTA_ENCONTRADAS
O log Delta está em um estado ilegal: <numDuplicates> os caminhos têm entradas duplicadas na versão <version>.
RESTORE para uma versão anterior à confirmação que introduziu a duplicação ou entre em contato com o suporte para obter assistência.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
O modo de substituição de partição dinâmica é especificado pelas opções de configuração de sessão ou gravação, mas é desabilitado pelo spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Os dados usados na criação da tabela Delta não têm colunas.
DELTA_EMPTY_DIRECTORY
Nenhum arquivo encontrado no diretório: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
O valor "<value>" excede a limitação de comprimento do tipo char/varchar. Falha na verificação: <expr>.
METADADOS_EXTERNOS_DELTA_PROJECAO_NAO_RESOLVIDA
A consulta de projeção '<query>' não pode ser resolvida no esquema: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Os metadados externos não suportam a fonte.
Para mais detalhes, ver DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Falha ao converter o valor <value> da partição para <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Não foi possível encontrar <newAttributeName> entre a saída existente de destino <targetOutputColumns>.
DELTA_FAILED_INFER_SCHEMA
Falha ao inferir esquema a partir da lista fornecida de arquivos.
DELTA_FAILED_MERGE_SCHEMA_FILE
Falha ao mesclar esquema de arquivo <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Falha ao executar a operação na tabela <sourceTable> de origem porque o clone <targetTable> superficial ainda existe e ocorreu o seguinte erro no clone superficial: <message>
DELTA_FAILED_READ_FILE_FOOTER
Não foi possível ler o rodapé do arquivo: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
Não é possível reconhecer o predicado '<predicate>'.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Era esperada uma verificação completa da versão mais recente do código-fonte Delta; no entanto, foi encontrada uma verificação histórica da versão <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
Falha ao mesclar campos '<currentField>' e '<updateField>'.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não listados no protocolo: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Seu esquema de tabela requer a ativação manual do(s) seguinte(s) recurso(s) de tabela: <unsupportedFeatures>.
Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'suportado')
Substitua "table_name" e "feature_name" por valores reais.
Funcionalidade(s) suportada(s) atual(is): <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Não foi possível descartar o recurso Proteção de ponto de verificação.
Esse recurso só pode ser descartado truncando o histórico.
Por favor, tente novamente com a TRUNCATE HISTORY opção:
ALTER TABLE table_name DROP FEATURE proteção de ponto de verificação TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
A remoção de <featureName> falhou devido a uma falha na criação do ponto de verificação.
Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte da Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
A operação não teve sucesso porque ainda há vestígios de funcionalidades removidas
no histórico da tabela. CheckpointProtection não pode ser descartado até que estes históricos sejam resolvidos
as versões expiraram.
Para desativar o CheckpointProtection, por favor aguarde até que as versões históricas estejam completas.
expirar e, em seguida, repita este comando. O período de retenção para versões históricas é
atualmente configurado para <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.
Por favor, tente a operação novamente.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Não é possível eliminar a funcionalidade da tabela <feature> porque algumas outras funcionalidades (<dependentFeatures>) nesta tabela dependem de <feature>.
Considere descartá-los primeiro antes de descartar esse recurso.
DELTA_CARACTERÍSTICA_REMOVA_CARACTERÍSTICA_É_PROPRIEDADE_DELTA
Não é possível soltar <property> desta tabela porque esta é uma propriedade de tabela delta e não um recurso de tabela.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Não é possível remover <feature> desta tabela porque não está presente no protocolo da tabela.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Não é possível eliminar <feature> porque o log Delta contém versões históricas que usam a funcionalidade.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>=<logRetentionPeriod>)
já passou desde a última vez que a funcionalidade esteve ativa.
Ou então, aguarde até que o período de retenção de TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>)
e, em seguida, execute:
ALTER TABLE nome_da_tabela DROP FEATURE nome_da_característica TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
O recurso específico não requer truncamento do histórico.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Não é possível descartar <feature> porque não há suporte para descartar esse recurso.
Entre em contato com o suporte da Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Não é possível remover <feature> porque não é suportado por esta versão do Databricks.
Considere o uso do Databricks com uma versão superior.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
O lançamento do <feature> foi parcialmente bem-sucedido.
O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente em versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo de tabela até que essas versões históricas tenham expirado.
Para remover o recurso de tabela do protocolo, aguarde que as versões históricas sejam carregadas.
expirar e, em seguida, repita este comando. O período de retenção para versões históricas é
atualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>.
Ou então, aguarde até que o período de retenção de TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>)
e, em seguida, execute:
ALTER TABLE nome_da_tabela DROP FEATURE nome_da_característica TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Não é possível ativar o recurso de tabela <feature> porque requer uma versão de protocolo de leitor superior (<current>atual). Considere atualizar a versão do protocolo de leitura da tabela para <required>, ou para uma versão que ofereça suporte aos recursos da tabela do leitor. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Não é possível habilitar o recurso de tabela <feature> porque ele requer uma versão superior do protocolo de gravador (<current>atual). Considere atualizar a versão do protocolo de gravador da tabela para <required>, ou para uma versão que ofereça suporte aos recursos da tabela do gravador. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.
DELTA_FILE_ALREADY_EXISTS
Caminho do arquivo existente <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Não é possível especificar a lista de arquivos e a cadeia de caracteres de padrão.
DELTA_FILE_NOT_FOUND
Caminho do arquivo <path>.
DELTA_FILE_NOT_FOUND_DETAILED
Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Isso ocorre quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE. Para obter mais informações, consulte <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Nenhum arquivo ou diretório desse tipo: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Arquivo (<path>) a ser reescrito não encontrado entre os arquivos candidatos:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Foi encontrado um tipo de mapa (MapType). Para acessar a chave ou o valor de um MapType, especifique um
of:
<key> ou
<value>
seguido do nome da coluna (apenas se essa coluna for do tipo struct).
por exemplo, mymap.key.mykey
Se a coluna for de um tipo básico, basta utilizar mymap.key ou mymap.value.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
A FSCK não consegue reparar a mesa. A tabela não tem um checkpoint válido para iniciar a repetição do log, e não há histórico suficiente para repetir a primeira versão.
DELTA_FSCK_CONCURRENT_MODIFICATION
Modificação simultânea da tabela detetada durante a execução do FSCK. Por favor, tente novamente o comando FSCK e certifique-se de que nenhuma outra operação está a escrever na tabela durante o processo de reparação.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
O ENSAIO FSCK não pode avançar porque foram detetados pontos de controlo inválidos. Por favor, execute primeiro 'SÓ MESA METADATA FSCHKREPAIR TABLE' para reparar os pontos de controlo.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
FSCK DRY RUN não pode avançar porque foram detetados ficheiros em falta ou com valores de partição inválidos. Por favor, faça primeiro a 'mesa FSCK REPAIR TABLE ' para reparar a mesa.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
A FSCK não consegue reparar a mesa. Alguns dos postos de controlo inválidos estão protegidos e não podem ser removidos. Entre em contato com o suporte da Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
A FSCK não consegue reparar a mesa. Todos os checkpoints desta tabela são inválidos. Entre em contato com o suporte da Databricks.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
A coluna <columnName> tem o tipo de dados <columnType> e não pode ser alterada para o tipo de dados <dataType> porque esta coluna é referenciada pela(s) seguinte(s) coluna(s) gerada(s):
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName> porque esta coluna é referenciada pela(s) seguinte(s) coluna(s) gerada(s):
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
O tipo de expressão da coluna <columnName> gerada é <expressionType>, mas o tipo de coluna é <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
A coluna <currentName> é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType> e não pode ser convertido em tipo <updateDataType>de dados .
DELTA_GEOSPATIAL_NOT_SUPPORTED
Os tipos geoespaciais não são suportados nesta versão do Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
O tipo geoespacial tem um SRID não suportado: <srid>. As tabelas delta suportam apenas valores srid não negativos.
DELTA_ICEBERG_COMPAT_VIOLATION
A validação do IcebergCompatV<version> falhou.
Para mais detalhes, veja DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
A validação do IcebergWriterCompatV<version> falhou.
Para mais detalhes, consulte DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN não é suportado para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY só é suportado pela Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY não pode ser chamado em colunas não IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Não é suportado fornecer valores para GENERATED ALWAYS AS IDENTITY a coluna <colName> .
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY passo da coluna não pode ser 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY colunas são suportadas apenas pelo Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY coluna <colName> não é suportada.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS não é suportado para tabelas com colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType> não é suportado para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
A coluna UPDATE em IDENTITY<colName> não é suportada.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY coluna não pode ser especificada com uma expressão de coluna gerada.
DELTA_ILLEGAL_OPTION
Valor inválido '<input>' para a opção '<name>', <explain>
DELTA_ILLEGAL_USAGE
O uso de <option> não é permitido quando <operation> uma tabela Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
A especificação de compartimentos na tabela Delta compartimentada não corresponde à especificação de compartimentos dos metadados. Esperado: <expected>. Real: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) não pode ser definido com valores diferentes. Por favor, defina apenas um deles, ou defina-os com o mesmo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Acessando incorretamente um ArrayType. Use a posição de arrayname.element.elementname para
adicionar a uma matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Foi encontrado um ArrayType. Para acessar elementos de um ArrayType, especifique
<rightName> em vez de <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Use getConf() em vez de conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
O erro normalmente ocorre quando a implementação padrão do LogStore, que
is, HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não-HDFS.
A fim de obter as garantias transacionais ACID em atualizações de tabela, terás de usar o
implementação correta do LogStore apropriada para seu sistema de armazenamento.
Consulte <docLink> para obter detalhes.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Índice <index> para soltar coluna igual ou maior que o comprimento estrutural: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
O índice <index> para adicionar a coluna <columnName> é maior que o comprimento da estrutura: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Não é possível gravar em '<tableName>', <columnName>; embora a tabela de destino tenha <numColumns> coluna(s), os dados inseridos contêm <insertColumns> coluna(s).
DELTA_INSERT_COLUMN_MISMATCH
A coluna <columnName> não é especificada em INSERT.
DELTA_INSERIR_SUBSTITUIR_EM_COLUNAS_AMBÍGUAS_NA_CONDIÇÃO
A(s) coluna(s) são(são) ambígua(s) <columnNames> na condição de INSERT REPLACE ON. Considere especificar um alias para essas colunas.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Por favor, contacte o seu representante Databricks para ativar o INSERT INTO...REPLACE ON ... APIs SQL e DataFrame.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
A(s) coluna(s) <columnNames> não pode(m) ser resolvida(s) na condição de INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactação automática inválido: <value>. Os valores permitidos são: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Contagem de bucket inválida: <invalidBucketCount>. A contagem de balde deve ser um numérico positivo que seja potência de 2 e pelo menos 8. Você pode usá<validBucketCount> em vez disso.
DELTA_INVALID_BUCKET_INDEX
Não é possível localizar a coluna bucket nas colunas de partição.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
O intervalo não pode ser nulo ou em branco.
DELTA_INVALID_CDC_RANGE
O intervalo do CDC do início <start> ao fim <end> é inválido. O fim não pode ser antes do início.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
O nome do atributo "<columnName>" contém caracteres inválidos entre " ,;{}()\n\t=". Por favor, use o pseudónimo para renomeá-lo.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Foram encontrados caracteres inválidos entre ' ,;{}()\n\t=' nos nomes das colunas do seu esquema.
Nomes de colunas inválidos: <invalidColumnNames>.
Use outros caracteres e tente novamente.
Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Encontrado <colName> em CHECK restrição. Uma restrição de verificação não pode usar uma coluna inexistente.
DELTA_INVALID_CLONE_PATH
O local de destino para CLONE precisa ser um caminho absoluto ou nome de tabela. Utilize uma seringa
caminho absoluto em vez de <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Foram encontrados caracteres inválidos entre ' ,;{}()\n\t=' nos nomes das colunas do seu esquema.
Nomes de colunas inválidos: <invalidColumnNames>.
O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.
DELTA_INVALID_FORMAT
Formato incompatível detetado.
Um log de transações para Delta foi encontrado em <deltaRootPath>/_delta_log,
mas você está tentando <operation> <path> usar format("<format>"). Deve utilizar
'format("delta")' ao ler e escrever numa tabela delta.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opções inválidas para escritas idempotentes de Dataframe: <reason>
DELTA_INVALID_INTERVAL
<interval> não é um INTERVALválido.
DELTA_INVALID_INVENTORY_SCHEMA
O esquema para o INVENTORY especificado não contém todos os campos obrigatórios. Os campos obrigatórios são: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
nível de isolamento inválido '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) e (<schemeConfig>) não podem ser definidos ao mesmo tempo. Por favor, defina apenas um grupo deles.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Você está tentando criar uma tabela gerenciada <tableName>
usando Delta, mas o esquema não é especificado.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> não é uma coluna de partição válida na tabela <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Encontrei colunas de partição com caracteres inválidos entre " ,;{}()\n\t=". Por favor, altere o nome para as suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Não há suporte para usar a coluna <name> do tipo <dataType> como coluna de partição.
DELTA_INVALID_PARTITION_PATH
Um fragmento de caminho de partição deve ter a forma de part1=foo/part2=bar. O caminho da partição: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
A versão do protocolo não pode ser rebaixada de (<oldProtocol>) para (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Versão do protocolo Delta não suportada: a tabela "<tableNameOrPath>" requer a versão <readerRequired> do leitor e a versão <writerRequired>do gravador, mas esta versão do Databricks suporta as versões <supportedReaders> do leitor e do <supportedWriters>gravador. Atualize para uma versão mais recente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
A função <function> é uma função com valor de tabela não suportada para leituras do CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp> fornecido não corresponde à sintaxe esperada <format>.
DELTA_LOG_ALREADY_EXISTS
Já existe um log Delta em <path>.
DELTA_LOG_FILE_NOT_FOUND
Não é possível recuperar os arquivos de log delta para construir a versão <version> da tabela a partir da versão <checkpointVersion> do ponto de verificação em <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Se você nunca o excluiu, é provável que sua consulta esteja atrasada. Por favor, exclua seu ponto de verificação para reiniciar do zero. Para evitar que isso aconteça novamente, você pode atualizar sua política de retenção da tabela Delta.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Acesso negado ao ler o ficheiro de registo JSON Delta: <filePath>. Verifica se tens permissões de leitura para a localização da tabela Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Nome da coluna materializada <rowTrackingColumn> ausente para <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Por favor, use um limite inferior a Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Este compromisso fracassou, pois foi tentado <numAttempts> vezes, mas não teve sucesso.
Isso pode ser causado pela tabela Delta ser comprometida continuamente por muitos concorrentes
commits.
Confirmação iniciada na versão: <startVersion>
A confirmação falhou na versão: <failVersion>
Número de ações que se tentou cometer: <numActions>
Tempo total gasto na tentativa de confirmação: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
Lista de arquivos deve ter no máximo <maxFileListSize> entradas, teve <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Não é possível adicionar a coluna <newColumn> com o tipo VOID. Especifique explicitamente um tipo não nulo.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Falha ao mesclar tipos de dados incompatíveis <currentDataType> e <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Falha ao mesclar tipos decimais com incompatíveis <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Manter materializada a fonte da declaração MERGE falhou repetidamente.
DELTA_MERGE_MISSING_WHEN
Deve haver pelo menos uma cláusula WHEN numa declaração MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Atributo(s) resolvido(s) ausente(s) do <missingAttributes> no operador <input>.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
A MERGE operação falhou porque (parte do) plano de origem foi armazenado em cache enquanto a MERGE operação estava em execução.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Chave de atribuição inesperada: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Não é possível resolver <sqlExpr> em <clause> determinadas colunas <cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: Os metadados da tabela Delta foram alterados por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_MISSING_CHANGE_DATA
Erro ao obter dados de alteração para o intervalo [<startVersion> , <endVersion>] pois os dados de alteração não foram
gravado para a versão [<version>]. Se tiver ativado o feed de dados de alteração nesta tabela,
Use DESCRIBE HISTORY para ver quando ele foi habilitado pela primeira vez.
Caso contrário, para começar a gravar dados de alteração, use ALTER TABLE table_name SET TBLPROPERTIES
(<key>=verdade).
DELTA_MISSING_COLUMN
Não é possível encontrar <columnName> nas colunas da tabela: <columnList>.
DELTA_MISSING_COMMIT_INFO
Esta tabela tem o recurso <featureName> habilitado, que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de commit <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Esta tabela tem o recurso <featureName> habilitado, que requer a presença de commitTimestamp na ação CommitInfo. No entanto, este campo não foi definido na versão commit <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> não é uma tabela Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
A classe Apache Iceberg não foi encontrada. Certifique-se de que o suporte Delta Apache Iceberg está instalado.
Consulte <docLink> para obter mais detalhes.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
A coluna <columnName>, que tem uma restrição de NOT NULL, está ausente dos dados que estão sendo gravados na tabela.
DELTA_MISSING_PARTITION_COLUMN
A coluna de partição <columnName> não encontrada no esquema <columnList>.
DELTA_MISSING_PART_FILES
Não foi possível encontrar todos os ficheiros de partes da versão de ponto de verificação: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA só suporta mesas de parquet. Por favor, reescreva seu alvo como parquet.
<path> se for um diretório parquet.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
O erro ao obter dados de alteração como <tableName> rastreio de linhas não estava ativado. Para ativar o rastreamento de linhas, use ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET coluna não <columnName> encontrada determinadas colunas: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Formato incompatível detetado.
Você está tentando <operation> <path> usando o Delta, mas não há
log de transações presente. Verifique o trabalho upstream para se certificar de que está a escrever
usando format("delta") e que você está tentando %1$s o caminho base da tabela.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_MODE_NOT_SUPPORTED
O modo especificado '<mode>' não é suportado. Os modos suportados são: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Vários argumentos de <startingOrEnding> fornecidos para leitura do CDC. Por favor, forneça um dos <startingOrEnding>Timestamp ou <startingOrEnding>Version.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Várias configurações de índice de filtro bloom passadas para o comando da coluna: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Não é possível realizar a Merge porque várias linhas de origem coincidiram e tentaram modificá-las iguais
linha de alvos na tabela Delta de formas possivelmente contraditórias. Pela semântica SQL do Merge,
Quando várias linhas de origem coincidem na mesma linha-alvo, o resultado pode ser ambíguo
pois não está claro qual a linha de origem que deve ser usada para atualizar ou eliminar a correspondência
Linha de alvos. Pode pré-processar a tabela de origem para eliminar a possibilidade de
Múltiplas correspondências. Por favor, consulte
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>, ambas as configurações de commits coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são configuradas no comando ou nenhuma delas. Falta: "<configuration>". Especifique essa configuração na cláusula TBLPROPERTIES ou remova a outra configuração e tente novamente o comando.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>, ou ambas as configurações de commits coordenadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession, ou nenhuma delas. Falta: "<configuration>". Defina essa configuração no SparkSession ou desdefina a outra configuração e tente novamente o comando.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
O(s) seguinte(s) nome(s) de coluna são reservados apenas para uso interno da tabela de buckets Delta: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
O esquema de entrada contém campos aninhados que são capitalizados de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Fields:
<fields>.
Esquema original:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
O tipo <nestType> do campo <parent> contém uma restrição NOT NULL. O Delta não suporta restrições de NOT NULL aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey> = true.
Tipo de <nestType> analisado:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
A subconsulta aninhada não é suportada na condição <operation>.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> linhas em <tableName> violam a nova restrição CHECK (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> linhas em <tableName> violam a nova NOT NULL restrição em <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK restrição '<name>' (<expr>) deve ser uma expressão booleana.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Encontrado <expr> numa CHECK restrição. Uma CHECK restrição não pode usar uma expressão não determinística.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Encontrado <expr>. Uma coluna gerada não pode usar uma expressão não determinística.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Funções não determinísticas não são suportadas no <operation> <expression>.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma declaração MERGE, apenas a última cláusula MATCHED pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma declaração MERGE, apenas a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED em uma declaração MERGE, apenas a última cláusula NOT MATCHED pode omitir a condição.
DELTA_NON_PARSABLE_TAG
Não foi possível analisar a tag <tag>.
As tags de arquivo são: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Os dados gravados no Delta precisam conter pelo menos uma coluna não particionada.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
O predicado faz referência à coluna não particionada '<columnName>'. Apenas as colunas de partição podem ser referenciadas: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Colunas não-particionadas <columnList> foram especificadas, onde apenas colunas de particionamento são esperadas: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
O catálogo delta requer um namespace de parte única, mas <identifier> é de várias partes.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Não é suportada a configuração do coordenador de confirmação como '<nonUcCoordinatorName>' a partir do comando, porque as tabelas geridas pelo UC só podem ter 'unity-catalog' como coordenador de confirmação. Altere-o para 'unity-catalog' ou remova todas as propriedades da tabela Commits Coordenados da TBLPROPERTIES cláusula e tente novamente o comando.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Não há suporte para a configuração do coordenador de confirmação como '<nonUcCoordinatorName>' das configurações do SparkSession, porque as tabelas gerenciadas por UC só podem ter 'unity-catalog' como coordenador de confirmação. Por favor, altere para 'unity-catalog' executando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog"), ou remova todas as propriedades da tabela de Commits Coordenados das configurações do SparkSession executando spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), e depois tente novamente o comando.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
A tabela <tableName> não é gerenciada por UC. Apenas tabelas geridas por UC podem ser atualizadas ou rebaixadas para tabelas geridas por catálogo.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> não é uma tabela Delta. Por favor, elimine esta tabela primeiro se pretende criá-la com o Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName> não é uma tabela Delta. Por favor, elimina esta tabela primeiro se pretender recriá-la com o Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Coluna não anulável não encontrada na struct: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL restrição violada para coluna: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Um campo aninhado não anulável não pode ser adicionado a um campo pai anulável. Defina a anulabilidade da coluna pai de forma adequada.
DELTA_NO_COMMITS_FOUND
Nenhum compromisso encontrado em <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Nenhum commit recriável encontrado em <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Operação não permitida: <operation> não pode ser executada em uma tabela com recurso de redirecionamento.
As regras de não redirecionamento não são satisfeitas <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Tabela <tableIdent> não encontrada.
DELTA_NO_START_FOR_CDC_READ
Nenhum "startingVersion" ou "startingTimestamp" foi fornecido para a leitura CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta não aceita NullTypes no esquema para gravações de streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Por favor, forneça 'timestampAsOf' ou 'versionAsOf' para viagens no tempo.
DELTA_ONLY_OPERATION
<operation> só é suportado para tabelas Delta.
DELTA_OPERATION_MISSING_PATH
Forneça o caminho ou identificador de tabela para <operation>.
DELTA_OPERATION_NOT_ALLOWED
Operação não permitida: <operation> não é suportada para tabelas Delta.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operação não permitida: <operation> não é suportada para tabelas Delta: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> não é suportado para coluna <colName> com agrupamento <collation>não padrão.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> não é suportado para tipos de dados: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> não é suportado para a expressão <exprText> porque utiliza agrupamento não padrão.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> comando em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é suportado. Execute o <operation> comando diretamente na tabela Delta.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operação não permitida: <operation> não pode ser executada em uma exibição.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL só é suportado para tabelas clusterizadas com colunas de clustering não vazias.
DELTA_OVERWRITE_MUST_BE_TRUE
A opção de cópia overwriteSchema não pode ser especificada sem a definição OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' não pode ser utilizado em modo de substituição dinâmica de partição.
DELTA_PARTITION_COLUMN_CAST_FAILED
Falha ao lançar valor <value> para <dataType> na coluna de partição <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Coluna <columnName> de partição não encontrada no esquema [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
O esquema de partição não pode ser especificado ao converter tabelas Apache Iceberg. Infere-se automaticamente.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
O acesso baseado em caminho não é permitido para Catalog-Managed tabela: <path>. Por favor, aceda à tabela através do seu nome e tente novamente.
O ACESSO BASEADO EM CAMINHO DELTA À TABELA ESTÁ BLOQUEADO
A tabela at <path> foi migrada para uma tabela gerenciada pelo Unity Catalog e não pode mais ser acessada pelo caminho. Atualize o cliente para acessar a tabela pelo nome.
DELTA_PATH_DOES_NOT_EXIST
<path> não existe, ou não é uma tabela Delta.
DELTA_PATH_EXISTS
Não é possível gravar no caminho <path> já existente sem definir OVERWRITE = 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
A confirmação da versão <version> da tabela Delta foi bem-sucedida, mas ocorreu um erro ao executar o gancho pós-confirmação <name> <message>.
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: A versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo> <conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_PROTOCOL_PROPERTY_NOT_INT
A propriedade de protocolo <key> precisa ser um inteiro. Encontrado <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Não é possível atualizar apenas a versão do protocolo leitor para usar recursos de tabela. A versão do protocolo do gravador deve ser pelo menos <writerVersion> para prosseguir. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Você está tentando ler uma tabela Delta <tableName> que não tem colunas.
Escreva alguns dados novos com a opção mergeSchema = true para poder ler a tabela.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Está a tentar calcular o Change Data Feed em <tableName> que tem políticas de acesso definidas. O Feed de Dados de Mudança de Hora de Leitura está atualmente em pré-visualização e não suporta CDF em tabelas com políticas de acesso. Ative o CDF otimizado para leitura definindo a propriedade da tabela '<cdfTableProperty>' para 'true' na sua tabela.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Redirecionar para uma tabela com filtro de linha ou máscara de coluna não é suportado. Atualiza o teu código para referenciar diretamente a tabela <tableIdent> de destino.
DELTA_REGEX_OPT_SYNTAX_ERROR
Por favor, verifique novamente a sintaxe para '<regExpOption>'.
DELTA_RELATION_PATH_MISMATCH
O caminho de relação '<relation>' não corresponde ao caminho de <targetType> '<targetPath>'.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
A Conversão Líquida usando o comando reorg não é suportada numa tabela não particionada.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Não é possível <action> particionar colunas.
<instruction> Materialização da coluna de partição definindo a propriedade da tabela '<tableProperty>' para <value> ou a configuração SQL '<sqlConfig>' para <value>.
DELTA_REORG_UNKNOWN_MODE
Modo desconhecido REORG TABLE : <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Não é possível usar replaceWhere em conjunto com uma substituição por filtro.
DELTA_REPLACE_WHERE_MISMATCH
Os dados gravados não estão em conformidade com a condição ou restrição de substituição parcial da tabela '<replaceWhere>'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Uma expressão 'replaceWhere' e 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' não pode ser usado com filtros de dados quando 'dataChange' está definido como false. Filtros: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Colete estatísticas para a tabela executando o ANALYZE TABLE comando:
ANALYZE TABLE nome_da_tabela COMPUTE DELTA STATISTICS
RASTREAMENTO_DE_LINHA_DELTA_PREENCHIMENTO_EXECUTANDO_CONCORRENTEMENTE_COM_NÃO_PREENCHIDO
Uma operação de ativação de rastreamento de linha foi detetada em execução simultânea com uma desativação de rastreamento de linha. Anular a operação de desativação. Tente novamente a operação de desativação, se necessário, quando a operação de ativação estiver concluída.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Foi detetado um estado de tabela ilegal. As propriedades <property1> e <property2> da tabela estão ambas definidas como true. O problema pode ser resolvido desativando qualquer uma das duas propriedades da tabela.
Entre em contato com o suporte da Databricks para obter mais assistência.
DELTA_SCHEMA_CHANGED
Alteração de esquema detetada:
Esquema de origem de streaming: <readSchema>
Esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem
progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Alteração de esquema detetada na versão <version>:
Esquema de origem de streaming: <readSchema>
Esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem
progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após
mudando para um novo diretório de ponto de verificação, talvez seja necessário alterar o
Opção 'startingVersion' ou 'startingTimestamp' para iniciar a partir de uma versão mais recente do que a especificada anteriormente.
<version> com um novo diretório de pontos de verificação.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Alteração de esquema detetada na versão <version>:
Esquema de origem de streaming: <readSchema>
Esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem
progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
O esquema da tua tabela Delta mudou de forma incompatível desde o teu DataFrame
ou o objeto DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
O esquema de tabela não é fornecido. Por favor, forneça o esquema (definição de coluna) da tabela ao usar REPLACE a tabela e não for fornecida uma AS SELECT consulta.
DELTA_SCHEMA_NOT_SET
O esquema de tabela não está definido. Grave dados nele ou use CREATE TABLE para definir o esquema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
O esquema do novo local Delta é diferente do esquema de tabela atual.
Esquema original:
<original>
Esquema de destino:
<destination>
Se esta for uma alteração pretendida, pode desativar esta verificação executando:
%%sql definir <config> = true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE. Esta tabela parece ser um clone superficial, se esse for o caso, esse erro pode ocorrer quando a tabela original da qual esta tabela foi clonada excluiu um arquivo que o clone ainda está usando. Se desejar que algum clone seja independente da tabela original, utilize um clone PROFUNDO em seu lugar.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
As propriedades predefinidas que começam com <prefix> não podem ser modificadas.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Os dados estão restritos pela propriedade <property> do destinatário, que não se aplica ao destinatário atual na sessão.
Para mais detalhes, consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> não pode ser usado em exibições do Delta Sharing que são compartilhadas entre contas.
DELTA_SHARING_INVALID_PROVIDER_AUTH
O tipo de autenticação ilegal <authenticationType> para o provedor <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Tipo de autenticação ilegal <authenticationType> para destinatário <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para referenciar um <type> num Share. Você pode usar o nome do <type> dentro da partilha seguindo o formato [schema].[<type>], ou também pode usar o nome completo original da tabela seguindo o formato [catalog].[schema].[>tipo>].
Se não tiveres a certeza sobre que nome usar, podes executar "SHOW ALL IN SHARE [partilhar]" e encontrar o nome do <type> para remover: a coluna "nome" é o nome do <type> dentro da partilha e a coluna "objeto_partilhado" é o nome completo original do <type>.
DELTA_PARTILHA_MÁXIMA_RECIPIENT_TOKENS_EXCEDIDA
Há mais de dois tokens para o destinatário <recipient>.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
A propriedade <property> do destinatário não existe.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Os tokens de destinatário estão ausentes para o destinatário <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
As colunas não de partição <badCols> são especificadas para SHOW PARTITIONS.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS não é permitido em uma tabela que não está particionada: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Não é possível executar REORG APPLY(SHRED) a operação porque as escritas trituradas estão desativadas.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Tentei escrever variantes trituradas, mas a tabela não suporta escritas trituradas. Considere definir a propriedade de tabela enableVariantShredding como verdadeira.
DELTA_SOURCE_IGNORE_DELETE
Dados excluídos detetados (por exemplo, <removedFile>) da fonte de streaming na versão <version>. No momento, isso não é suportado. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Detetada uma atualização de dados (por exemplo, <file>) na tabela de origem na versão <version>. No momento, isso não é suportado. Se isso vai acontecer regularmente e você não tem problema em pular alterações, defina a opção 'skipChangeCommits' como 'true'. Se você quiser que a atualização de dados seja refletida, reinicie esta consulta com um novo diretório de ponto de verificação ou faça uma atualização completa se estiver usando o Lakeflow Spark Declarative Pipelines. Se você precisar lidar com essas alterações, mude para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Queira indicar «<version>» ou «<timestamp>».
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> estatísticas não encontradas para coluna nos metadados do Parquet: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Estatísticas não encontradas no ficheiro: <filePath>. Executa 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' para calcular estatísticas.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Detetamos uma ou mais alterações de esquema não aditivas (<opType>) entre a versão <previousSchemaChangeVersion> Delta e <currentSchemaChangeVersion> na fonte de streaming Delta.
Changes:
<columnChangeDetails>
Verifique se deseja propagar manualmente a(s) alteração(ões) de esquema para a tabela de coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado na versão <currentSchemaChangeVersion>.
Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir a(s) seguinte(s) configuração(ões) para desbloquear a(s) alteração(ões) de esquema não aditiva e continuar o processamento de fluxo.
Usando a(s) opção(ões) do leitor de dataframe:
Para desbloquear este fluxo específico apenas para esta série de alterações de esquema:
<unblockChangeOptions>
Para desbloquear este fluxo específico:
<unblockStreamOptions>
Usando a(s) configuração(ões) SQL:
Para desbloquear este fluxo específico apenas para esta série de alterações de esquema:
<unblockChangeConfs>
Para desbloquear este fluxo específico:
<unblockStreamConfs>
Para desbloquear todos os fluxos:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Falha ao obter instantâneo de log Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou force a ativação da leitura de streaming por sua conta e risco, definindo '<config>' como 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
A leitura em streaming não é suportada em tabelas com alterações de esquema incompatíveis com leitura (por exemplo, renomear ou excluir ou alterações de tipo de dados).
Para obter mais informações e possíveis próximas etapas para resolver esse problema, consulte a documentação em <docLink>
Leia o esquema: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
A leitura em streaming não é suportada em tabelas com alterações de esquema incompatíveis com leitura (por exemplo, renomear ou excluir ou alterações de tipo de dados).
Forneça um 'schemaTrackingLocation' para habilitar a evolução do esquema não aditivo para o processamento de fluxo Delta.
Consulte <docLink> para obter mais detalhes.
Leia o esquema: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
O esquema, a configuração da tabela ou o protocolo da sua tabela Delta foi alterado durante o streaming.
O esquema ou o registo de rastreamento de metadados foi atualizado.
Reinicie o fluxo para continuar o processamento usando os metadados atualizados.
Esquema atualizado: <schema>.
Configurações de tabela atualizadas: <config>.
Protocolo de tabela atualizado: <protocol>
DELTA_STREAMING_EVOLUÇÃO_DO_ESQUEMA_FILTRO_DE_LINHA_NÃO_SUPORTADO_COLUMN_MASKS
O streaming a partir da tabela de origem <tableId> com acompanhamento de esquema não suporta filtros de linha ou máscaras de coluna.
Solte os filtros de linha ou máscaras de coluna ou desative o rastreamento de esquema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Detetada a localização conflitante do esquema '<loc>' durante o streaming da tabela ou tabela localizada em '<table>'.
Outro fluxo pode estar reutilizando o mesmo local do esquema, o que não é permitido.
Por favor, forneça um novo caminho único de schemaTrackingLocation ou streamingSourceTrackingId como uma opção de leitor para um dos fluxos apresentados nesta tabela.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
O local do esquema '<schemaTrackingLocation>' deve ser colocado sob o local do ponto de verificação '<checkpointLocation>'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Arquivo de log incompleto no log do esquema de origem de streaming Delta em '<location>'.
O log de esquema pode ter sido corrompido. Escolha uma nova localização do esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Detetado ID de tabela Delta incompatível ao tentar ler o fluxo Delta.
ID da tabela persistente: <persistedId>, ID da tabela: <tableId>
O log de esquema pode ter sido reutilizado. Escolha uma nova localização do esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Detetado esquema de partição incompatível ao tentar ler o fluxo Delta.
Esquema persistente: <persistedSchema>, Esquema de partição Delta: <partitionSchema>
Escolha um novo local de esquema para reinicializar o log de esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Não foi possível inicializar o log do esquema de origem de streaming Delta porque
Detetamos uma alteração de esquema ou protocolo incompatível ao servir um lote de streaming da versão de tabela <a> para <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Falha ao analisar o esquema a partir do registo de esquemas da origem de streaming Delta.
O log de esquema pode ter sido corrompido. Escolha uma nova localização do esquema.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
Nenhuma transação encontrada para lote <batchId> no streaming do Delta sink nas versões anteriores <versionLimit> .
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Intervalo de deslocamento de salto inválido para o intervalo da fonte Delta=[<startOffset>, <endOffset>). Corrige este intervalo de deslocamento e tente novamente.
Para mais detalhes, veja DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Não é possível ativar a Captura de Dados de Alteração na tabela. A tabela já contém
colunas reservadas <columnList> que serão
ser usado internamente como metadados para o Feed de Dados de Alteração da tabela. Para ativar
Alterar Fluxo de Dados na tabela para renomear/eliminar estas colunas.
DELTA_TABLE_ALREADY_EXISTS
A tabela <tableName> já existe.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Não é possível calcular o Change Data Feed na tabela. A tabela contém nomes <columnList> de colunas reservados que são usados como colunas de saída para o Feed de Dados de Alteração da tabela. Para calcular o Feed de Alterações de Dados na tabela, renomeie/elimina estas colunas.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Atualmente, o DeltaTable.forPath suporta apenas chaves de configuração hadoop começando com <allowedPrefixes>, mas recebeu <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
A tabela Delta em <tableLocation> foi substituída enquanto este comando estava usando a tabela.
O ID da tabela foi <oldId> mas agora está <newId>.
Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Não é possível atualizar o estado de redirecionamento da tabela: Tentativa de transição de estado inválida.
A tabela Delta '<table>' não pode mudar de '<oldState>' para '<newState>'.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
Não é possível SET ou UNSET redirecionar a propriedade em <table>: a propriedade atual '<currentProperty>' está em incompatibilidade com a nova propriedade '<newProperty>'.
DELTA_TABLE_LOCATION_MISMATCH
A localização da tabela existente <tableName> é <existingTableLocation>. Ele não corresponde ao local <tableLocation>especificado.
DELTA_TABLE_NOT_FOUND
A tabela <tableName> delta não existe.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
A tabela não é suportada em <operation>. Em vez disso, use um caminho.
DELTA_TABLE_ONLY_OPERATION
<tableName> não é uma tabela Delta.
<operation> só é suportado para tabelas Delta.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
O log Delta contém uma especificação de redirecionamento de tabela não reconhecida '<spec>'.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
O esquema final da tabela de destino está vazio.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
O carimbo temporal fornecido (<userTimestamp>) é anterior à versão mais antiga disponível para
esta tabela (<commitTs>). Por favor, use um carimbo temporal após <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
O carimbo de data/hora fornecido (<providedTimestamp>) é posterior à última versão disponível para este sistema
tabela (<tableName>). Por favor, use uma marca temporal antes ou em <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
O carimbo de data/hora fornecido (<expr>) não pode ser convertido em um carimbo de data/hora válido.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> precisa ser um valor inicial válido.
DELTA_TOO_MUCH_LISTING_MEMORY
Falha ao listar arquivos (<numFiles>) na tabela Delta devido à memória insuficiente. Memória necessária: <estimatedMemory>, memória disponível: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: Não é possível reconstruir o estado na versão <version> , pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>=<logRetention>) e à política de retenção de pontos de verificação (<checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operação não permitida: TRUNCATE TABLE em tabelas Delta não suporta predicados de partição; Use DELETE para excluir partições ou linhas específicas.
DELTA_UDF_IN_CHECK_CONSTRAINT
Encontrado <expr> numa CHECK restrição. Uma CHECK restrição não pode usar uma função definida pelo utilizador.
DELTA_UDF_IN_GENERATED_COLUMN
Encontrado <udfExpr>. Uma coluna gerada não pode usar uma função definida pelo usuário.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Expressão de ação inesperada <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Esperando <expectedColsSize> coluna(s) de partição: <expectedCols>, mas encontrou <parsedColsSize> coluna(s) de partição: <parsedCols> ao analisar o nome do ficheiro: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Era esperado uma verificação completa das fontes Delta, mas foi encontrada uma verificação parcial. Caminho: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Esperava coluna de partição <expectedCol>, mas encontrou coluna de partição <parsedCol> ao analisar o nome do ficheiro: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA foi chamado com um esquema de partição diferente do que foi inferido do catálogo; evite fornecê-lo para que o esquema de partição possa ser escolhido a partir do catálogo.
esquema de partição de catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location não pode ser alterado.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location não está registrado no catálogo.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Local ausente ou inválido para o formato de compatibilidade uniforme. Defina um diretório vazio para delta.universalFormat.compatibility.location.
Motivo da falha
Para mais detalhes, consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Leia Apache Iceberg com Delta Uniform falhou.
Para mais detalhes, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Vários formatos de entrada Delta Uniform (<formats>) são encontrados, no máximo um pode ser definido.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Criar ou atualizar tabela de entrada uniforme não é suportado.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
O formato <fileFormat> não é suportado. Apenas o Apache Iceberg e o hudi como formato de ficheiro original são suportados.
DELTA_UNIFORM_INGRESS_VIOLATION
Falhas na leitura do Delta Uniform:
Para mais detalhes, consulte DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
O Formato Universal só é suportado em tabelas do Catálogo Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE com argumento inválido:
Para mais detalhes, ver DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH identificador SYNC UNIFORM não é suportado por este motivo:
Para mais detalhes, ver DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE com METADATA_PATH não é suportado para tabelas geridas do Apache Iceberg.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Falha ao converter a versão da tabela <version> para o formato universal <format>. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
A validação do Formato Universal (<format>) falhou: <violation>.
DELTA_UNKNOWN_CONFIGURATION
Configuração desconhecida foi especificada: <config>.
Para desativar essa verificação, defina <disableCheckConfig>=true na configuração da sessão do Spark.
DELTA_UNKNOWN_PRIVILEGE
Privilégio desconhecido: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Limite de Leitura desconhecido: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Alteração de coluna não reconhecida <otherClass>. Você pode estar executando uma versão desatualizada do Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Invariante não reconhecido. Por favor, atualize sua versão do Spark.
DELTA_UNRECOGNIZED_LOGFILE
Arquivo de log <filename> não reconhecido.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentar remover a propriedade inexistente '<property>' na tabela <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> não suporta a adição de arquivos com um caminho absoluto.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN não é suportado para alterar a coluna <fieldPath> de <oldField> para <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operação ALTER TABLE REPLACE COLUMNS sem suporte. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Você tentou REPLACE uma tabela existente (<tableName>) com CLONE. Esta operação é
unsupported. Tente um destino diferente para CLONE ou exclua a tabela no destino atual.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE comando para tabelas líquidas não suporta os predicados fornecidos:
Para mais detalhes, veja DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Não há suporte para alterar o modo de mapeamento de coluna de '<oldMode>' para '<newMode>'.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Falha ao executar a operação de mapeamento de coluna <opName> na(s) coluna(s) <quotedColumnNames>
porque esta(s) coluna(s) têm Índice de Filtro Bloom.
Se você quiser executar a operação de mapeamento de coluna na(s) coluna(s)
com índice(s) de filtro Bloom
remova o(s) índice(s) do filtro Bloom primeiro:
DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela FOR COLUMNS(<columnNames>)
Se, em vez disso, quiser remover todos os índices de filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Sua versão atual do protocolo de tabela não suporta a alteração dos modos de mapeamento de coluna
usando <config>.
Versão do protocolo Delta necessária para mapeamento de colunas:
<requiredVersion>
Versão atual do protocolo Delta da sua tabela:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
A alteração de esquema é detetada:
esquema antigo:
<oldTableSchema>
Novo esquema:
<newTableSchema>
Não são permitidas alterações de esquema durante a alteração do modo de mapeamento de coluna.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Não há suporte para gravação de dados com o modo de mapeamento de coluna.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Não há suporte para a criação de um índice de filtro bloom em uma coluna com tipo <dataType> : <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Não é possível adicionar um comentário ao <fieldPath>. Não há suporte para adicionar um comentário a uma chave/valor de mapa ou elemento de matriz.
DELTA_UNSUPPORTED_DATA_TYPES
Colunas encontradas usando tipos de dados sem suporte: <dataTypeList>. Você pode definir '<config>' como 'false' para desativar a verificação de tipo. A desativação dessa verificação de tipo pode permitir que os usuários criem tabelas Delta sem suporte e só deve ser usada ao tentar ler/gravar tabelas herdadas.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> não pode ser o resultado de uma coluna gerada.
DELTA_UNSUPPORTED_DEEP_CLONE
O clone profundo não é suportado por esta versão Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> é uma visualização.
DESCRIBE DETAIL só é suportado para tabelas.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Não é permitido remover colunas de agrupamento (<columnList>).
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN não é suportado para a sua Tabela Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Só pode remover colunas aninhadas de StructType. Encontrado <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Não é permitido eliminar colunas de partição (<columnList>).
DELTA_UNSUPPORTED_EXPRESSION
Tipo de expressão não suportado (<expType>) para <causedBy>. Os tipos suportados são [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Encontrado <expression> numa CHECK restrição.
<expression> não pode ser usado numa CHECK restrição.
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> não pode ser usado em uma coluna gerada.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Recurso de leitura Delta não suportado: a tabela "<tableNameOrPath>" requer recurso(s) de tabela de leitura que não são suportados por esta versão do Databricks: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Funcionalidade de gravação Delta não suportada: a tabela "<tableNameOrPath>" requer funcionalidades de tabela de escrita que esta versão do Databricks não suporta: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
O(s) recurso(s) de tabela configurado(s) nas seguintes configurações do Spark ou propriedades de tabela Delta não são reconhecidos por esta versão do Databricks: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Esperando que o estado do recurso <feature> de tabela seja "suportado", mas recebeu "<status>".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
A atualização de campos aninhados só é suportada para StructType, mas você está tentando atualizar um campo de <columnName>, que é do tipo: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
O comando 'FSCK REPAIR TABLE' não é suportado em versões de tabela com arquivos vetoriais de exclusão ausentes.
Entre em contato com o suporte.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
O comando 'GENERATE symlink_format_manifest' não é suportado em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de eliminação, execute 'REORG TABLE table APPLY (PURGE)'. Em seguida, execute novamente o comando 'GENERATE'.
Certifique-se de que nenhuma transação simultânea esteja adicionando vetores de exclusão novamente entre REORG e GENERATE.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere desabilitar vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Não há suporte para invariantes em campos aninhados diferentes de StructTypes.
DELTA_UNSUPPORTED_IN_SUBQUERY
A subconsulta não é suportada na condição <operation>.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix não disponível.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
A geração de manifesto não é suportada para tabelas que utilizam mapeamento de colunas, uma vez que os leitores externos não conseguem ler essas tabelas Delta. Consulte a documentação do Delta para obter mais detalhes.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO operações com evolução de esquema atualmente não suportam a gravação de saída CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Os predicados In de várias colunas não são suportados na condição <operation>.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
No momento, não há suporte para a criação de um índice de arquivo bloom em uma coluna aninhada: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
O campo aninhado não é suportado no <operation> (campo = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
A tabela de destino do clone não está vazia. Por favor, TRUNCATE ou DELETE FROM a tabela antes de executar CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
A fonte <dataSource> de dados não suporta o <mode> modo de saída.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
A criação de um índice de filtro bloom numa coluna de particionamento não é suportada: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
A renomeação de coluna não é suportada para a tabela Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
A Delta não permite especificar o esquema no momento da leitura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY não é suportado para tabelas com buckets Delta.
DELTA_UNSUPPORTED_SOURCE
<operation> destino suporta apenas fontes Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Atualmente, não há suporte para especificar partições estáticas na especificação de partição durante as inserções.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nome da estratégia sem suporte: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Não há suporte para subconsultas no <operation> (condição = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
A subconsulta não é suportada em predicados de partição.
VIAGEM_NO_TEMPO_NÃO_SUPORTADA_ALÉM_DA_DURAÇÃO_DE_RETENÇÃO_DE_FICHEIROS_ELIMINADOS
Não é possível viajar no tempo além de delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) definido na tabela.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Não é possível definir viagens no tempo em vários formatos.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Não é possível viajar no tempo visualizações, subconsultas, fluxos ou alterar consultas de feed de dados.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Não há suporte para truncar tabelas de exemplo.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName> foi alterado de <fromType> para <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Não foi possível alterar o tipo de dados da(s) coluna(s) <quotedColumnNames>
porque essas colunas têm Bloom Filter Index(es).
Se você quiser alterar o tipo de dados da(s) coluna(s) com o(s) índice(s) de filtro Bloom,
remova o(s) índice(s) do filtro Bloom primeiro:
DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela FOR COLUMNS(<columnNames>)
Se, em vez disso, quiser remover todos os índices de filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Por favor, forneça o caminho base (<baseDeltaPath>) ao aspirar tabelas delta. Atualmente, não há suporte para a funcionalidade de aspirar partições específicas.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
A implementação da tabela não suporta gravações: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador de confirmação <coordinatorName>. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e, assim, escritas sem coordenadores não são permitidas.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Não há suporte para gravação em tabelas de exemplo.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Não é possível converter <fromCatalog> para <toCatalog>. Todas as colunas aninhadas devem corresponder.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT A operação requer que os pontos de verificação V2 estejam ativados na tabela.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM em arquivos de dados foi bem-sucedida, mas COPY INTO coleta de lixo de estado falhou.
DELTA_VERSIONS_NOT_CONTIGUOUS
As versões (<versionList>) não são contíguas.
Uma lacuna no log delta entre as versões <startVersion> e <endVersion> foi detetada ao tentar carregar a versão <versionToLoad>.
Para mais detalhes, ver DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
A versão fornecida (<version>) não é uma versão válida.
DELTA_VERSION_NOT_FOUND
Não é possível viajar no tempo na tabela Delta para a versão <userVersion>. Versões disponíveis: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK restrição <constraintName> <expression> violada pela linha com valores:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
A validação das propriedades da tabela <table> foi violada:
Para mais detalhes, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> é uma visualização. Você não pode gravar dados em uma exibição.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
A coluna Z-Ordering <columnName> não existe no esquema de dados.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering on <cols> será ineficaz, porque atualmente não coletamos estatísticas para essas colunas. Consulte <link> para obter mais informações sobre pulo de dados e z-ordering. Você pode desativar essa verificação definindo
SET <zorderColStatKey> = falso
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> é uma coluna de partição. A ordenação Z só pode ser realizada em colunas de dados.
Compartilhamento Delta
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
Ativação nonce não encontrado. O link de ativação usado é inválido ou expirou. Regenere o link de ativação e tente novamente.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: nenhum atribuído
Não há suporte para partilha entre as regiões <regionHint> e as regiões fora delas.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: nenhum atribuído
A exibição definida com a função current_recipient é apenas para compartilhamento e só pode ser consultada do lado do destinatário dos dados. O recurso seguro fornecido com id <securableId> não é uma Visão Delta Sharing.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
O tipo segurável fornecido <securableKind> não suporta mutabilidade no Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nenhum atribuído
O tipo protegível fornecido <securableKind> não suporta a ação de rotação de token iniciada pelo serviço Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: nenhum atribuído
<dsError>: Tipo de autenticação não disponível na entidade do provedor <providerEntity>.
DS_CDF_NOT_ENABLED
SQLSTATE: nenhum atribuído
<dsError>: Não é possível aceder ao feed de dados de alteração para <tableName>. CDF não está habilitado na tabela delta original para a versão <version>. Contacte o seu fornecedor de dados.
DS_CDF_NOT_SHARED
SQLSTATE: nenhum atribuído
<dsError>: Não é possível aceder ao feed de dados de alteração para <tableName>. CDF não é compartilhado na mesa. Contacte o seu fornecedor de dados.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: nenhum atribuído
<dsError>: O fornecedor de nuvem está temporariamente indisponível para <rpcName>, tente novamente.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: nenhum atribuído
<dsError>: Tarefa de materialização de dados executada <runId> da organização <orgId> falhou no comando <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
<dsError>: A tarefa de materialização de dados em execução <runId> da organização <orgId> não suporta o comando <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: nenhum atribuído
<dsError>: <featureName> não é suportado porque serverless não é suportado ou ativado no espaço de trabalho do provedor. Entre em contato com seu provedor de dados para habilitar o serverless.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: nenhum atribuído
<dsError>: Não foi possível encontrar namespace válido para criar materialização para <tableName>. Entre em contato com seu provedor de dados para corrigir isso.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: nenhum atribuído
<dsError>: Não foi encontrado espaço de trabalho adequado para materializar o ativo partilhado. Por favor, contacte o seu fornecedor de dados para recriar o destinatário num espaço de trabalho onde seja permitido o acesso por escrita ao catálogo do ativo partilhado.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
<dsError>: Tarefa de materialização de dados executada <runId> a partir da organização <orgId> não existe
DS_DELTA_ILLEGAL_STATE
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: nenhum atribuído
<dsError>: Não foi possível encontrar todos os ficheiros de peças do ponto de verificação na versão: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nenhum atribuído
<dsError>: O tipo securável <securableKind> fornecido não suporta a ação de expiração do token iniciada pelo serviço Marketplace.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: nenhum atribuído
<dsError>: <feature> só está habilitado para compartilhamento Delta de Databricks para Databricks.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>: <storage>: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: nenhum atribuído
<dsError>: Este recurso está desativado para a conta. Contacte o seu fornecedor de dados.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: nenhum atribuído
<dsError>: <key> não é definido pelo chamador.
DS_ILLEGAL_STATE
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: nenhum atribuído
<dsError>: Caminho do Azure inválido: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: nenhum atribuído
<dsError>: Parâmetro inválido para <rpcName> devido a <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: nenhum atribuído
<dsError>: Falha na consulta para <schema>.
<table> de Compartilhar <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: nenhum atribuído
<dsError>: Tempo limite de consulta esgotado para <schema>.
<table> a partir do Share <share> após <timeoutInSec> segundos.
DS_MIGRATED_MANAGEMENT_API_CHAMADO
SQLSTATE: nenhum atribuído
<dsError>: O RPC <rpcName> da UC falhou.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: nenhum atribuído
<dsError>: A chave de idempotência é requerida quando a consulta <schema>.
<table> de Compartilhar <share> de forma assíncrona.
DS_MISSING_SERVERLESS_BUDGET_POLICY (Política de Orçamento Serverless em falta)
SQLSTATE: nenhum atribuído
<dsError>: A operação usa serverless no Databricks do fornecedor, mas falta uma política de orçamento serverless para a partilha. Entre em contato com o provedor de dados para adicionar uma política de orçamento sem servidor para compartilhar.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: nenhum atribuído
<dsError>: Por favor, forneça apenas um de: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: nenhum atribuído
<dsError>: Conexão de rede fechada para <rpcName> devido a <errorCause>, por favor, tente novamente.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: nenhum atribuído
<dsError>: Tempo limite da conexão de rede para <rpcName> devido a <errorCause>, por favor, tente novamente.<traceId>
DS_NETWORK_ERROR
SQLSTATE: nenhum atribuído
<dsError>: Erro de rede devido <rpcName> a <errorCause>, tente novamente.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: nenhum atribuído
<dsError>: Nenhum metastore atribuído para o espaço de trabalho atual (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: nenhum atribuído
<dsError>: Falha na geração do token de identidade de carga de trabalho para o provedor O2D OIDC: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nenhum atribuído
<dsError>: Incompatibilidade de argumentos de paginação ou consulta.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: nenhum atribuído
<dsError>: Coluna de partição [<renamedColumns>] renomeada na tabela compartilhada. Entre em contato com seu provedor de dados para corrigir isso.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: nenhum atribuído
<dsError>: Só é possível consultar dados da tabela desde a versão <startVersion>.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: nenhum atribuído
<dsError>: A versão final(<endVersion>) fornecida para leitura de dados é inválida. A versão final não pode ser maior do que a versão mais recente da tabela(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: nenhum atribuído
<dsError>: A versão inicial fornecida (<startVersion>) para leitura de dados é inválida. A versão inicial não pode ser maior do que a versão mais recente da tabela(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: nenhum atribuído
<dsError>: Ocorreu um timeout ao processar <queryType> no <tableName> após <numActions> atualizações em <numIter> iterações.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: nenhum atribuído
<dsError>: UC RPC <rpcName> falhou, convertendo para INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: nenhum atribuído
<dsError>: O <resource> excedeu o limite: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION (Versão de DBR não suportada pelo SAP)
SQLSTATE: nenhum atribuído
<dsError>: O conector SAP Delta Sharing não é suportado no DBR <dbrVersion>. As versões mínimas suportadas são: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: nenhum atribuído
<dsError>: O catálogo <catalogName> já contém nomes de esquema encontrados no compartilhamento <shareName>.
<description> de nomes de esquemas conflitantes: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: nenhum atribuído
<dsError>: Tempo limite do servidor para <rpcName> devido a <errorCause>, tente novamente.<traceId>
DS_SERVIÇO_NEGADO
SQLSTATE: nenhum atribuído
<dsError>: O pedido foi negado porque o serviço está sob muita carga. Por favor, tente novamente mais tarde depois de um tempo.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: nenhum atribuído
<dsError>: O compartilhamento <shareName> do provedor <providerName> já está montado no catálogo <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: nenhum atribuído
Não é possível conceder privilégios em <securableType> ao grupo gerado pelo sistema <principal>.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: nenhum atribuído
<dsError>: Os metadados da tabela não estão disponíveis. Por favor, tente novamente daqui a pouco.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: nenhum atribuído
<dsError>: Consultas sobre viagens no tempo não são permitidas, a menos que o histórico seja partilhado em <tableName>. Contacte o seu fornecedor de dados.
DS_UNAUTHORIZED
SQLSTATE: nenhum atribuído
<dsError>: Não autorizado.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: nenhum atribuído
<dsError>: Destinatário OIDC D2O não autorizado: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: nenhum atribuído
<dsError>: ID de consulta desconhecido <queryID> para <schema>.
<table> de Compartilhar <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: nenhum atribuído
<dsError>: Status de consulta desconhecido para ID de consulta <queryID> para <schema>.
<table> de Compartilhar <share>.
DS_UNKNOWN_RPC
SQLSTATE: nenhum atribuído
<dsError>: rpc Desconhecido <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: nenhum atribuído
<dsError>: A versão <tableReaderVersion> do leitor de protocolo delta é superior à <supportedReaderVersion> e não pode ser suportada no servidor de partilha delta.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: nenhum atribuído
<dsError>: Características da tabela <tableFeatures> são encontradas na tabela<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: nenhum atribuído
<dsError>: Regime de armazenagem sem suporte: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nenhum atribuído
<dsError>: Não foi possível recuperar <schema>.
<table> de Partilhar <share> porque a tabela com o tipo [<tableType>] não é suportada atualmente em <queryType> consultas.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: nenhum atribuído
<dsError>: O tipo de tabela de consulta [<tableType>] não é suportado na consulta de transações de múltiplas instruções (MST).
DS_USER_CONTEXT_ERROR
SQLSTATE: nenhum atribuído
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: nenhum atribuído
<dsError>: A(s) seguinte(s) função(ões): <functions> não são permitidos na consulta de compartilhamento de exibição.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: nenhum atribuído
<dsError>: Espaço de trabalho <workspaceId> domínio não está definido.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: nenhum atribuído
<dsError>: Espaço de trabalho <workspaceId> não foi encontrado.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
O modo de evolução do esquema <addNewColumnsMode> não é suportado quando o esquema é especificado. Para usar esse modo, você pode fornecer o esquema por meio cloudFiles.schemaHints em vez disso.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Encontradas opções de autenticação da configuração de notificação para o diretório (padrão)
Modo de listagem:
<options>
Se você deseja usar o modo de notificação de arquivo, defina explicitamente:
.option("cloudFiles.<useNotificationsKey>", "verdadeiro")
Alternativamente, se você quiser pular a validação de suas opções e ignorá-las
opções de autenticação, você pode definir:
.option("cloudFiles.ValidateOptionsKey>", "falso")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Modo de listagem contínua (cloudFiles.<useIncrementalListingKey>)
e notificação de ficheiros (cloudFiles<useNotificationsKey>)
foram ativados ao mesmo tempo.
Por favor, certifique-se de selecionar apenas um.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Forneça uma credencial de serviço Databricks ou um clientId e clientSecret para autenticação com o Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Quando uma credencial de serviço Databricks é fornecida, nenhuma outra opção de credencial (por exemplo, clientId, clientSecret ou connectionString) deve ser fornecida.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exigir adlsBlobSuffix e adlsDfsSuffix para Azure
CF_BUCKET_MISMATCH
O <storeType> no evento de arquivo <fileEvent> é diferente do esperado pela fonte: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Não é possível evoluir o esquema quando o log do esquema está vazio. Local do log de esquema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Não é possível analisar a seguinte mensagem de fila: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Não é possível resolver o nome do contentor do caminho: <path>, URI resolvido: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Não é possível executar a listagem de diretórios quando há um thread de preenchimento assíncrono em execução
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Não é suportado mover ficheiros para um diretório no caminho a partir do qual estão a ser ingeridos.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource não foi habilitado para este espaço de trabalho. Entre em contato com o suporte da Databricks para obter assistência.
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource não é suportado para <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
O Auto Loader não pode arquivar arquivos processados porque não tem permissões de gravação no diretório de origem ou no destino de movimentação.
Para mais detalhes, veja CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Ocorreu um erro ao tentar inferir o esquema de partição da sua tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, por favor forneça explicitamente as colunas da partição usando: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Não é possível inferir esquema quando o caminho de entrada <path> está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
CF_EVENT_GRID_AUTH_ERROR
Falha ao criar uma subscrição do Event Grid. Por favor, certifique-se de que o seu serviço
O principal tem <permissionType> Assinaturas de Event Grid. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Não foi possível criar a assinatura da grade de eventos. Certifique-se de que Microsoft.EventGrid está configurado/ativado/instalado.
registrado como provedor de recursos na sua subscrição. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Falha ao criar uma subscrição do Event Grid. Por favor, certifique-se de que o seu armazenamento
conta (<storageAccount>) está no seu grupo de recursos (<resourceGroup>) e que
a conta de armazenamento é uma conta "StorageV2 (uso geral v2)". Veja mais detalhes em:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
O modo de notificação de eventos Auto Loader não é suportado para <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Falhou a configuração dos recursos de notificação de ficheiros para o Auto Loader.
Para mais detalhes, veja CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Falha ao verificar se o fluxo é novo
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Falha ao criar assinatura: <subscriptionName>. Já existe uma subscrição com o mesmo nome que está associada a outro tópico: <otherTopicName>. O tópico desejado é "<proposedTopicName>". Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Falha ao criar tópico: <topicName>. Já existe um tópico com o mesmo nome.
<reason> Remova o tópico existente ou tente novamente com outro sufixo de recurso
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Não conseguiu apagar a notificação com id <notificationId> no bucket <bucketName> relativamente ao tópico <topicName>. Tente novamente ou remova manualmente a notificação através do console do GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Falha ao desserializar o esquema persistente da cadeia de caracteres: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Não é possível evoluir o esquema sem um log de esquema.
CF_FAILED_TO_FIND_PROVIDER
Falha ao encontrar provedor para <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Falha ao inferir o esquema para o formato <fileFormatInput> a partir de arquivos existentes no caminho de entrada <path>.
Para mais detalhes, consulte CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Falha ao gravar no log de esquema no local <path>.
CF_FILE_FORMAT_REQUIRED
Não foi possível encontrar a opção necessária: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Encontradas várias (<num>) subscrições com o prefixo Auto Loader para o tópico <topicName>:
<subscriptionList>
Deve haver apenas uma assinatura por tópico. Certifique-se manualmente de que o seu tópico não tem várias subscrições.
CF_GCP_AUTHENTICATION
Por favor, forneça todos os seguintes: <clientEmail>, <client>,
<privateKey>e <privateKeyId> ou fornecer <serviceCredential> para usar a sua credencial de serviço Databricks.
Como alternativa, não forneça nenhum deles para usar a cadeia de provedores de credenciais padrão do GCP para autenticação com recursos do GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Recebeu um número excessivo de rótulos (<num>) para o recurso GCP. A contagem máxima de rótulos por recurso é <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Recebeu muitas tags de recurso (<num>) para o recurso GCP. A contagem máxima de tags de recursos por recurso é <maxNum>, pois as tags de recursos são armazenadas como rótulos GCP em recursos e as tags específicas do Databricks consomem parte dessa cota de rótulo.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Arquivo de log de esquema incompleto no caminho <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Arquivo de metadados incompleto no ponto de verificação do Auto Loader
CF_INCORRECT_BATCH_USAGE
CloudFiles é uma fonte de streaming. Use spark.readStream em vez de spark.read. Para desativar essa verificação, defina <cloudFilesFormatValidationEnabled> como false.
CF_INCORRECT_SQL_PARAMS
O método cloud_files aceita dois parâmetros de cadeia de caracteres necessários: o caminho para carregar e o formato de arquivo. As opções do leitor de ficheiros devem ser fornecidas num mapa chave-valor de texto. por exemplo, cloud_files("caminho", "json", mapa("opção1", "valor1")). Recebido: <params>
CF_INCORRECT_STREAM_USAGE
Para usar 'cloudFiles' como uma fonte de streaming, forneça o formato de arquivo com a opção 'cloudFiles.format' e use .load() para criar seu DataFrame. Para desativar essa verificação, defina <cloudFilesFormatValidationEnabled> como false.
CF_INTERNAL_ERROR
Auto Loader encontrou um erro interno. Entre em contato com o suporte da Databricks para obter assistência.
Para mais detalhes, ver CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN inválido: <arn>
CF_INVALID_AZURE_CERTIFICATE
A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Por favor, forneça uma chave pública válida em formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Por favor, forneça uma chave privada válida em formato PEM.
CF_INVALID_CHECKPOINT
Este ponto de verificação não é uma fonte válida do CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Modo inválido para a opção de fonte limpa <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Chave de etiqueta de recurso inválida para recurso do GCP: <key>. As teclas devem começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hífenes (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valor da tag de recurso inválido para o recurso GCP: <value>. Os valores devem ter entre 0 e 63 caracteres e devem conter apenas letras minúsculas, números, sublinhados (_) e hífenes (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
O Auto Loader não suporta as seguintes opções quando usado com eventos de arquivos gerenciados:
<optionList>
Recomendamos que você remova essas opções e reinicie o fluxo.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Resposta inválida do serviço de eventos de arquivo gerenciado. Entre em contato com o suporte da Databricks para obter assistência.
Para mais detalhes, ver CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> deve ser um dos {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
As dicas de esquema só podem especificar uma coluna específica uma vez.
Neste caso, redefinindo coluna: <columnName>
várias vezes em schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
As sugestões de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.
Coluna em conflito: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset deve ser chamado com um limite de leitura nesta fonte.
CF_LOG_FILE_MALFORMED
O ficheiro de log foi malformado: falha em ler a versão de log correta do <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Você solicitou ao Auto Loader para ignorar os arquivos existentes em seu local externo, definindo includeExistingFiles como false. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em seu local externo. Tente novamente depois que os eventos de arquivos gerenciados tiverem concluído a descoberta de todos os arquivos em seu local externo.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Você está usando o Auto Loader com eventos de arquivo gerenciados, mas parece que o local externo para o caminho de entrada '<path>' não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao seu administrador do Databricks que habilite eventos de arquivo no local externo para seu caminho de entrada.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Você está usando o Auto Loader com eventos de arquivo gerenciados, mas não tem acesso ao local externo ou volume para o caminho de entrada '<path>' ou o caminho de entrada é inválido. Solicite ao seu Administrador do Databricks que conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido dentro de um local ou volume externo existente.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
A posição de leitura do teu stream na cache de eventos do ficheiro foi invalidada. Isto pode acontecer porque a configuração dos eventos do ficheiro foi atualizada (por exemplo, a URL da fila fornecida foi alterada, ou os eventos do ficheiro foram desativados e reativados). Entre em contato com o suporte da Databricks para obter assistência.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Auto Loader com eventos de ficheiros geridos é uma funcionalidade de pré-visualização. Para continuar, entre em contato com o Suporte do Databricks ou desative a opção cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Demasiados fluxos de Auto Loader em simultâneo estão a correr. Para resolver, reduza a concorrência do fluxo se possível, ou crie volumes separados para cada subdiretório ao carregar a partir de múltiplos subdiretórios numa localização externa. Contacte o seu representante da Databricks se o problema persistir.
CF_MAX_MUST_BE_POSITIVE
max deve ser positivo
CF_METADATA_FILE_CONCURRENTLY_USED
Várias consultas de streaming estão usando simultaneamente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
O arquivo de metadados no diretório de ponto de verificação de origem de streaming está ausente. Este metadado
contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado
Agora. Entre em contato com o suporte da Databricks para obter assistência.
CF_MISSING_PARTITION_COLUMN_ERROR
O <columnName> da coluna de partição não existe no esquema fornecido:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Especifique um esquema usando .schema() se um caminho não for fornecido para a fonte do CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para que o Auto Loader possa inferir o esquema, forneça um caminho base em .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Notificações existentes encontradas para o tópico <topicName> no bucket <bucketName>.
notification,id
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
CF_NEW_PARTITION_ERROR
Novas colunas de partição foram inferidas a partir dos seus ficheiros: [<filesList>]. Por favor, forneça todas as colunas de partição no seu esquema ou forneça uma lista de colunas de partição para as quais gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Houve um erro ao tentar inferir o esquema de partição do lote atual de arquivos. Por favor, forneça explicitamente as colunas da partição usando: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Não é possível ler arquivos quando o caminho de entrada <path> não existe. Certifique-se de que o caminho de entrada existe e tente novamente.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
O preenchimento periódico não é suportado se o preenchimento assíncrono estiver desativado. Você pode habilitar a listagem assíncrona de backfill/diretório definindo spark.databricks.cloudFiles.asyncDirListing como true
CF_PREFIX_MISMATCH
Evento incompatível encontrado: a chave <key> não tem o prefixo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se você não precisar fazer nenhuma outra alteração no seu código, defina o SQL
configuração: '<sourceProtocolVersionKey> = <value>'
para retomar a transmissão. Por favor, consulte:
<docLink>
para mais detalhes.
CF_REGION_NOT_FOUND_ERROR
Não foi possível obter a região padrão da AWS. Especifique uma região usando a opção cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Falha ao criar serviços de notificação: o sufixo de recurso não pode estar vazio.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hífenes (-) e sublinhados (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter letra minúscula, número e traço (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hífenes (-), sublinhados (_), pontos (.), tildes (~) mais sinais (+) e sinais de porcentagem (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
Falha ao criar serviços de notificação: o sufixo de recurso não pode ter mais de <limit> caracteres.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Falha ao criar serviços de notificação: o sufixo de recurso deve estar entre os caracteres <lowerLimit> e <upperLimit>.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Encontrada chave de tag de recurso GCP restrita (<key>). As seguintes chaves de tag de recurso GCP são restritas para o Auto Loader: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Falha ao criar notificação para o tópico: <topic> com prefixo: <prefix>. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>. Tente usar um sufixo de recurso diferente para a instalação ou exclua a configuração existente.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Não foi possível clonar nem migrar entradas do log do esquema de origem.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
A senha ou o arquivo de chave devem ser especificados para SFTP.
Por favor, especifique a senha no uri de origem ou via <passwordOption>, ou especifique o conteúdo do arquivo de chave via <keyFileOption>.
CF_SFTP_NOT_ENABLED
O acesso a arquivos SFTP não está habilitado. Entre em contato com o suporte da Databricks para obter assistência.
CF_SFTP_REQUIRE_FULL_PATH
Especifique os componentes do caminho completo para uma fonte SFTP na forma de sftp://$user@$host:$port/$path para garantir uma consulta precisa da conexão UC.
CF_SFTP_REQUIRE_UC_CLUSTER
Um cluster habilitado para UC é necessário para acessar arquivos SFTP. Entre em contato com o suporte da Databricks para obter assistência.
CF_SFTP_USERNAME_NOT_FOUND
O nome de usuário deve ser especificado para SFTP.
Por favor, forneça o nome de utilizador na URL de origem ou via <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Forneça o caminho do diretório de origem com a opção path
CF_SOURCE_UNSUPPORTED
A origem dos ficheiros na nuvem suporta apenas os caminhos S3, Azure Blob Storage (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) neste momento. caminho: '<path>', uri resolvido: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
A função cloud_files_state aceita um parâmetro string que representa o diretório de ponto de verificação de um fluxo cloudFiles ou um tableName de várias partes que identifica uma tabela de streaming e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para carregar o estado. O segundo parâmetro também pode ser «mais recente» para ler o ponto de verificação mais recente. Recebido: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
O caminho do ponto de verificação de entrada <path> é inválido. Ou o caminho não existe ou não há fontes cloud_files encontradas.
CF_STATE_INVALID_VERSION
A versão especificada <version> não existe ou foi removida durante a análise.
CF_THREAD_IS_DEAD
<threadName> thread está inativo.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Não foi possível derivar a localização do ponto de verificação do fluxo a partir do ponto de verificação de origem: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Não é possível detetar o formato de ficheiro de origem de <fileSize> ficheiro(s) amostrado(s), foram encontrados <formats>. Especifique o formato.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Não é possível extrair informações do bucket. Caminho: '<path>', URI resolvido: '<uri>'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Não é possível extrair informações importantes. Caminho: '<path>', URI resolvido: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Não é possível extrair informações da conta de armazenamento; caminho: '<path>', URI resolvido: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Recebeu um evento de renomeação de diretório para o caminho <path>, mas não é possível listar esse diretório de forma eficiente. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar backfills regulares com cloudFiles.backfillInterval para que esses dados sejam processados.
CF_UNEXPECTED_READ_LIMIT
Limite de Leitura inesperado: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Encontradas chaves de opção desconhecidas:
<optionList>
Certifique-se de que todas as chaves de opção fornecidas estão corretas. Se você quiser pular o
Para validação das suas opções e ignorar essas opções desconhecidas, pode configurar:
.option("cloudFiles.<validateOptions>", "falso")
CF_UNKNOWN_READ_LIMIT
ReadLimit desconhecido: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
Configuração do modo 'mover' cleanSource não suportada.
Para mais detalhes, consulte CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
A função SQL 'cloud_files' para criar uma fonte de streaming Auto Loader é suportada apenas num pipeline Lakeflow Spark Declarative Pipeline. Veja mais detalhes em:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
A inferência de esquema não é suportada para o formato: <format>. Especifique o esquema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: a versão máxima de log suportada é v<maxVersion>, mas foi encontrada v<version>. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Por favor, atualize.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
O modo de evolução do esquema <mode> não é suportado para o formato: <format>. Defina o modo de evolução do esquema como 'nenhum'.
CF_USE_DELTA_FORMAT
A leitura de uma tabela Delta não é suportada com esta sintaxe. Se você gostaria de consumir dados da Delta, consulte os documentos: leia uma tabela Delta (<deltaDocLink>), ou leia uma tabela Delta como uma fonte de fluxo (<streamDeltaDocLink>). A fonte de streaming da Delta já está otimizada para consumo incremental de dados.
Geospatial
EWKB_PARSE_ERROR
Erro ao analisar EWKB: <parseError> na posição <pos>
Para mais detalhes, ver EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Erro ao analisar EWKT: <parseError> na posição <pos>
GEOJSON_PARSE_ERROR
Erro ao analisar GeoJSON: <parseError> na posição <pos>
Para mais detalhes, ver GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Falha na codificação do valor <type> porque o SRID fornecido <valueSrid> de um valor para codificar não corresponde ao tipo de SRID: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> não é um ID de célula H3 válido
Para mais detalhes, consulte H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
A distância da grelha H3 <k> não deve ser negativa
Para mais detalhes, consulte H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Resolução H3 <r> deve estar entre <minR> e <maxR>, inclusive
Para mais detalhes, ver H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> está desativado ou sem suporte. Considere mudar para uma camada que suporte expressões H3
Para mais detalhes, consulte H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Um pentágono foi encontrado no cálculo do anel hexadecimal de <h3Cell> com distância na grelha <k>
H3_UNDEFINED_GRID_DISTANCE
A distância da grelha H3 entre <h3Cell1> e <h3Cell2> é indefinida
ST_DIFFERENT_SRID_VALUES
Os argumentos para "<sqlFunction>" devem ter o mesmo valor SRID. Valores de SRID encontrados: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Para mais detalhes, ver ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: Transformação CRS inválida ou sem suporte de SRID <srcSrid> para SRID <trgSrid>
ST_INVALID_PRECISION_VALUE
A precisão <p> deve estar entre <minP> e <maxP>, inclusive.
ST_NOT_ENABLED
<stExpression> está desativado ou sem suporte. Considere mudar para uma camada que ofereça suporte a expressões ST
WKB_PARSE_ERROR
Erro ao analisar WKB: <parseError> na posição <pos>
Para mais detalhes, ver WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erro ao analisar WKT: <parseError> na posição <pos>
Para mais detalhes, ver WKT_PARSE_ERROR
Catálogo Unity
NÃO_PODE_ELIMINAR_COLUNA_ETIQUETADA
A coluna não pode ser descartada porque tem uma ou mais tags controladas atribuídas. Por favor, remova a(s) etiqueta(s) antes de retirar a coluna. Para orientação, por favor consulte a documentação <docLink>.
CRIAÇÃO_DE_FILHO_PROIBIDA_PARA_ELEMENTO_SEGURÁVEL_ESTRANGEIRO
Protegível <childSecurableName> do tipo <childSecurableType> não pode ser criado em parent <parentSecurableName> of kind <parentSecurableKind>.
FORMATO_DA_COLUNA_INCOMPATÍVEL_COM_TIPO_DE_COLUNA
A coluna <columnName> possui um formato <formatType> que é incompatível com o tipo de coluna <columnType>.
CONFLICTING_COLUMN_NAMES_ERROR
A coluna <columnName> entra em conflito com outra coluna com o mesmo nome mas com/sem espaços em branco finais (por exemplo, uma coluna existente nomeada <columnName> ). Renomeie a coluna com um nome diferente.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Solicitação inválida para obter credenciais de nível de conexão para conexão do tipo <connectionType>. Essas credenciais só estão disponíveis para conexões PostgreSQL gerenciadas.
CONNECTION_TYPE_NOT_ENABLED
O tipo de ligação '<connectionType>' não está ativado. Por favor, habilite a conexão para usá-lo.
DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE
A entidade compartilhada '<securableFullName>' não é utilizável no momento, porque ainda não foi totalmente sincronizada com a entidade de origem correspondente. Causada por: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Já existe um objeto Recipient '<existingRecipientName>' com o mesmo identificador de compartilhamento '<existingMetastoreId>'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Os dados de um tipo segurável Delta Sharing <securableKindName> são de apenas leitura e não podem ser criados, modificados ou apagados.
DISASTER_RECOVERY_READ_ONLY
Os dados dentro de um catálogo <catalogName> réplica gerido pela Recuperação de Desastres são apenas leitura e não podem ser criados, modificados ou eliminados.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
O fornecimento automático de credenciais é rejeitado para ambientes de computação que não são do Databricks porque o acesso a dados externos está desativado para o metastore <metastoreName>. Entre em contato com o administrador do metastore para ativar a configuração 'External Data Access' no metastore.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
A tabela com id <tableId> não pode ser acessada de fora do Databricks Compute Environment devido ao seu tipo ser <securableKind>. Apenas os tipos de tabela 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' e 'TABLE_DELTA' podem ser acessados externamente.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Privilégio EXTERNAL USE SCHEMA não é aplicável a esta entidade <assignedSecurableType> e só pode ser atribuído a um esquema ou catálogo. Remova o privilégio do objeto <assignedSecurableType> e atribua-o a um esquema ou catálogo.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Tabela com id <tableId> não pode ser escrita de fora do Databricks Compute Environment devido ao seu tipo ser <securableKind>. Apenas os tipos de tabela 'TABLE_EXTERNAL' e 'TABLE_DELTA_EXTERNAL' podem ser escritos externamente.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
O local de armazenamento de um catálogo estrangeiro do tipo <catalogType> será usado para descarregar dados e não pode ser configurado como apenas leitura.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
O número de <resourceType>s para o caminho de entrada <url> excede o limite permitido (<overlapLimit>) para superposições de HMS <resourceType>s.
Formato de Fonte de Dados Inválido [INVALID_DATASOURCE_FORMAT]
O formato da fonte de dados '<datasourceFormat>' não é suportado<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> não é um nome válido. Os nomes válidos devem conter apenas caracteres alfanuméricos e sublinhas, e não podem conter espaços, pontos, barras para a frente ou caracteres de controlo.
INVALID_RESOURCE_NAME_DELTA_SHARING
Não há suporte para solicitações de compartilhamento delta usando nomes de recursos
INVALID_RESOURCE_NAME_ENTITY_TYPE
O nome do recurso fornecido faz referência ao tipo de entidade <provided>, mas o esperado era <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
O nome do recurso fornecido faz referência a um metastore que não está no escopo da solicitação atual
INVALID_SECURABLE_NAME
<rpcName> nome inválido <securableType> : '<securableFullName>'
LOCATION_OVERLAP
O URL do caminho de entrada '<path>' sobrepõe-se à chamada <overlappingLocation> dentro de '<caller>'.
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
A localização de armazenamento definida pelo cliente entra em conflito com o armazenamento padrão do workspace durante<path> a operação<caller>. Isto impede que funcionalidades que dependem do armazenamento do espaço de trabalho funcionem. Resumo do conflito: <conflictingSummary>. Consulte https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts os passos de remediação.
MANAGED_TABLE_FORMAT
Somente Delta é suportado para tabelas gerenciadas. O formato da fonte de dados fornecida é <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
Criar ou atualizar uma conexão MongoDB não é permitido porque a cadeia de conexão SRV do MongoDB não requer porta.
Remova a porta, pois a cadeia de conexão SRV não requer porta.
O_PRINCIPAL_NÃO_EXISTE
Não foi possível encontrar o principal com o nome <principalName>.
SUPORTE_A_PRIVILÉGIOS_NÃO_ATIVADO
O suporte a privilégios não está habilitado para o tipo [<typeString>]
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
O privilégio <privilege> não é aplicável a esta entidade [<classifier>]. Se isto parecer inesperado, por favor verifique a versão privilegiada da metastore em uso [<privilegeVersion>].
CATÁLOGO_SOMENTE_LEITURA
Os dados dentro de um Catálogo de Compartilhamento Delta são de apenas leitura e não podem ser criados, modificados ou excluídos. O catálogo '<catalogName>' é um catálogo Delta Sharing.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
A raiz de armazenamento para o catálogo estrangeiro do Redshift deve ser o AWS S3.
SCHEMA_NOT_EMPTY
O esquema '<fullName>' não está vazio. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Securable with kind <securableKind> não suporta Lakehouse Federation.
SECURABLE_KIND_NOT_ENABLED
O tipo protegível '<securableKind>' não está habilitado. Se este for um tipo protegível associado a um recurso de visualização, ative-o nas configurações do espaço de trabalho.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Protegível com tipo <securableType> não suporta Lakehouse Federation.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
A tabela de origem tem mais de <columnCount> colunas. Reduza o número de colunas para <columnLimitation> ou menos.
SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED
Não foi possível localizar a entidade de serviço do sistema registrada com o nome do recurso <servicePrincipalResource>.
TABLE_TYPE_NÃO_SUPORTA_METADADOS_DE_COLUNA
O tipo <tableType> de tabela não suporta metadados de coluna.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
As chaves secretas do cliente para o principal de serviço com id <applicationId> de aplicação estão expiradas. Visite o portal Azure para criar novas chaves para o seu principal de serviço.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
As chaves secretas do cliente para credenciais <storageCredentialName> de armazenamento estão expiradas. Contacte o proprietário ou o administrador da sua conta para atualizar a credencial de armazenamento.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
A chave secreta do cliente para o principal de serviço com id <applicationId> de aplicação não é válida.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
A configuração do principal do serviço não é válida. Verifique o ID do Diretório, o ID da Aplicação e o Secret do Cliente.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Falhou a obtenção das credenciais: A credencial <storageCredentialName> de armazenamento não está configurada corretamente. Contacta o proprietário ou o administrador da tua conta para atualizar a configuração.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
O tempo de vida do token AAD trocado é <lifetime>, que está configurado para um período muito curto. Verifique a configuração do Azure AD para garantir que o token de acesso temporário tenha pelo menos uma hora de vida. https://v4.hkg1.meaqua.org/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: Usando o alias '<alias>' tinha <size> correspondências, exatamente 1 correspondência é permitida.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' tem demasiadas <resolverType> dependências do ABAC.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
A dependência '<dependency>' é referenciada várias vezes e resultou em filtros de linha ABAC ou máscaras de coluna diferentes.
UC_ABAC_EVALUATION_USER_ERROR
Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Erro ao avaliar as políticas ABAC em '<resource>'. Falhou com a mensagem: Valor de política de tag inválido <tagValue> para a chave <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
A avaliação das políticas ABAC em '<resource>' resultou em vários filtros de linha. No máximo um filtro de linha é permitido.
UC_ABAC_UNKNOWN_TAG_POLICY
Erro ao avaliar as políticas ABAC em '<resource>'. Falha com a mensagem: Política de tag desconhecida: <tagKey>.
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS
Erro ao avaliar as políticas ABAC em '<resource>'. Falha com a mensagem: Alias '<alias>' usado em USING COLUMNS não correspondeu a nenhuma coluna.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: Alias '<alias>' usado em ON COLUMN não correspondeu a nenhuma coluna.
UC_ABAC_UNMATCHED_USING_ALIAS
Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: A utilização do alias '<alias>' não possui uma coluna correspondente.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Erro ao avaliar as políticas ABAC em '<resource>'. Falhado com a mensagem: A coluna '<usingCol>' foi mascarada pela política RLS/CM nativa e não pode ser usada como entrada para a política ABAC''<policyName>.
ACESSO_UC_REQUER_ESPACODETRABALHO
Não é possível aceder ao securável vinculado ao espaço de trabalho porque o utilizador não está atribuído ao espaço de trabalho associado.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Não é permitido alterar a exibição '<viewFullName>' fora do pipeline que a definiu. Em vez disso, atualize a definição de exibição do pipeline que a definiu (ID do pipeline: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
O Atlas não está habilitado para o serviço <serviceName>de chamada .
UC_AUTHZ_ACTION_NOT_SUPPORTED
A autorização de <actionName> não é suportada; certifique-se de que o RPC invocado está implementado para este tipo de recurso
UC_AWS_ASSUME_ROLE_FAILED
Não foi possível obter as credenciais: o papel AWS IAM na credencial do Unity Catalog não está configurado corretamente. Por favor, contacte o administrador da sua metastore ou o proprietário da credencial para atualizar a configuração na AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Local de armazenamento vazio.
UC_AWS_INVALID_S3_POLICY_PREFIX
Caminho s3 inválido para localização de armazenamento: O caminho <providedPath> S3 não começa com o prefixo esperado: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Caminho s3 inválido para localização de armazenamento: Esquema não suportado encontrado: <providedScheme>. Os Esquemas Suportados são: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
O serviço Azure Blob está temporariamente indisponível. Tente novamente mais tarde.
UC_AZURE_UDK_UNAUTHORIZED
O pedido de chave de delegação de utilizador não é autorizado. Detalhes: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Não é possível criar uma conexão para um metastore de hive interno porque o usuário: <userId> não é o administrador do espaço de trabalho: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Tente modificar um campo restrito na conexão HMS integrada '<connectionName>'. Apenas 'warehouse_directory' pode ser atualizado.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Falha ao renomear a coluna <originalLogicalColumn> da tabela porque ela é usada para filtragem de partições no <sharedTableName>. Para continuar, você pode remover a tabela do compartilhamento, renomear a coluna e compartilhá-la com as colunas de filtragem de partição desejadas novamente. No entanto, isso pode interromper a consulta de streaming para o destinatário.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
Não é possível criar <securableType> '<securable>' em <parentSecurableType> '<parentSecurable>' porque a solicitação não é de um cluster de UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Não é possível criar uma ligação com uma lista de permitir que se sobreponha a uma opção de ligação. Valor: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Não é possível criar uma conexão com as opções de autenticação de nome de usuário/senha e oauth. Por favor, escolha um.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
O número máximo de credenciais para o nome de conexão '<connectionName>' foi atingido. Exclua as credenciais existentes antes de criar uma nova.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
A credencial para identidade do usuário('<userIdentity>') não foi encontrada para a conexão '<connectionName>'. Por favor, faça login primeiro na conexão visitando <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Não há suporte para a criação de credenciais para o tipo protegível '<securableType>'. Tipos protegíveis suportados: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
A credencial '<credentialName>' tem uma ou mais conexões dependentes. Você pode usar a opção force para continuar a atualizar ou excluir a credencial, mas as conexões que usam essa credencial podem não funcionar mais.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
O token de acesso associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um token.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
O token de atualização associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um novo token.
UC_CONNECTION_IN_FAILED_STATE
A conexão está no estado FAILED. Atualize a conexão com credenciais válidas para reativá-la.
UC_CONNECTION_MISSING_OPTION
As ligações do tipo protegível «<securableType>» devem incluir a(s) seguinte(s) opção(ões): <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Não há nenhum token de atualização associado à conexão. Atualize a integração do cliente OAuth em seu provedor de identidade para retornar tokens de atualização e atualize ou recrie a conexão para reiniciar o fluxo OAuth e recuperar os tokens necessários.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
A troca de token OAuth falhou com o código de status HTTP <httpStatus>. A resposta do servidor retornada ou mensagem de exceção é: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
As ligações do tipo protegível '<securableType>' não suportam a(s) seguinte(s) opção(ões): <optionsNotSupported>. Opções suportadas: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
O suporte para confirmações coordenadas não está habilitado. Entre em contato com o suporte da Databricks.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
Não é possível criar <securableType> '<securableName>' porque está sob um <parentSecurableType> '<parentSecurableName>' que não está ativo. Por favor, exclua o pai protegível e recrie o pai.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Falha ao analisar o ID do conector de acesso fornecido: <accessConnectorId>. Verifique a sua formatação e tente novamente.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Falha ao obter um token AAD para realizar a validação de permissões na nuvem num conector de acesso. Tente novamente a ação.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: nenhum atribuído
O registo de uma credencial requer a função de colaborador no conector de acesso correspondente com ID <accessConnectorId>. Entre em contato com o administrador da sua conta.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
O tipo de credencial '<credentialType>' não é suportado para a finalidade '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Somente o administrador da conta pode criar ou atualizar uma credencial com o tipo <storageCredentialType>.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
A política de confiança da função do IAM para permitir que a Conta Databricks assuma a função deve exigir uma ID externa. Entre em contato com o administrador da sua conta para adicionar a condição de identificação externa. Este comportamento é para se proteger contra o problema do deputado confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
A criação ou atualização de uma credencial como administrador que não seja de conta não é suportada na API de nível de conta. Em vez disso, use a API no nível do espaço de trabalho.
UC_DBR_TRUST_VERSION_TOO_OLD
O Databricks Runtime que está sendo usado não suporta mais essa operação. Utilize a versão mais recente (poderá apenas ter de reiniciar o cluster).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
Inesperado latestBackfilledVersion <latestBackfilledVersion> no commit (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
A atualização ou downgrade simultâneo para/a partir de uma tabela gerida por catálogo não é suportada. Certifique-se de que apenas uma transação executa o comando de migração de cada vez. Foi detetado um duplicado <commitType> .
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Transição ilegal de estado do antigo tipo <lastCommitType> de commit para o novo <commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
As versões não correspondem à transição de estado do antigo (<lastVersion>, <lastCommitType>) para o novo (<version>, <commitType>).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Não é possível analisar a versão da tabela Apache Iceberg a partir do local dos metadados <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Foi detetada uma atualização simultânea da mesma versão de metadados do Apache Iceberg.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
A localização de metadados confirmada <metadataLocation> é inválida. Não é um subdiretório do diretório <tableRoot>raiz da tabela.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
A informação fornecida para a conversão do formato delta Apache Iceberg não tem campos obrigatórios.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
A informação do formato delta Apache Iceberg no Create não é suportada.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
A informação fornecida para o formato delta Apache Iceberg é demasiado grande.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Os metadados uniformes só podem ser atualizados em tabelas Delta que tenham o recurso de uniformização ativado.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> '<ref>' profundidade excede o limite (ou tem uma referência circular).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' é inválido porque um dos recursos subjacentes não existe. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' não tem privilégio suficiente para executar porque o proprietário de um dos recursos subjacentes falhou em uma verificação de autorização. <cause>
UC_DUPLICATE_CONNECTION
Já existe uma ligação chamada '<connectionName>' com o mesmo URL. Peça permissão ao proprietário para usar essa conexão em vez de criar uma duplicata.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
Tentativa de criar um catálogo Fabric com url '<storageLocation>' que corresponde a um catálogo existente, o que não é permitido.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
A atribuição de tags com a chave de tag <tagKey> já existe.
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
A entidade <securableType> <entityId> não tem um cluster online correspondente.
UC_ETAG_MISMATCH
O recurso foi modificado. Por favor, pegue o etag mais recente e tente novamente. Valor esperado da etag: <expectedTokenValue> com a versão <expectedTokenVersion>do protocolo , valor da etag recebida: <providedTokenValue> com a versão do protocolo <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Existem mais de <maxFileResults> ficheiros. Especifique [max_results] para limitar o número de ficheiros devolvidos.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
O esquema <schemaName> está em DEGRADED estado de provisionamento, o que é esperado, já que a localização do esquema eHMS / Glue não está a ser federada.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Não é possível <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> está atualmente desativado na UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Não há suporte para a criação de um catálogo estrangeiro para o tipo de conexão '<connectionType>'. Esse tipo de conexão só pode ser usado para criar pipelines de ingestão gerenciados. Consulte a documentação do Databricks para obter mais informações.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Somente credenciais READ podem ser recuperadas para tabelas estrangeiras.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
A criação FOREIGN <securableType> de '<entityName>' under catalog '<catalogName>' é proibida enquanto o catálogo está a ser convertido de FOREIGN para STANDARD.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
A tabela base e a tabela de clones devem estar no mesmo catálogo para clones rasos criados em catálogos do Hive Metastore estrangeiros. A tabela base '<baseTableName>' está no catálogo '<baseCatalogName>' e a tabela de clone '<cloneTableName>' está no catálogo '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
As colunas filho e colunas pai de chave estrangeira <constraintName> têm tamanhos diferentes.
UC_FOREIGN_KEY_COLUMN_MISMATCH
As colunas primárias de chave estrangeira não correspondem às colunas secundárias de chave primária referenciadas. As colunas pai da chave estrangeira são (<parentColumns>) e as colunas filhas da chave primária são (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
O tipo de coluna filho de chave estrangeira não corresponde ao tipo de coluna pai. Coluna filho de chave estrangeira <childColumnName> tem tipo <childColumnType> e coluna pai <parentColumnName> tem tipo <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Acesso negado. Causa: a chave privada da conta de serviço é inválida.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
A Chave Privada OAuth da Conta do Servidor Google tem de ser um objeto válido JSON com campos obrigatórios; por favor, certifique-se de fornecer o ficheiro completo JSON gerado a partir da secção 'KEYS' da página de detalhes da conta de serviço.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
A Chave Privada OAuth da Conta do Servidor Google tem de ser um objeto válido JSON com campos obrigatórios; por favor, certifique-se de fornecer o ficheiro completo JSON gerado a partir da secção 'KEYS' da página de detalhes da conta de serviço. Os campos em falta são <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Descobriu-se que a função do IAM para essa credencial de armazenamento não era autoassumida. Verifique a confiança da sua função e as políticas do IAM para garantir que sua função do IAM possa assumir a si mesma de acordo com a documentação de credenciais de armazenamento do Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
Não é possível inserir <tableName>: a localização dos metadados <baseMetadataLocation> mudou de <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
Não é possível executar a confirmação do Apache Iceberg gerenciado em uma tabela do Apache Iceberg não gerenciada: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
As informações de confirmação fornecidas do Apache Iceberg gerenciado carecem de campos obrigatórios.
UC_ID_MISMATCH
O <type> <name> não tem ID <wrongId>. Por favor, tente novamente a operação.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Muitas solicitações de esquema de informações para o metastore. Aguarde um momento e tente novamente. Se o problema persistir, considere ajustar a seletividade de suas consultas ou entrar em contato com o suporte para obter assistência.
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
A tabela online está obsoleta. A aquisição de acesso à tabela online <securableName> já não é suportada.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Acesso inválido à instância do banco de dados. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Acesso inválido de <securableType> <securableName> no catálogo federado <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Azure path invalid: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
ID de conta Cloudflare inválido.
UC_INVALID_CREDENTIAL_CLOUD
Provedor de nuvem de credenciais inválido '<cloud>'. Provedor de nuvem permitido '<allowedCloud>'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Valor inválido '<value>' para 'finalidade' da credencial. Valores permitidos '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
Não é possível atualizar uma conexão de <startingCredentialType> para <endingCredentialType>. A única transição válida é de uma conexão baseada em nome de usuário/senha para uma conexão baseada em token OAuth.
UC_INVALID_CRON_STRING_FABRIC
Cadeia cron inválida. Encontrado: '<cronString>' com exceção de análise: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Tabela gerenciada de acesso direto inválida <tableName>. Certifique-se de que a definição de pipeline da tabela de origem & não esteja definida.
UC_INVALID_EMPTY_STORAGE_LOCATION
Local de armazenamento inesperadamente vazio para <securableType> '<securableName>' no catálogo '<catalogName>'. Para corrigir esse erro, execute DESCRIBE SCHEMA <catalogName>.
<securableName> e atualize esta página.
UC_INVALID_OPTIONS_UPDATE
Opções inválidas fornecidas para atualização. Opções inválidas: <invalidOptions>. Opções permitidas: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Valor inválido '<value>' para '<option>'. Valores permitidos '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' não pode estar vazio. Introduza um valor não vazio.
UC_INVALID_POLICY_CONDITION
Condição inválida na política '<policyName>'. Erro de compilação com a mensagem '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
ID da chave de acesso R2 inválida.
UC_INVALID_R2_SECRET_ACCESS_KEY
Chave de acesso secreta R2 inválida.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
Não é possível atualizar <securableType> '<securableName>', pois é de propriedade de um grupo interno. Entre em contato com o suporte da Databricks para obter detalhes adicionais.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Uma vez que a credencial de armazenamento <storageCredentialName> não está associada ao DBFS Root, a criação de Localização Externa 'wasbs' é proibida.
UC_LOCATION_INVALID_SCHEME
O local de armazenamento tem esquema de URI inválido: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
A resposta do servidor do token faltava o campo <missingField>. A resposta retornada do servidor é: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Não é possível suportar a tabela Apache Iceberg gerida no endpoint atual.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' não pode ser atribuído. Apenas MANUALLY_ASSIGNABLE e AUTO_ASSIGNMENT_ENABLED são suportados.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
A certificação Metastore não está habilitada.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: nenhum atribuído
O <metastoreId> metastore tem <numberManagedOnlineCatalogs> catálogo(s) online(s) gerenciado(s). Por favor, exclua-os explicitamente e, em seguida, tente novamente a exclusão do metastore.
UC_METASTORE_QUOTA_EXCEEDED
Esta conta com id <accountId> atingiu o limite para metastores na região <region>.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
A credencial raiz do metastore não pode ser definida ao atualizar o local da raiz do metastore. A credencial será obtida a partir da localização externa principal do metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Falha na eliminação do local de raiz de armazenamento do metastore. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
A raiz <securableType> de um metastore não pode ser apenas leitura.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
A raiz de armazenamento do Metastore não pode ser atualizada depois de definida.
UC_MODEL_INVALID_STATE
Não é possível gerar credenciais '<opName>' temporárias para a versão <modelVersion> do modelo com status <modelVersionStatus>. As credenciais '<opName>' só podem ser geradas para versões de modelo com status <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Erro ao avaliar as políticas ABAC em '<resource>'. Falha na mensagem: A coluna '<usingCol>' foi mascarada pela política ABAC '<policyName>' e não pode ser usada como entrada para uma política RLS/CM nativa.
UC_NO_ORG_ID_IN_CONTEXT
Tentou aceder ao ID da organização (ou ID do espaço de trabalho), mas o contexto não tem nenhum.
UC_ONELAKE_PATH_BAD_DOMAIN
O caminho Azure OneLake '<path>' deve ter o nome de domínio '<expectedHost>'.
UC_ONELAKE_PATH_BAD_FORMAT
O caminho Azure OneLake '<path>' deve ser do formato 'abfss://_WORKSPACE_@<host>/'.
UC_ONELAKE_PATH_MISSING_AT
O caminho do Azure OneLake '<path>' não contém '@'.
UC_ONELAKE_PATH_MISSING_WORKSPACE
O caminho do Azure OneLake deve<path> conter um nome de espaço de trabalho.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: nenhum atribuído
A solicitação <rpcName> atualiza <fieldName>. Use o separador de cálculo da loja online para modificar qualquer coisa, exceto o comentário, o proprietário e o modo de isolamento de um catálogo online.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> lojas online na metastore e já existe <currentCount>. Poderá não ter acesso a quaisquer lojas online existentes. Entre em contato com o administrador da metastore para obter acesso ou obter mais instruções.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: nenhum atribuído
os catálogos de índice online devem ser <action> por meio da API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: nenhum atribuído
A solicitação <rpcName> atualiza <fieldName>. Utilize a API /vector-search para modificar qualquer elemento que não seja o comentário, o proprietário ou o "isolationMode" de um catálogo online de índice.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Não é possível criar mais de <quota> catálogos de índices online no repositório de metadados e já há <currentCount>. Você pode não ter acesso a nenhum catálogo de índice on-line existente. Entre em contato com o administrador da metastore para obter acesso ou obter mais instruções.
UC_ONLINE_INDEX_INVALID_CRUD
os índices online devem ser <action> através da API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: nenhum atribuído
As lojas online devem ser <action> através do separador Computação da Loja Online.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
O nome da coluna da tabela de origem <columnName> é muito longo. O comprimento máximo é de <maxLength> caracteres.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
A coluna <columnName> não pode ser usada como uma coluna de chave primária da tabela online porque não faz parte da restrição de PRIMARY KEY existente da tabela de origem. Para mais detalhes, consulte <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
A coluna <columnName> não pode ser usada como uma chave de série temporal da tabela online porque não é uma coluna de série temporal da restrição de PRIMARY KEY existente da tabela de origem. Para mais detalhes, consulte <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Não é possível criar mais de <quota> tabelas online para cada tabela de origem.
UC_ONLINE_VIEW_ACCESS_DENIED
Para aceder ao recurso <resourceName>, é necessário usar um warehouse SQL Serverless. Verifique se o armazém que está a ser usado para executar uma consulta ou exibir um catálogo de banco de dados na UI é serverless. Para mais detalhes, consulte <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> visualizações online contínuas na loja online, e já existe <currentCount>. Poderá não ter acesso a quaisquer visualizações online existentes. Entre em contato com o administrador da sua loja online para obter acesso ou obter mais instruções.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: nenhum atribuído
Em local de armazenamento com Chaves Geridas Databricks, <tableKind> não pode ser criado. Escolha um esquema/catálogo diferente em um local de armazenamento sem criptografia Databricks Managed Keys.
UC_ONLINE_VIEW_INVALID_CATALOG
Catálogo inválido <catalogName> com tipo <catalogKind> para criar <tableKind> dentro.
<tableKind> só pode ser criado em catálogos de tipos: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Esquema inválido <schemaName> com tipo <schemaKind> para criar <tableKind> dentro.
<tableKind> só pode ser criado em esquemas de tipos: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
A coluna <columnName> do tipo <columnType> não pode ser usada como uma coluna de tempo TTL. Os tipos permitidos são <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Operação não suportada pelo Unity Catalog. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Erro no caminho autorizado. A localização <securableType><location> não está definida nos caminhos autorizados para o catálogo: <catalogName>. Peça ao proprietário do catálogo para adicionar o caminho à lista de caminhos autorizados definidos no catálogo.
UC_OVERLAPPED_AUTHORIZED_PATHS
A opção «authorized_paths» contém caminhos sobrepostos: <overlappingPaths>. Certifique-se de que cada caminho é único e não se cruza com outros na lista.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
O argumento de consulta '<arg>' é definido como '<received>', que é diferente do valor usado na primeira chamada de paginação ('<expected>')
UC_PATH_FILTER_ALLOWLIST_VIOLATION
A credencial '<credentialName>' é uma credencial padrão do espaço de trabalho que só tem permissão para acessar dados nos seguintes caminhos: '<allowlist>'. Certifique-se de que qualquer caminho acessado usando essa credencial esteja em um desses caminhos.
UC_PATH_FILTER_DENYLIST_VIOLATION
A credencial '<credentialName>' é uma credencial padrão do espaço de trabalho que não pode acessar dados no seguinte caminho restrito: '<targetPath>'.
UC_PATH_TOO_LONG
O caminho de entrada é muito longo. Comprimento permitido: <maxLength>. Comprimento de entrada: <inputLength>. Entrada: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Limite de simultaneidade excedido para metastore <metastoreId>. Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte. Código de erro #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Não é possível criar mais do que tabela(s) de banco de dados sincronizada <quota> por tabela de origem.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Não é possível criar a chave primária <constraintName> porque suas colunas filhas <childColumnNames> são nulas. Altere a anulabilidade da coluna e tente novamente.
UC_REQUEST_LIMIT_EXCEEDED
O seu pedido foi rejeitado porque a sua organização ultrapassou o limite de taxa. Tente novamente o seu pedido mais tarde.
UC_REQUEST_TIMEOUT
Esta operação demorou demasiado tempo.
UC_RESOURCE_QUOTA_EXCEEDED
Não pode criar <amount> <resourceType>(s) em <parentResourceType> <parentResourceId> (contagem estimada: <currentCount>, limite: <quotaLimit>).
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
O nome do bucket raiz de armazenamento S3 contendo pontos não é suportado pelo Unity Catalog: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Local de armazenamento vazio inesperado para o esquema '<schemaName>' no catálogo '<catalogName>'. Certifique-se de que o esquema usa um esquema de caminho de <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Os notebooks python e scala sem servidor estão proibidos de recuperar credenciais de armazenamento temporário do Unity Catalog em espaços de trabalho restritos à rede.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Não é possível acessar o clone superficial '<tableFullName>' porque sua tabela base '<baseTableName>' foi excluída.
UC_STORAGE_CREDENTIALS_COM_NEGAÇÃO_DE_ELIMINAÇÃO_DE_LOCALIZAÇÃO_EXTERNAS
A credencial de armazenamento '<credentialName>' tem tabela(s) externa(s) diretamente dependente(s) e local(is) de armazenamento <extTablesCount> dependente(s). Você pode usar a opção force para excluí-lo, mas os dados de armazenamento gerenciado usando essa credencial de armazenamento não podem mais ser limpos pelo Unity Catalog.
UC_STORAGE_CREDENTIALS_COM_ATUALIZAÇÃO_DE_LOCALIZAÇÃO_EXTERNA_NEGADA
A credencial de armazenamento '<credentialName>' tem <extTablesCount> tabela(s) externa(s) diretamente dependentes e <extLocationsCount> local(is) de armazenamento dependente(s); use a opção Force para atualizar de qualquer maneira.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Falha ao analisar o ID do conector de acesso fornecido: <accessConnectorId>. Verifique a sua formatação e tente novamente.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Não é possível criar uma credencial de armazenamento para a raiz DBFS porque o usuário: <userId> não é o administrador do espaço de trabalho: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
A credencial de armazenamento raiz do DBFS ainda não é suportada para espaços de trabalho com DBFS com Firewall ativado.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
A credencial de armazenamento raiz DBFS para o espaço de trabalho atual ainda não é suportada
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
A raiz do DBFS não está ativada para o espaço de trabalho <workspaceId>.
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Falha ao obter um token AAD para realizar a validação de permissões na nuvem num conector de acesso. Tente novamente a ação.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
O registro de uma credencial de armazenamento requer a função de colaborador sobre o conector de acesso correspondente com ID <accessConnectorId>. Entre em contato com o administrador da sua conta.
Permissão Negada para Eliminar a Raiz do Metastore das Credenciais de Armazenamento UC
A credencial de armazenamento '<credentialName>' não pode ser excluída porque está configurada como a credencial raiz desse metastore. Atualize a credencial raiz do metastore antes de tentar eliminar.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Somente o administrador da conta pode criar ou atualizar uma credencial de armazenamento com o tipo <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Token de validação ausente para o principal de serviço. Forneça um token de ID do Entra com escopo ARM válido no cabeçalho da solicitação 'X-Databricks-Azure-SP-Management-Token' e tente novamente. Para mais detalhes, consulte https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
A política de confiança da função do IAM para permitir que a Conta Databricks assuma a função deve exigir uma ID externa. Entre em contato com o administrador da sua conta para adicionar a condição de identificação externa. Este comportamento é para se proteger contra o problema do deputado confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
O local <location> não está dentro da raiz do DBFS, por isso não podemos criar uma credencial de armazenamento <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
A criação ou atualização de uma credencial de armazenamento como não-administrador de conta não é suportada na API de nível de conta. Em vez disso, use a API no nível do espaço de trabalho.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
A localização <requestedLocation> não está dentro do contexto permitido <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
A credencial de armazenamento do catálogo interno do espaço de trabalho para o espaço de trabalho atual ainda não é suportada
Esquema do sistema UC não disponível para ativação
O esquema <systemSchema> do sistema não está atualmente disponível para ativação. Tente novamente mais tarde.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Não é possível conceder privilégios em <securableType> ao grupo gerado pelo sistema <principal>.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
A tabela '<tableId>' está temporariamente bloqueada para uma migração de tabelas gerida pelo catálogo. As transações nesta tabela são bloqueadas até que a migração seja concluída. Tente novamente a sua transação em breve.
UC_TABLE_IS_NOT_CATALOG_OWNED
O pedido para realizar commit/getCommits para a tabela '<tableId>' requer a ativação do recurso gerido pelo Catálogo na tabela.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
A atribuição de tag com a chave de tag <tagKey> não existe
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Não há suporte para a operação de credenciais temporárias.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Não é possível soltar '<resourceType>' porque já existe um '<resourceType>' com id '<resourceId>'.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
Não é possível soltar '<resourceType>' porque já existe um '<resourceType>' com nome '<resourceName>'.
UC_UNDROP_RESOURCE_NOT_READY
Não é possível soltar '<resourceType>' porque o '<resourceType>' com id '<resourceId>' não está pronto para ser restaurado, tente novamente mais tarde.
UC_UNDROP_RECURSO_APÓS_PERÍODO_PERSONALIZADO_DE_RETENÇÃO
Não é possível soltar '<resourceType>' porque o '<resourceType>' com id '<resourceId>' está além de seu período de restauração personalizado.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Não é possível restaurar '<resourceType>' porque o '<resourceType>' com id '<resourceId>' está além do período de restauração suportado de '<maxRestorationPeriodDay>' dias.
UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST
Falha ao criar UNIQUE restrição <newConstraintName>: a tabela <tableName> já tem uma UNIQUE restrição: <existingConstraintName>, que tem o mesmo conjunto de colunas filhas.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED (restrição única não suportada)
Falha ao operar com a restrição UNIQUE<constraintName>: a restrição UNIQUE não está habilitada.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Caminho base inválido fornecido, caminho base deve ser algo como /api/resources/v1. Caminho não suportado: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Nome de host inválido fornecido, nome do host deve ser algo como https://www.databricks.com sem sufixo de caminho. Host não suportado: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Apenas os caracteres básicos Latin/Latin-1 ASCII são suportados em caminhos de localização/volume/tabela externos. Caminho não suportado: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
Não é possível atualizar <securableType> '<securableName>' porque está sendo provisionado.
UC_USING_REF_OF_MASKED_COLUMNS
Erro ao avaliar as políticas ABAC em '<resource>'. Mensagem falhada: A coluna '<usingCol>' foi mascarada pela política ABAC e<existingMaskingPolicy> não pode ser usada na política.<policyName>
UC_WRITE_CONFLICT
O <type> <name> foi modificado por outro pedido. Por favor, tente novamente a operação.
UNDROP_TABLE_NOT_FOUND
Não se pode desfazer a tabela porque nenhuma tabela com nome <tableFullName> se qualifica para desistência. Esta tabela pode já estar por eliminar, eliminada para além do período máximo de restauração, ou nunca ter existido.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
A solicitação para executar commit/getCommits para a tabela '<tableId>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
A solicitação para criar uma tabela de preparo '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por razões de segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOGO_EXTERN_CODE_CREATE_TABLE_FALHA_VALIDACAO_COLUMN_MASKS_DEFINIDO
A solicitação para criar tabela '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. Não há suporte para máscaras de coluna ao criar tabelas externamente.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA
A solicitação para criar tabela '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. O formato da fonte de dados deve ser DELTA para criar tabela externamente, em vez disso, é '<dataSourceFormat>'.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL
A solicitação para criar tabela '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. O tipo de tabela deve ser EXTERNAL para criar tabela externamente, em vez disso é '<tableType>'.
Informação sobre a criação de tabela externa no catálogo de unidade contém campos inválidos
A criação de tabelas externas só permite estes campos: [nome, catalog_name, schema_name, table_type, data_source_format, colunas, storage_location e propriedades].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
A solicitação para criar uma tabela não externa '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Não é suportada a solicitação para excluir a tabela não externa '<tableFullName>' fora de um ambiente de computação com Databricks Unity Catalog ativado.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
A solicitação para gerar credenciais de acesso para o caminho '<path>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
A solicitação para gerar credenciais de acesso para a tabela '<tableId>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
A solicitação para gerar credenciais de caminho temporário de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. A ID da credencial não deve ser definida ao gerar credenciais de caminho temporário externamente.
CATÁLOGO_UNIDADE_EXTERNA_GERAÇÃO_TEMP_CAMINHO_CRED_FALHA_VALIDACAO_FAZER_CAMINHO_APENAS_DEFINIDO_PAI
A solicitação para gerar credenciais de caminho temporário de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. make_path_only_parent não deve ser definido ao gerar credenciais de caminho temporário externamente.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
O pedido para gerar credencial de acesso para o volume '<volumeId>' a partir de fora do ambiente de computação habilitado pelo Databricks Unity Catalog é negado por questões de segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Pedido para gerar credencial de acesso para '<volumeSecurableKind>' a partir de fora do ambiente de computação habilitado pelo Databricks Unity Catalog é recusado por questões de segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
A solicitação para obter credenciais de origem externa para elementos de segurança fora do ambiente de computação habilitado pelo Databricks Unity Catalog é negada por razões de segurança.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
A solicitação para atualizar instantâneos de metadados de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança.
UNSUPPORTED_LOCATION_SCHEME
<fieldName> tem esquema <scheme>de URI inválido. Os esquemas de URI válidos incluem <validSchemes>. Caminho inválido: <path>.
UPDATE_SYSTEM_TABLE
A tabela de propriedade do sistema não pode ser modificada. Tabela '<tableName>' é uma tabela de propriedade do sistema.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Solicitação inválida para obter credenciais de escrita para tabela online gerida num catálogo online.
API de arquivos
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: nenhum atribuído
<api_name> A API não está ativada
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: nenhum atribuído
O método solicitado da API Files não é suportado para caminhos de nuvem
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: nenhum atribuído
O acesso ao bucket de armazenamento é negado pela AWS.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: nenhum atribuído
Todo o acesso ao bucket de armazenamento foi desativado na AWS.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
O bucket de armazenamento não existe na AWS.
FILES_API_AWS_FORBIDDEN
SQLSTATE: nenhum atribuído
O acesso ao bucket de armazenamento é proibido pela AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: nenhum atribuído
O espaço de trabalho está configurado incorretamente: ele deve estar na mesma região que o bucket de armazenamento raiz do espaço de trabalho da AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: nenhum atribuído
O nome do bucket de armazenamento é inválido.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: nenhum atribuído
As chaves KMS configuradas para acessar o bucket de armazenamento estão desabilitadas na AWS.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: nenhum atribuído
O acesso ao recurso da AWS não é autorizado.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: nenhum atribuído
A conta de armazenamento está desabilitada no Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: nenhum atribuído
A incompatibilidade entre permissões de autorização.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: nenhum atribuído
A chave de encriptação gerida não pode ser encontrada.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: nenhum atribuído
A chave de encriptação gerida foi apagada de forma suave.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
O contêiner do Azure não existe.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: nenhum atribuído
Credencial do Azure não encontrada. A credencial do Azure pode estar ausente ou inacessível.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: nenhum atribuído
O acesso ao contêiner de armazenamento é proibido pelo Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: nenhum atribuído
O Azure respondeu que atualmente há uma concessão do recurso. Tente novamente mais tarde.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: nenhum atribuído
A conta que está sendo acessada não tem permissões suficientes para executar esta operação.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: nenhum atribuído
A configuração da conta que está sendo acessada não é suportada.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: nenhum atribuído
Não é possível acessar a conta de armazenamento no Azure: nome de conta de armazenamento inválido.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: nenhum atribuído
O cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: nenhum atribuído
A chave do cofre de chaves do Azure não foi encontrada no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: nenhum atribuído
O cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: nenhum atribuído
Credencial de Identidade Gerenciada do Azure com Conector de Acesso não encontrada. Isso pode ser porque os controles de acesso IP rejeitaram sua solicitação.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: nenhum atribuído
A operação não pôde ser concluída dentro do prazo permitido.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: nenhum atribuído
O caminho solicitado não é válido para o Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: nenhum atribuído
O caminho solicitado é imutável.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: nenhum atribuído
Um dos cabeçalhos especificados na operação não é suportado.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro URL não pode ser analisado.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: nenhum atribuído
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: nenhum atribuído
Há um problema de conexão chegando ao <cloud_storage_provider>. Tente novamente mais tarde.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: nenhum atribuído
o caractere ':' não é suportado em caminhos
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nenhum atribuído
A zona de rede do consumidor "<consumer_network_zone>" não é permitida na zona de rede do solicitante "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Zona de rede do plano de controlo do Databricks não é permitida.
CREDENCIAL_DO_API_DE_ARQUIVOS_NÃO_ENCONTRADA
SQLSTATE: nenhum atribuído
A credencial não foi encontrada.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: nenhum atribuído
Foi fornecido um corpo, mas os diretórios não podem conter um corpo de ficheiro
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: nenhum atribuído
O diretório não está vazio. Esta operação não é suportada em diretórios não vazios.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: nenhum atribuído
O diretório que está sendo acessado não foi encontrado.
LIMITE_DE_ARQUIVOS_PARA_DOWNLOAD_DE_ZIP_NO_DIRETÓRIO_EXCEDIDO
SQLSTATE: nenhum atribuído
O diretório contém muitos arquivos para download ZIP. Máximo <max_file_count> de ficheiros permitidos.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: nenhum atribuído
A chave raiz para a criptografia gerenciada pelo cliente está desabilitada.
FILES_API_DUPLICATED_HEADER
SQLSTATE: nenhum atribuído
A solicitação continha várias cópias de um cabeçalho que só é permitido uma vez.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro de consulta '<parameter_name>' deve estar presente exatamente uma vez, mas foi fornecido várias vezes.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nenhum atribuído
O nome do bucket DBFS está vazio.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
O usuário não tem acesso à chave de criptografia.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: nenhum atribuído
A operação para recuperar a chave de criptografia não pôde ser concluída dentro do tempo permitido.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: nenhum atribuído
Seu objeto excede o tamanho máximo permitido do objeto.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: nenhum atribuído
O TTL expirou.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: nenhum atribuído
O TTL é inválido.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nenhum atribuído
A chave para o espaço de trabalho não foi encontrada.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: nenhum atribuído
O URL está faltando um parâmetro necessário.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: nenhum atribuído
O TTL está no futuro.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: nenhum atribuído
O nome do estilhaço do emissor é inválido.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: nenhum atribuído
o tempo de expiração deve ser apresentado
FILES_API_EXPIRED_TOKEN
SQLSTATE: nenhum atribuído
O token fornecido expirou.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: nenhum atribuído
Tempo de Expiração deve ser no futuro
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: nenhum atribuído
TTL solicitado é maior do que o suportado (1 hora)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: nenhum atribuído
O arquivo que está sendo criado já existe.
FILES_API_FILE_NOT_FOUND
SQLSTATE: nenhum atribuído
O arquivo que está sendo acessado não foi encontrado.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: nenhum atribuído
Arquivos ou diretórios terminados no caractere '.' não são suportados.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: nenhum atribuído
O tamanho do ficheiro não deve exceder <max_download_size_in_bytes> bytes, mas <size_in_bytes> bytes foram encontrados.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: nenhum atribuído
O acesso ao bucket de armazenamento foi desabilitado no GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
O bucket de armazenamento não existe no GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: nenhum atribuído
O acesso ao bucket é proibido pelo GCP.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: nenhum atribuído
A autenticação falhou para a operação IAM do GCP.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: nenhum atribuído
As credenciais GCP especificadas não existem ou não podem ser acedidas.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Permissão negada para operação GCP IAM.
FILES_API_GCP_KEY_DELETED
SQLSTATE: nenhum atribuído
A chave de encriptação foi eliminada ou já não está acessível.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: nenhum atribuído
A chave de criptografia gerenciada pelo cliente configurada para esse local está desabilitada ou destruída.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: nenhum atribuído
As solicitações GCP para o bucket são proibidas pela política, verifique os controles de serviço da VPC.
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE: nenhum atribuído
Há um problema com o projeto GCP usado na solicitação que impede que a operação seja concluída com êxito.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: nenhum atribuído
O host do provedor de nuvem está temporariamente indisponível; Tente novamente mais tarde.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: nenhum atribuído
O valor do cabeçalho de comprimento de conteúdo deve ser um inteiro maior ou igual a 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: nenhum atribuído
O token de página fornecido não é válido.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: nenhum atribuído
O valor do cabeçalho '<header_name>' é inválido.
FILES_API_INVALID_HOSTNAME
SQLSTATE: nenhum atribuído
O nome do host é inválido.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: nenhum atribuído
Método http inválido. Esperava '<expected>', mas tem '<actual>'.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: nenhum atribuído
O cabeçalho do ID do metastore é inválido.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: nenhum atribuído
token de página inválido
FILES_API_INVALID_PATH
SQLSTATE: nenhum atribuído
Caminho inválido: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: nenhum atribuído
O cabeçalho do intervalo é inválido.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: nenhum atribuído
Token de sessão inválido
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: nenhum atribuído
Tipo de token de sessão inválido. Esperava '<expected>', mas tem '<actual>'.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: nenhum atribuído
O carimbo de data/hora é inválido.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: nenhum atribuído
Tipo de carregamento inválido. Esperava '<expected>', mas tem '<actual>'.
FILES_API_INVALID_URL
SQLSTATE: nenhum atribuído
URL inválido
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: nenhum atribuído
O URL passado como parâmetro é inválido
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro de consulta 'overwrite' deve ser um dos seguintes: true, false, mas foi: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro de consulta '<parameter_name>' deve ser um de: <expected> mas foi: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: nenhum atribuído
Corpo de solicitação malformado
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: nenhum atribuído
O método solicitado da API Files não é suportado para Jobs Background Compute Artifact Storage.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: nenhum atribuído
O cabeçalho de comprimento de conteúdo é necessário na solicitação.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro de consulta '<parameter_name>' é necessário, mas está ausente da solicitação.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: nenhum atribuído
A solicitação está faltando um parâmetro necessário.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: nenhum atribuído
Limite de solicitação excedido comunicando com o serviço MLflow.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: nenhum atribuído
A versão do modelo ainda não está pronta
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
URLs pré-assinados para anular carregamentos de várias partes não são suportados para arquivos armazenados no <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
Abortar uploads multipartes não é suportado para ficheiros armazenados em <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: nenhum atribuído
A lista de partes deve ter pelo menos um elemento, mas estava vazia.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: nenhum atribuído
Não foi possível encontrar uma ou mais das partes especificadas. A parte pode não ter sido carregada ou a etiqueta de entidade especificada pode não corresponder à etiqueta de entidade da parte.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: nenhum atribuído
Os números das peças devem ser maiores ou iguais a <min> e menores ou iguais a <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: nenhum atribuído
ETags devem ser fornecidos para arquivos armazenados em <cloud_storage_provider>. Pelo menos um ETag não foi fornecido ou vazio.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: nenhum atribuído
O estado interno da entidade de armazenamento foi modificado desde o início do upload, por exemplo, porque o caminho do ficheiro não aponta para a mesma localização subjacente de armazenamento na cloud. Prossiga iniciando uma nova sessão de upload.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: nenhum atribuído
As partes carregadas como parte de uma sessão de carregamento com várias partes devem ter o mesmo tamanho para os arquivos armazenados no <cloud_storage_provider>, exceto para a última parte, que pode ser menor.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: nenhum atribuído
O tamanho das partes carregadas como parte de uma sessão de carregamento com várias partes deve ser maior ou igual a <min> e menor ou igual a <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: nenhum atribuído
A sessão de carregamento não foi encontrada. Pode ter sido abortado ou concluído.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: nenhum atribuído
A lista de peças deve ser ordenada pelo número da peça, mas não estava ordenada.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: nenhum atribuído
O cabeçalho de comprimento de conteúdo deve ser zero para essa solicitação.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: nenhum atribuído
A API de arquivos para <place> não está habilitada para este espaço de trabalho/conta
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: nenhum atribuído
O método solicitado da API de arquivos não é suportado para armazenamento de espaço de trabalho interno
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: nenhum atribuído
a operação deve estar presente
FILES_API_OPERATION_TIMEOUT
SQLSTATE: nenhum atribuído
A operação expirou.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: nenhum atribuído
page_size deve ser maior ou igual a 0
ACESSO_BASEADO_EM_CAMINHO_DE_ARQUIVOS_API_A_TABELA_COM_FILTRO_NÃO_PERMITIDO
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: nenhum atribuído
Os caminhos que terminam no caractere '/' representam diretórios. Esta API não suporta operações em diretórios.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: nenhum atribuído
O caminho fornecido aponta para um diretório existente. Esta API não suporta operações em diretórios.
FILES_API_PATH_IS_A_FILE
SQLSTATE: nenhum atribuído
O caminho fornecido aponta para um arquivo existente. Esta API não suporta operações em ficheiros.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: nenhum atribuído
o caminho fornecido não era um URL codificado UTF-8 válido
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: nenhum atribuído
O caminho dado não está habilitado para proxy no plano de dados.
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: nenhum atribuído
caminho deve estar presente
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: nenhum atribuído
O caminho do arquivo fornecido é muito longo.
FILES_API_PRECONDITION_FAILED
SQLSTATE: nenhum atribuído
O pedido falhou devido a uma condição prévia.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A API de Ficheiros para URLs pré-assinadas para modelos não é suportada no momento.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: nenhum atribuído
R2 não é suportado no momento.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: nenhum atribuído
O intervalo solicitado não é satisfatório.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
Não há suporte para listar arquivos recursivamente.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: nenhum atribuído
Não é possível inferir a zona de rede do solicitante.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: nenhum atribuído
A solicitação foi encaminhada incorretamente
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: nenhum atribuído
A solicitação deve incluir informações da conta
A SOLICITAÇÃO DA API DE ARQUIVOS DEVE INCLUIR INFORMAÇÕES DO DESTINATÁRIO
SQLSTATE: nenhum atribuído
A solicitação deve incluir informações do destinatário.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: nenhum atribuído
A solicitação deve incluir informações do usuário
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: nenhum atribuído
A solicitação deve incluir informações do espaço de trabalho
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: nenhum atribuído
O recurso é somente leitura.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: nenhum atribuído
Não é possível aceder ao URL.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: nenhum atribuído
A verificação da assinatura falhou.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: nenhum atribuído
O contexto de acesso ao armazenamento é inválido.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: nenhum atribuído
A configuração de armazenamento para este espaço de trabalho não está acessível.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A API de arquivos não é suportada para <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: nenhum atribuído
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
NOME_ARQUIVOS_NÃO_FOI_POSSÍVEL_RENOVAR_IDENTIDADES_GERIDAS_AZURE
SQLSTATE: nenhum atribuído
Não é possível renovar a identidade gerenciada do Azure.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: nenhum atribuído
Erro inesperado ao analisar o URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: nenhum atribuído
Parâmetros de consulta inesperados: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: nenhum atribuído
Método desconhecido <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: nenhum atribuído
Erro de servidor desconhecido.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: nenhum atribuído
O host de URL é desconhecido.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: nenhum atribuído
O pedido não foi autenticado corretamente.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: nenhum atribuído
O httpMethod não é suportado.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: nenhum atribuído
A combinação de parâmetros não é suportada.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: nenhum atribuído
O caminho fornecido não é suportado pela API de arquivos. Certifique-se de que o caminho fornecido não contém instâncias de '../' ou './'. Certifique-se de que o caminho fornecido não usa várias barras consecutivas (por exemplo, '///').
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: nenhum atribuído
O parâmetro de entrada «count» deve ser superior a 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: nenhum atribuído
A geração de URL pré-assinada não está habilitada para <cloud>.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A API de arquivos não é suportada pelo <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: nenhum atribuído
O espaço de trabalho foi cancelado.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nenhum atribuído
A configuração de armazenamento para este espaço de trabalho não está acessível.
Oleodutos declarativos Lakeflow Spark
Políticas ABAC não são suportadas
As políticas ABAC não são suportadas em tabelas definidas dentro de um pipeline.
Remova as políticas ou entre em contato com o suporte do Databricks.
TERMINAÇÃO_ANORMAL_DO_MOTORISTA
O driver no cluster <clusterId> foi interrompido de forma anormal devido a <terminationCause>. Por favor, verifique os registros do driver para obter mais detalhes.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Já existe uma atualização ativa '<updateId>' para o pipeline associado '<linkedPipelineId>'.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Já existe uma atualização ativa '<updateId>' para o pipeline '<pipelineId>'.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER não é permitido em tabelas administradas por um
Para mais detalhes, consulte ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Não é possível alterar <type> em uma tabela sem um agendamento ou gatilho existente. Adicione um cronograma ou gatilho à tabela antes de tentar alterá-lo.
API_QUOTA_EXCEEDED
Você excedeu a cota da API para a fonte de dados <sourceName>.
Para mais detalhes, ver API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
Ocorreu um erro durante a AUTO CDC operação.
Para mais detalhes, ver APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Ocorreu um erro durante a AUTO CDC FROM SNAPSHOT operação.
Para mais detalhes, consulte APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
O conjunto de dados <datasetName> tem expectativas definidas, mas as expectativas não são suportadas atualmente para conjuntos de dados que usam AUTO CDC FROM SNAPSHOT.
Remova as expectativas para resolver esse erro. Como alternativa, considere usar a seguinte estrutura para aplicar expectativas combinando AUTO CDC e AUTO CDC FROM SNAPSHOT:
Aplique alterações de snapshot a uma tabela intermediária usando SCD tipo 1 sem expectativas.
Leia as alterações da tabela intermediária usando
spark.readStream.option("readChangeFeed", "true").table.Aplique as alterações da tabela intermediária para a tabela de destino final usando
dlt.apply_changesos seguintes parâmetros, além dos usados atualmente comdlt.apply_changes_from_snapshot:
Para lidar com alterações:
apply_as_deletes = "_change_type == 'delete'"Para remover colunas adicionadas pelo CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Inclua o conjunto atual de expectativas na tabela final de metas usada para
dlt.apply_changes.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
O recurso COLUMNS A UPDATE está em pré-visualização e não ativado para o seu espaço de trabalho. Entre em contato com seu representante Databricks para saber mais sobre esse recurso e acessar a visualização privada.
APLICAR_AMBIENTE_CLUSTER_NÃO_DISPONÍVEL
A computação de pipeline para <pipelineId> não está disponível. A computação do pipeline pode ter sido interrompida ou ainda pode estar a iniciar-se.
Tente novamente mais tarde, quando o cálculo estiver totalmente disponível. Se o problema persistir, entre em contato com o suporte da Databricks.
APLICAR_AMBIENTE_CLUSTER_NÃO_ENCONTRADO
O cálculo de pipeline para <pipelineId> não foi encontrado. Essa computação de pipeline pode nunca ter começado ou já ter parado. Por favor, inicie o pipeline
antes de aplicar a configuração do ambiente.
AMBIENTE_APLICAÇÃO_NÃO_SUPORTADO
O ponto de acesso ApplyEnvironment não está suportado.
ARCHITECTURE_MIGRATION_FAILURE
Para mais detalhes, consulte ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Os pipelines destinados a catálogos que utilizem o Armazenamento Padrão devem usar computação sem servidor. Se você não tiver acesso à computação sem servidor, entre em contato com o Databricks para habilitar esse recurso para seu espaço de trabalho.
AUTO_FULL_REFRESH_DISABLED
O Auto Full Refresh está desativado para a tabela <tableName>.
AUTO_FULL_REFRESH_NOT_ALLOWED
A atualização automática completa falhou na tabela <tableName> porque <reason>.
AUTO_FULL_REFRESH_THROTTLED
A atualização automática completa falhou. A tabela <tableName> foi atualizada automaticamente ao <timestamp> intervalo mínimo antes da próxima atualização automática completa <minInterval> : minutos.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
A autenticação do Azure Active Directory falhou (AADSTS5000224).
ID de traço: <traceId>, ID de correlação: <correlationId>.
Verifique se o Azure Active Directory está corretamente configurado e acessível. Entre em contato com o suporte da Microsoft se o problema persistir.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Credencial de Identidade Gerida Azure com ID <accessConnectorId> de Conector de Acesso não foi encontrada para a conta <accountId>.
Verifique se a credencial existe e está corretamente configurada.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Falhou a resolução do nome do host de armazenamento Azure: <hostname>.
Verifica se o DNS está devidamente configurado e que a conta de armazenamento está acessível a partir da tua rede.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
O pedido ao armazenamento Azure não foi autorizado pelo perímetro de segurança da rede.
Verifique se o armazenamento está corretamente configurado e acessível.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Ocorreu um erro no conector de dados do BigQuery.
O 'catálogo de origem' (GCP Project ID) está ausente na sua especificação de ingestão.
Especifique o catálogo de origem (ID do projeto) na sua especificação de ingestão para resolver esse problema.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Novas colunas (<columnNames>) são adicionadas ao campo include_columns na definição do pipeline para a tabela <qualifiedTableName>. Por favor, atualize completamente a tabela para evitar a perda potencial de dados ou remova essas colunas do include_columns.
CANNOT_ADD_STORAGE_LOCATION
Não é possível adicionar um local de armazenamento a um pipeline existente com catálogo definido, se você quiser definir um local de armazenamento crie um novo pipeline.
Catálogo existente: '<catalog>'.
Local de armazenamento solicitado: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: nenhum atribuído
O @<decoratorName> decorador não pode ser composto com <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
A definição de pipeline exclui colunas (<columnNames>) que não existem na tabela <qualifiedTableName> de origem <sourceType>. Remova estas colunas do campo exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
A definição do pipeline não inclui as colunas necessárias (<columnNames>) na tabela <qualifiedTableName> da fonte <sourceType> para ingestão. Por favor, adicione-os ao include_columns ou remova-os do exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
A definição de pipeline inclui colunas (<columnNames>) que não existem ou não são acessíveis na tabela <qualifiedTableName> de origem <sourceType>. Remova estas colunas do campo include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
A tabela <qualifiedTableName> na <sourceType> origem não tem uma chave primária.
Por favor, especifique uma chave primária na configuração do conector para integrar a tabela, caso ela exista.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Ainda não há suporte para a mudança de proprietário para pipelines que não sejam de UC.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Somente os administradores do espaço de trabalho podem alterar o proprietário do pipeline.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Novo proprietário não existe.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type não pode ser atualizado.
Tipo de pipeline atual: <currentPipelineType>.
O tipo de pipeline foi atualizado: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Não é possível modificar o local de armazenamento de um pipeline existente.
Local de armazenamento existente: '<existingStorageLocation>'.
Local de armazenamento solicitado: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
As colunas (<columnNames>) são removidas do campo exclude_columns na definição da pipeline para a tabela <qualifiedTableName>. Por favor, atualize completamente a tabela para evitar a perda potencial de dados ou adicione essas colunas de volta ao exclude_columns.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Não é possível adicionar catálogo a um pipeline existente com local de armazenamento definido, se você quiser usar UC criar um novo pipeline e definir catálogo.
Local de armazenamento existente: '<storageLocation>'
Catálogo solicitado: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
Os identificadores de pipeline são iguais; definir os identificadores de pipeline vinculados pode causar um impasse.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
O campo 'esquema' especificado nas configurações do pipeline para o pipeline '<pipelineName>' é inválido. Reason:
Para mais detalhes, consulte CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: nenhum atribuído
<argList> excluem-se mutuamente e não podem ser agrupados.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
A definição de pipeline especifica os include_columns e exclude_columns para <identifier>. Por favor, remova um deles.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Não é possível atualizar as colunas de clustering da tabela <tableName> porque está a usar colunas de partição. Uma tabela pode usar colunas de partição ou colunas de aglomeração, mas não ambas.
Para alternar entre a agrupação de líquidos e o particionamento, acione uma atualização completa desta tabela.
CANNOT_UPDATE_PARTITION_COLUMNS
Não é possível atualizar as colunas de partição para a tabela de streaming <tableName>.
Corrente: <existingPartitionColumns>,
Solicitado: <requestedPartitionColumns>
Para aplicar essa alteração de partição, acione uma atualização completa desta tabela e de quaisquer outras tabelas de streaming que tenham colunas de partição atualizadas.
Como alternativa, reverta essa alteração para continuar usando as colunas de partição existentes.
CANNOT_UPDATE_TABLE_SCHEMA
Falha ao mesclar os esquemas atual e novo para a tabela <tableName>.
Para prosseguir com essa alteração de esquema, você pode acionar uma atualização completa desta tabela.
Dependendo do seu caso de uso e das alterações de esquema, você poderá evitar a alteração de esquema -- você pode atualizar suas consultas para que o esquema de saída seja compatível com o esquema existente (por exemplo, lançando colunas explicitamente para o tipo de dados correto).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
No entanto, a(s) tabela(s) de destino já tem(em) coluna(s) inativa(s) com este nome; As colunas estão inativas porque foram excluídas anteriormente das tabelas de origem.
Para avançar com a atualização, faça um FULL REFRESH exame nas tabelas.
CANNOT_WRITE_TO_INACTIVE_TABLES
As tabelas a seguir no destino estão inativas e em conflito com as tabelas de origem atuais: <tables>.
Essas tabelas permanecem inativas porque foram anteriormente eliminadas da origem ou desmarcadas do conector.
Para prosseguir com a atualização, por favor altere o nome da tabela de destino ou execute uma FULL REFRESH atividade nestas tabelas ou elimine essas tabelas inativas do destino no Explorador de Catálogos ou via DROP TABLE comando, e tente novamente a atualização.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
As seguintes tabelas no destino não foram corretamente restabelecidas na última atualização completa: <tables>.
Por favor, realize uma atualização completa para eles para que se recuperem.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
O catálogo UC não tem o mapeamento para o catálogo '<sourceCatalog>'.
Verifique se o catálogo está registado no catálogo da UC.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
O catálogo <destPipelineCatalog> e o esquema <destPipelineSchema> do pipeline de destino com ID '<destPipelineId>' não correspondem ao catálogo e ao esquema da tabela <tableName>. O pipeline de destino deve ter o mesmo catálogo e esquema que a tabela ou o pipeline de destino deve estar usando o Modo de Publicação Direta.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs não são suportados pelos conectores de banco de dados atualmente. Remova as especificações do catálogo.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
A Política de Atualização Automática Completa de todas as tabelas de destino ligadas à mesma tabela de origem deve ser a mesma.
Alterar a política para seguir as tabelas <destinationTables> de destino ligadas à fonte <sourceTable>.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Colunas com UOID <columnNames> para tabela <tableName> não são suportadas em pipelines de ingestão gerenciados pelo CDC.
Por favor, verifique se o pipeline de ingestão suporta UOID em colunas ou solicite uma atualização completa na tabela.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
O Gateway Pipeline encontrou um erro fatal:
<errorMessage>
Verifique a falha de atualização do pipeline aqui: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
O pipeline <pipelineId> de gateway de ingestão ligado ao Managed Ingestion Pipeline foi removido.
Por favor, remova o pipeline de Ingestão Gerida e crie tanto o Gateway de Ingestão como o pipeline de Ingestão Gerida.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Os metadados da tabela replicada para a tabela <tableName> não estão prontos.
O carimbo de data/hora do pedido de trabalho existente é <existingRequestTs>, mas esperamos que seja <expectedRequestTs> ou mais tarde.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Não há suporte para a atualização completa de uma tabela de destino e a atualização normal de outra tabela de destino da mesma origem.
Por favor, atualize completamente ambas as tabelas para continuar, se possível.
Tabelas de atualização completas: <fullRefreshTables>
Tabelas de destino para a origem <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
A versão <dataSchemaVersion> do esquema é diferente da versão <readSchemaVersion>do esquema de leitura.
Os Lakeflow Spark Declarative Pipelines vão tentar novamente a atualização.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
A coluna <columnName> da tabela <tableName> especificada em sequenceBy não existe em <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
A coluna <columnName> da tabela <tableName> especificada em sequenceBy é do tipo <typeName> que não é suportado.
Os tipos suportados para as colunas sequenceBy são <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
No máximo, uma coluna pode ser especificada em sequênciaPor do pipeline de ingestão gerenciado pelo CDC.
Colunas especificadas: <columns> para a tabela <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Encontramos uma alteração de esquema incompatível (<cause>) da versão do esquema <previousSchemaVersion> para <currentSchemaVersion>.
Por conseguinte, não podemos continuar a aplicar alterações para <tableName>. Por favor, solicite uma atualização completa da tabela.
Esquema anterior: <previousSchema>
Esquema atual: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Encontradas várias tabelas de origem: <source_tables> mapeadas para a mesma tabela <destination_table>de destino.
Mapeie-os para um nome de tabela de destino diferente ou para um esquema de destino diferente.
CDC_POTENTIAL_DATA_GAPS
As tabelas a seguir [<needFullRefreshTableList>] não têm uma atualização realizada há <retention> dias.
Faça uma atualização completa nestas tabelas ou em todo o pipeline.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Encontrámos o mesmo nome de tabela <table> proveniente de várias fontes: <sources>.
Por favor, divida-os em diferentes pipelines para evitar conflitos.
CDC_SOURCE_VALIDATION_FAILURE
A validação da base de dados de origem detetou <errorCount> erro(s). Consulte o(s) relatório(s) do registo de eventos para resultados detalhados e passos de remediação.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
A tabela <table> não é encontrada no instantâneo de todas as tabelas do banco de dados de origem.
Detalhes das especificações da tabela:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
Não se permite a alteração de um pipeline HMS para um pipeline UC.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
Não é permitido alterar um pipeline de UC para um pipeline HMS.
CHANGING_CATALOG_NOT_ALLOWED
Não é possível modificar o catálogo de um pipeline existente. Catálogo existente: '<existingCatalog>'. Catálogo solicitado: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Não é permitido alterar o esquema de destino. Motivo: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
Falha ao criar um cluster porque a política de orçamento do pipeline excedeu o limite. Use uma política diferente ou entre em contato com seu administrador de cobrança.
CLUSTER_CREATION_CLIENT_ERROR
Falhou na criação de um cluster de pipeline: <errorMessage>
Este erro é provavelmente devido a uma configuração incorreta no pipeline.
Verifique a configuração do cluster de pipeline e a política de cluster associada.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
Falha ao criar um cluster porque o número de clusters em execução por usuário para a política "<clusterPolicy>" excedeu o limite de <clusterLimit>. Use uma política diferente ou entre em contato com seu administrador.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Falha ao criar um cluster porque você esgotou os créditos disponíveis. Adicione um método de pagamento para atualizar a sua conta.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Falha ao criar um cluster porque você excedeu os limites de recursos: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Não é possível obter segredos referidos na configuração do Spark.
Por favor, verifique se os segredos existem e se o proprietário do cluster tem permissões de leitura.
CLUSTER_LAUNCH_CLIENT_ERROR
Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>
Este erro é provavelmente devido a uma configuração incorreta no pipeline.
Verifique a configuração do cluster de pipeline e a política de cluster associada.
CLUSTER_LAUNCH_CLOUD_FAILURE
Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>
Esse erro pode ser transitório - reinicie o seu pipeline e relate se ainda vir o mesmo problema.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Falhou no lançamento do cluster <clusterId> de pipeline devido ao esgotamento dos limites de recursos: <clusterStateMessage>.
FALTA_DE_RECURSOS_PARA_LANCAMENTO_DO_CLUSTER
Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>
O tipo de instância solicitado não pôde ser fornecido pelo provedor de nuvem.
Verifique sua assinatura de provedor de nuvem ou tente novamente com um tipo de instância diferente.
CLUSTER_SETUP_CLIENT_ERROR
Não é possível configurar com êxito o cluster <clusterId> para a execução da atualização do pipeline. Reason:
Para mais detalhes, consulte CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Comunicação perdida com o motorista. O cluster <clusterId> não foi acessível por <timeoutSeconds> segundos.
COLUMN_MASK_WITH_NO_COLUMN
Máscara de coluna encontrada para a coluna '<columnName>' que não existe no esquema MV/ST. Se isso for devido a uma alteração no esquema da tabela base,
solte a máscara antiga com ALTER TABLE [table_name] ALTER COLUMN [coluna onde a máscara é aplicada] DROP MASK ou restaure a coluna.
COLUMN_TO_UPDATE_NOT_FOUND
A coluna <column> especificada em COLUMNS a UPDATE não foi encontrada no Dataframe de origem.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Iniciou a atualização '<upgradedUpdateId>' para uma melhoria, mas não conseguiu parar a atualização anterior '<oldUpdateId>'.
Este erro é provavelmente transitório. O pipeline será reiniciado automaticamente e o problema deverá resolver-se por si próprio.
Comunique este erro ao Databricks se continuar a ver o mesmo problema.
CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED
Não é possível criar um fluxo de acréscimo para uma tabela de streaming a partir de uma consulta em lote.
Isso evita a ingestão incremental da fonte e pode resultar em comportamento incorreto.
Tabela com erro: '<table>'.
Para corrigir isso, use o operador STREAM() ou o operador readStream para declarar a origem como uma entrada de streaming.
Exemplo: SELECT...FROM STREAM(<source table name>) ou spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: nenhum atribuído
O conjunto de dados <datasetName> já existe. Certifique-se de que a função de consulta só foi marcada como uma vista ou tabela uma vez.
DATASET_NOT_DEFINED
Falha ao ler o conjunto de dados '<datasetName>'. Esse conjunto de dados não está definido no pipeline.
Se esta tabela for gerenciada por outro pipeline, não use dlt.read / dlt.readStream para ler a tabela ou anexar o nome com a palavra-chave LIVE.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Tentei definir expectativa(s) para um conjunto de dados que<datasetName> não existe
DATASET_NOT_REGISTERED_FOR_FLOW
Tentei registar um fluxo para o conjunto de dados,<datasetName> mas o conjunto de dados não está registado.
DBFS_NOT_ENABLED
O DBFS não está habilitado para este espaço de trabalho; publique no Catálogo Unity ou especifique um local de armazenamento diferente para o pipeline.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
Pipeline <pipelineId> tem múltiplas tabelas de produção com diferentes definições de cronograma: [<tableScheduleInfo>]. Todas as mesas de produção devem ter o mesmo calendário.
DBSQL_INVALID_CHANNEL_VALUE
Canal inválido especificado com pipelines.channel propriedade: <channel>. Os valores válidos são: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Tipo de anexo inválido especificado com propriedade de anexo: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Propriedade de anexo obrigatória em falta nas propriedades da tabela.
DBSQL_PIPELINE_IS_MISSING
Falta um DBSQL gasoduto. Atualize sua visualização materializada ou tabela de streaming para criar o DBSQL pipeline.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Um DBSQL pipeline deve ter exatamente uma vista materializada ou tabela de streaming, mas foram encontradas <tablesSize> tabelas: <tables>
DELETE_PIPELINE_DESATIVADO
O pipeline não pode ser eliminado neste momento.
Entre em contato com o suporte da Databricks para obter assistência na exclusão do pipeline '<pipelineId>' .
DESTINATION_PIPELINE_NOT_FOUND
A canalização de destino com ID '<pipelineId>' não pode ser encontrada. Verifique se você está no mesmo espaço de trabalho que o pipeline, se você é o proprietário do pipeline e se o pipeline foi executado pelo menos uma vez.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
O pipeline de destino com ID '<pipelineId>' não está usando o Modo de Publicação Direta.
DESTINATION_PIPELINE_PERMISSION_DENIED
Você não tem permissão para executar esta operação, você não é o proprietário do pipeline de destino com ID '<pipelineId>'. Apenas os proprietários podem alterar o pipeline de uma tabela.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
O pipeline de destino com o ID '<pipelineId>' não é um ETL pipeline.
DIRECTORY_PATH_REQUIRES_GLOB
O caminho <path> é um diretório. Para incluir todos os ficheiros dentro de um diretório, use o padrão glob com o sufixo '**' , '<path>/**', na configuração do seu pipeline.
PEDIDO_NÃO_PERMITIDO_PARA_RESTAURAR_PIPELINE
A solicitação <request> não é permitida para o pipeline '<pipelineId>' no estado RESTORING.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Erro ao manipular a solicitação '<action>'.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Não é possível excluir SCHEDULE numa tabela sem uma programação ou disparador existente.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
A chave da localização do esquema from_json foi duplicada: <schemaLocationKey>.
Por favor, escolha chaves exclusivas para a localização do esquema para cada consulta from_json no pipeline.
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
A configuração do pipeline de ingestão contém tabelas duplicadas. Certifique-se de que cada mesa é única.
EMPTY_INGESTION_CONFIG_OBJECTS
Os objetos de configuração de ingestão estão vazios.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
A configuração 'spare_capacity_fraction' de Autoscaling Aprimorada só é suportada na edição avançada do Lakeflow Spark Declarative Pipeliness.
Por favor, edite as configurações do seu pipeline e ajuste a opção "edição" para "avançada", de modo a poder utilizar a 'spare_capacity_fraction'.
ENVIRONMENT_PIP_INSTALL_ERROR
Falhou ao instalar a dependência de ambiente: '<pipDependency>'. Verifique os logs stdout do driver no cluster para obter mais detalhes.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Publicar o registo de eventos no Unity Catalog não é suportado no modo de publicação legado. Para ativar esta funcionalidade, migre o seu pipeline para o modo de publicação predefinido seguindo os passos do guia https://docs.databricks.com/aws/en/dlt/migrate-to-dpmde migração. Se preferir continuar a usar o modo de publicação legado, remova a configuração 'event_log' da sua especificação de pipeline.
EXPECTATION_VIOLATION
O Flow '<flowName>' não correspondeu às expectativas.
Para mais detalhes, consulte EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only e validate_only não podem ser ambos definidos como verdadeiros.
EXPLORE_ONLY_IS_NOT_ENABLED
A atualização "explore_only" não está habilitada. Entre em contato com o suporte da Databricks.
FAILED_TO_CREATE_EVENT_LOG
Falha ao criar o log de eventos do pipeline (id=<pipelineId>) com o identificador <eventLogIdentifier>. Consulte a exceção abaixo para obter mais detalhes.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Não foi possível publicar a visão <viewName> no metastore porque <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Falha ao atualizar o identificador do log de eventos do pipeline (id=<pipelineId>) para <newEventLogIdentifier>. Consulte a exceção abaixo para obter mais detalhes.
FLOW_SCHEMA_CHANGED
O fluxo <flowName> terminou desde que sofreu uma alteração no esquema durante a execução.
A alteração de esquema é compatível com o esquema de destino existente e a próxima execução do fluxo pode ser retomada com o novo esquema.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
O Lakeflow Spark Declarative Pipelines ForeachBatch Sink não é atualmente suportado.
A pré-visualização privada do sumidouro Lakeflow Spark Declarative Pipelines ForeachBatch requer o PREVIEW canal.
Afundamentos Lakeflow Spark Declarative Pipelines: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
O pipeline do Gateway não permite scripts de inicialização de cluster. Por favor, remova-o de <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
O pipeline do Gateway não permite a configuração do Spark [<configs>]. Por favor, remova-os de <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
O número de IDs de organização solicitados excede o limite máximo permitido de <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Ocorreu um erro no conector de dados brutos do Google Analytics.
O 'catálogo de origem' (GCP Project ID) está ausente na sua especificação de ingestão.
Especifique o catálogo de origem (ID do projeto) na sua especificação de ingestão para resolver esse problema.
HMS_NOT_ENABLED
O Hive Metastore não está habilitado para este espaço de trabalho; publique no Catálogo Unity.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
O tipo de dados da coluna especificada de COLUMNS a UPDATE deve ser uma matriz de strings, mas encontrou-se <illegalDataType>.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
As configurações não devem conter '<fieldName>'.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
O campo 'esquema' especificado nas configurações do pipeline é ilegal. Motivo: <reason>.
INCORRECT_ROOT_PATH_TYPE
O caminho raiz '<rootPath>' deve ser um diretório, mas foi encontrado <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
A visualização materializada tem uma política de renovação, INCREMENTAL_STRICT mas não pode ser incrementalizada.
MANUTENÇÃO_DA_INFRAESTRUTURA
Driver no cluster <clusterId> encerrado devido a manutenção da infraestrutura.
INGESTION_CONFIG_DUPLICATED_SCHEMA
A configuração do pipeline de ingestão contém esquemas duplicados. Certifique-se de que cada esquema é único.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Falha de autenticação
Para mais detalhes, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Foi detetada uma incompatibilidade de esquema entre as tabelas de origem e de destino. Para resolver este problema, é necessária uma atualização completa da tabela '<entityName>' no fluxo de ingestão.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
A instância de captura para <entityName> já não está disponível na fonte.
Por favor, acione uma atualização completa após ativar CDC ou TAC na mesa.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
O registo do CDC foi truncado para a tabela '<entityName>', razão: <errorMessage>.
Isto pode ser causado pela política de retenção de registos do CDC que trunca os registos de monitorização de alterações antes de poderem ser processados.
A tabela será ignorada durante o processamento. Para reativar o processamento, atualize completamente a tabela.
INGESTION_GATEWAY_CDC_NOT_ENABLED
O CDC não está ativado em <entityType> '<entityName>'. Ative o CDC e atualize completamente a tabela no Pipeline de Ingestão. Mensagem de erro: '<errorMessage>'.
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED (Versão da base de dados não suportada)
A versão do banco de dados não é suportada.
Para mais detalhes, consulte INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
Objetos DDL ausentes em <entityType> '<entityName>'. Execute o script de objetos DDL e atualize completamente a tabela no pipeline de ingestão. Mensagem de erro: '<errorMessage>'.
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
O ciclo de validação do Internal Health Checker falhou. Vou tentar novamente no próximo ciclo, se o problema persistir, por favor abra um ticket.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
A configuração do gateway de ingestão não tem uma conexão.
Adicione uma referência à conexão do Catálogo Unity que contém suas credenciais.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
A configuração do gateway de ingestão está faltando no catálogo de local de armazenamento interno.
Adicione o catálogo de locais de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
A configuração do gateway de ingestão está faltando o nome do local de armazenamento interno.
Adicione o nome do local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
A configuração de gateway de ingestão falta o esquema de localização de armazenamento interno.
Adicione o esquema de local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
A tabela '<entityName>' não existe no banco de dados de origem ou foi descartada. Resolva o problema e atualize completamente a tabela no pipeline de Ingestão Gerenciada. Mensagem de erro: '<errorMessage>'.
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
O(s) ficheiro(s) binlog MySQL necessário(s) foram eliminados da base de dados de origem. Isto acontece tipicamente quando o período de retenção dos binlogs é demasiado curto ou quando a ingestão reinicia após a janela de retenção ter passado. Para mitigar, faça uma atualização completa em todas as tabelas e aumente a retenção de binlogs na fonte.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Falhei a deteção de ficheiros MySQL Binlog. Por favor, realize uma atualização completa em <entityName>.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Os ficheiros de registo de arquivo Oracle necessários para a replicação do CDC já não estão disponíveis na base de dados de origem. Isto pode acontecer quando os registos de arquivo ultrapassam o período de retenção ou são eliminados manualmente. Por favor, faça uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'. Se este problema persistir, considere aumentar o período de retenção dos registos de arquivo na base de dados de origem para garantir que os registos permanecem disponíveis enquanto estão a ser processados.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
A configuração da ligação Oracle está incompleta.
Para mais detalhes, veja INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Falha ao alterar a publicação de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para mais detalhes, ver INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Falha ao criar publicação de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Falha ao descartar a publicação de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
A configuração do slot de replicação para <entityType> <entityName> não está num estado saudável. Para resolver este problema, acione uma atualização completa em todas as tabelas de destino mapeadas para o catálogo <catalogName>.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Falha ao criar slot de replicação para <entityType> '<entityName>' porque o slot de replicação está a ser utilizado por outro PID.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Falha ao criar espaço de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para mais detalhes, consulte INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Falhou a eliminação do slot de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para mais detalhes, veja INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
O slot de replicação para <entityType> '<entityName>' foi eliminado. Por favor, acione uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
O slot de replicação para <entityType> '<entityName>' não está saudável. Por favor, solte o slot e aciona uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
O usuário não tem as permissões necessárias para acessar este objeto ou executar o procedimento armazenado. Certifique-se de que todos os privilégios necessários sejam concedidos. Consulte a seguinte documentação: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
PONTO_DE_INGESTÃO_FONTE_ESQUEMA_ENTIDADE_EM_FALTA
Não há tabelas disponíveis para replicação a partir da origem.
Verifique se as tabelas estão corretamente selecionadas e definidas no fluxo de ingestão
e o utilizador tem o acesso necessário ao catálogo e ao esquema.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
O acompanhamento de alterações da tabela <entityName> foi desativado na fonte.
Por favor, acione uma atualização completa após ativar CDC ou TAC na mesa.
INGESTÃO_PORTA_DE_ACESSO_TABELA_ELIMINADA
A tabela de origem '<entityName>' foi eliminada na origem. Mensagem de erro: <errorMessage>
TABELA_DE_GATEWAY_DE_INGESTÃO_RENOMEADA
A tabela de origem '<entityName>' foi renomeada na fonte. Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_TABLE_SKIPPED_DUE_TO_UNSUPPORTED_COLUMN_DATA_TYPE
A tabela '<entityName>' foi ignorada devido a colunas de tipos de dados não suportados. Resolva o problema e atualize completamente a tabela no pipeline de Ingestão Gerenciada. Mensagem de erro: '<errorMessage>'.
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
A tabela '<entityName>' foi ignorada por causa do UOID inesperado atribuído às colunas. Por favor, faça uma atualização completa da mesa para resolver o problema. Erro: <errorMessage>.
Portão de Ingestão: Tabela Inesperada UOID
A tabela '<entityName>' foi ignorada devido ao UOID inesperado atribuído à tabela. Por favor, faça uma atualização completa da mesa para resolver o problema. Erro: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
A conexão falhou devido a um nome <host> de host e/ou porta <port> incorretos do banco de dados de origem.
Para mais Detalhes, consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Caracteres não suportados encontrados em objetos para a tabela <entityName>, razão: <errorMessage>. A mesa será ignorada. Contacte o suporte para permitir a ingestão de caracteres especiais.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
O objeto '<entityName>' não é suportado e foi ignorado. Para resolver, remova este objeto do pipeline de ingestão. Mensagem de erro: '<errorMessage>'.
PORTA_DE_INGESTÃO_MODIFICAÇÃO_DE_TABELA_NÃO_RASTREÁVEL
Modificação de tabela não rastreável detetada para tabela <entityName>, motivo: <errorMessage>.
Isso pode ser causado por um truncate de tabela, substituição de log cdc ou outra operação não rastreável.
A tabela será ignorada durante o processamento. Para reativar o processamento, atualize completamente a tabela.
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
Falha ao replicar <entityType> '<entityName>' porque faz parte de uma transação XA.
Mensagem de erro: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC comando é inválido.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: nenhum atribuído
Valor do tipo inválido passado para o parâmetro '<paramName>'. Espera-se <expectedType>.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
As opções de tabela especificadas para tabela <table> são inválidas porque
Para mais detalhes, consulte INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Os pipelines UC não suportam definir '<configKey>' como '<configValue>'. Por favor, remova esta configuração das definições do seu pipeline.
INVALID_DECORATOR_USAGE
SQLSTATE: nenhum atribuído
O primeiro argumento posicional passado para @<decoratorName> deve ser chamável. Adicione @<decoratorName> sem parâmetros à sua função ou passe opções para @<decoratorName> usando argumentos de palavra-chave (por exemplo, <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
ID do pipeline de destino inválido: '<pipelineId>'. Os IDs de pipeline devem ser UUIDs válidos.
Verifique se você está usando o ID de pipeline correto, não o nome do pipeline.
INVALID_EVENT_LOG_CONFIGURATION
Configuração de log de eventos inválida encontrada na especificação do pipeline: <message>
INVALID_NAME_IN_USE_COMMAND
Nome inválido '<name>' no comando <command>. Motivo: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Você só pode especificar 'pipeline_id' e 'pipeline_type' ao chamar 'dry_run' para um DBSQL pipeline.
INVALID_REFRESH_SELECTION
Para mais detalhes, ver INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
A seleção de atualização não é suportada para o modo contínuo.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh não deve ser definido como true para uma solicitação de seleção de atualização.
INVALID_REWIND_SPECIFICATION
A especificação de rebobinar é inválida
Para mais detalhes, veja INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Inválido root_path '<rootPath>': apenas caminhos de diretório absolutos são suportados atualmente. Os caminhos de diretório devem começar com '/' e não terminar com '/'.
INVALID_SCHEMA_NAME
Esquema inválido '<schemaName>' especificado na configuração do pipeline. Motivo: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: nenhum atribuído
snapshot_and_version para fluxo com destino '<target>' retornou tipo não suportado.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
A configuração do intervalo de gatilho especificada no <configurationType> é inválida
ACESSO_AO_JIRA_PROIBIDO
O usuário que se conecta não tem acesso. Por favor, verifique novamente as permissões do usuário e tente novamente.
JIRA_ADMIN_PERMISSION_MISSING
Erro encontrado ao chamar APIs do Jira. Por favor, certifique-se de dar
o utilizador de ligação às permissões de administrador do Jira para a sua instância do Jira.
FALHA_DE_AUTORIZAÇÃO_JIRA
A autorização falhou ao chamar APIs do Jira. Por favor, volte a autenticar
a ligação UC criada e tente novamente.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Ocorreu um erro no conector Jira.
Ocorreu um problema ao tentar analisar o mapeamento de entidade para o tipo de entidade: <entityType>. Verifique se a sua entidade faz parte dos tipos suportados.
Se o erro persistir, registre um ticket.
JIRA_MISSING_REQUIRED_FIELD
O campo obrigatório '<fieldName>' está ausente na resposta da API do Jira.
JSON nó: <jsonNode>
JIRA_SITE_MISSING
Não foi possível encontrar cloudId correspondente ao domínio <domain>Jira fornecido.
Certifique-se de que o usuário conectado possa acessar este site.
JOB_DETAILS_DO_NOT_MATCH
Se ambos 'update_cause_details.job_details' e 'job_task' são fornecidos, então eles devem corresponder, mas eles são <details> e <jobTask>
JOB_TASK_DETAILS_MISSING
Se 'cause' é JOB_TASK, então 'job_task' ou 'update_cause_details.job_details' deve ser fornecido.
CRIAÇÃO_DE_PIPELINE_LEGADO_DESABILITADA
A criação de pipelines no modo de publicação herdado é desabilitada em espaços de trabalho por padrão. Entre em contato com o suporte da Databricks se uma exceção for necessária.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Não é possível aceder ao ficheiro da biblioteca em '<path>'. Certifique-se de que o utilizador tem as permissões necessárias para ler este ficheiro.
Motivo: <reason>
LIBRARY_FILE_NOT_FOUND
O ficheiro '<path>' não foi encontrado ou o utilizador run_as não tem permissões para o aceder.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Não há suporte para a referência a conjuntos de dados usando o esquema virtual LIVE fora da definição da consulta do conjunto de dados (ou seja, anotação @dlt.table).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Não se suporta a referência a datasets usando o esquema virtual LIVE<identifier> fora da definição de consulta do dataset (ou seja, anotação @dlt.table).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Referenciar conjuntos de dados usando o LIVE esquema virtual em spark.sql(...) a API não deve ser chamada fora da definição de consulta do conjunto de dados (isto é, @dlt.table anotação). Ele só pode ser chamado dentro da definição de consulta do conjunto de dados.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Para mais detalhes, veja MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME
SQLSTATE: nenhum atribuído
A função de consulta para exibição materializada '<datasetName>' retornou um DataFrame de streaming.
Ele deve retornar um DataFrame que não seja de streaming.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Contagem máxima de tentativas atingida. Contagem de tentativas:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
Não é permitido iniciar um <definitionType> pipeline a partir da definição de UC.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
A definição armazenada e atualizada deve ser do mesmo tipo de pipeline, mas tem <stored> e <updated>.
MESA_PIPELINE_MISSING_DEFINITION
O pipeline não tem uma definição válida na UC, mas uma atualização é solicitada.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Ausência inesperada da definição do pipeline da UC.
METASTORE_OPERATION_TIMED_OUT
As operações envolvidas na atualização das informações do metastore para <tableName> demoraram mais do que <timeout>.
Esse problema pode ser transitório ou pode indicar bugs no cliente de metastore configurado. Tente reiniciar o pipeline e relate esse problema se ele persistir.
META_ADS_PARAMETERS_CHANGED
Ocorreu um erro no conector de marketing da Meta. Os parâmetros de entrada da tabela ad_insights foram modificados.
Execute uma atualização completa nas tabelas afetadas.
META_ADS_SOURCE_API_ERROR
Ocorreu um erro na chamada da API de marketing Meta. Identificação do rastreio do Facebook para rastrear com suporte Meta: <trace_id>.
Se o erro persistir, registre um ticket.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.
O parâmetro <level> de nível fornecido é inválido. Por favor, passe um dos (anúncio, conjunto de anúncios, campanha, conta).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.
Os parâmetros de detalhamento <breakdowns> fornecidos são inválidos. Por favor, consulte a documentação da Meta API para uma lista válida de detalhes.
Se o erro persistir, registre um ticket.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.
O parâmetro <timeInc> de incremento temporal fornecido não podia ser analisado. Por favor, introduza um número inteiro válido.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.
O parâmetro <startDate> de data de início fornecido não pôde ser analisado. Por favor, verifique e modifique no formato correto YYYY-MM-DD.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.
A data de início indicada não pode ultrapassar os 37 meses a partir da data atual de sincronização. Por favor, verifique e modifique nos parâmetros fornecidos.
Se o erro persistir, registre um ticket.
META_MARKETING_RATE_LIMIT_EXCEEDED
O limite de taxa da Meta API para esta conta de anúncios foi esgotado. Por favor, tente novamente a atualização do pipeline passado algum tempo. Recomenda-se ingerir menos tabelas em paralelo para evitar atingir novamente os limites.
Se estiver frequentemente a atingir erros de limite de taxa, considere atualizar para Advanced Access se ainda não o fizer, conforme a documentação Meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
A Meta API falhou porque a quantidade de dados solicitada excede o limite que os servidores Meta podem processar.
Tente reduzir o número de campos a ingerir nesta tabela usando a lógica de seleção de colunas. Se o erro persistir, registre um ticket.
MIGRATION_TO_UNITY_CATALOG
Para mais detalhes, veja MIGRATION_TO_UNITY_CATALOG
PERMISSÃO_FALTANDO_NO_CATÁLOGO_OU_ESQUEMA
O usuário '<userName>' não tem permissões em '<schemaName>'. Detalhes: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
O usuário '<userName>' não tem permissão para criar esquema no catálogo <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
O usuário '<userName>' não tem permissão para criar tabela no esquema <schemaName>
MISSING_RUN_AS_USER
Nenhuma execução por utilizador foi especificada para a atualização.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' já contém uma AUTO CDC FROM SNAPSHOT consulta '<flowName>'. Atualmente, essa API suporta apenas um fluxo por destino.
MUTUALLY_EXCLUSIVE_OPTIONS
Opções mutuamente exclusivas <options>. Remova uma destas opções.
NEGATIVE_VALUE
SQLSTATE: nenhum atribuído
O valor para <arg_name> deve ser maior ou igual a 0, obteve '<arg_value>'.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
A tabela '<tableName>' já é gerenciada por pipeline <otherPipelineId>.
Se você quiser que a tabela '<tableName>' seja gerenciada por este pipeline -
Remova a tabela do pipeline '
<otherPipelineId>'.Inicie uma atualização completa para este pipeline.
Se quiser continuar a gerir a tabela a partir de vários pipelines, desative esta verificação definindo a configuração pipelines.tableManagedByMultiplePipelinesCheck.enabled para false nas definições do pipeline.
Isso não é recomendado, pois operações simultâneas na mesa podem entrar em conflito entre si e levar a resultados inesperados.
NOTEBOOK_NAME_LIMIT_REACHED
Caminho do bloco de notas inválido: '<nameStart>...<nameEnd>'. É mais longo do que <maxNotebookPathLength> caracteres.
NOTEBOOK_NOT_FOUND
Não é possível aceder ao bloco de notas '<notebookPath>'. Ele não existe, ou a identidade usada para executar esse pipeline, <identity>, não tem as permissões necessárias.
NOTEBOOK_PIP_INSTALL_ERROR
Falha ao executar '<pipInstallCommand>' do notebook: <notebookPath>. Verifique os logs stdout do driver no cluster para obter mais detalhes.
NOTEBOOK_TOO_LARGE
O conteúdo resolvido do caderno em '<notebookPath>' é demasiado grande, por favor reduza o tamanho do caderno.
NOTIFICATIONS_DUPLICATE_ALERTS
Alertas duplicados '<alertsDuplicates>' especificados em [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Endereços de e-mail duplicados '<emailRecipientsDuplicates>' especificados em [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Foram especificados alertas inválidos para receber notificações sobre: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Endereço de e-mail inválido especificado para receber notificações: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Especifique pelo menos um destinatário e um alerta em <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: nenhum atribuído
Qualquer um source ou snapshot_version deve ser definido para apply_changes_from_snapshot com o alvo '<target>'.
NO_TABLES_IN_PIPELINE
Espera-se que os pipelines tenham pelo menos uma tabela definida, mas nenhuma tabela foi encontrada em seu pipeline.
Por favor, verifique se incluiu, e partilhou caso o Execute As esteja configurado, os ficheiros fonte e/ou diretórios esperados, e que o seu código-fonte inclui definições de tabelas (por exemplo, CREATE MATERIALIZED VIEW em código SQL, @dlt.table em código Python).
Note que apenas as tabelas são contabilizadas para esta verificação. Você também pode encontrar este erro se incluir apenas visualizações ou fluxos no seu pipeline.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
O modo de saída '<outputMode>' não é suportado para tabela de fluxo de tabela<flowName> ''tabela de direcionamento'<target>'. Apenas o modo 'anexar' é suportado para fluxos de tabela.
OWNER_IS_MISSING
Proprietário não existe.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Pode fornecer um <name> ou paginação, mas não ambos.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition suporta apenas o schedule campo, mas a definição fornecida tinha outros campos preenchidos: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
As visualizações persistentes não suportam a leitura de fontes de streaming.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
O modo de exibição <persistedViewName> persistente não pode fazer referência ao modo de exibição <temporaryViewName> temporário que não estará disponível fora do escopo do pipeline. Torne o modo de exibição persistente temporário ou persista o modo de exibição temporário.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
A canalização já está a ser clonada para canalização com o id '<pipelineId>'.
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Não é possível especificar tanto 'alvo' como 'esquema' ao clonar um pipeline. Por favor, especifique apenas um.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Não é possível clonar um pipeline com 'schema' para um pipeline com 'target'. O pipeline clonado também deve usar 'schema' ou omitir ambos para herdar o valor original.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
O pipeline com ID '<pipelineId>' não pode ser clonado durante uma atualização ativa.
PIPELINE_CLONING_INVALID_FIELDS
A solicitação incluiu uma especificação de pipeline com campos inválidos destinados à clonagem. Os campos permitidos incluem: nome, catálogo, destino, configuração.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
O pipeline com ID '<pipelineId>' não publica em um esquema de destino. O pipeline de origem precisa ser publicado em um esquema de destino para ser clonado. Tente novamente depois de especificar o campo 'destino' na especificação do pipeline e executar uma nova atualização para publicar em um esquema de destino.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
O pipeline com ID '<pipelineId>' já é um pipeline de UC. As pipelines de UC não podem ser clonadas.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Não há catálogo especificado para clonagem.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Nenhum modo de clone especificado.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Nenhum catálogo de destino especificado para clonagem.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
A criação de pipeline não está habilitada para este espaço de trabalho.
PIPELINE_DOES_NOT_EXIST
O pipeline com ID '<pipelineId>' não existe.
Para mais detalhes, ver PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
A utilização do ambiente no Lakeflow Spark Declarative Pipelines não está ativada.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Atualmente, o ambiente do pipeline não suporta versões de ambiente.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
O pipeline não conseguiu atualizar a tabela UC (<tableName>) devido a alterações simultâneas após <attempts> tentativas.
Verifique se não há processos externos modificando a tabela, tente novamente a atualização e entre em contato com o suporte do Databricks se esse problema persistir.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
A tabela <tableName> foi eliminada por uma operação externa enquanto o pipeline a atualizava.
Certifique-se de que nenhum processo externo está a modificar a tabela e depois tente novamente a atualização.
Se o problema persistir, contacte o Suporte da Databricks.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
A tabela <tableName> não está no estado necessário, a tabela não foi atualizada recentemente. O pipeline com ID '<pipelineId>' deve ser executado mais uma vez e, em seguida, tente novamente a operação.
PIPELINE_FOR_TABLE_NOT_FOUND
O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não pode ser encontrado. Verifique se você está no mesmo espaço de trabalho que o pipeline, se você é o proprietário do pipeline e se o pipeline foi executado pelo menos uma vez.
PIPELINE_GLOB_INCLUDES_CONFLICTS
O campo glob ou notebook/ficheiro nas bibliotecas das configurações do pipeline deve ser configurado. Altere as configurações do pipeline.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Usar o campo glob para incluir arquivos de origem é um recurso de visualização e está desativado.
Selecione novamente cada arquivo de origem a ser incluído para que o pipeline corrija esse erro.
Entre em contato com o suporte do Databricks para saber mais sobre esse recurso e inscreva-se na visualização.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Caracteres <specialChar> especiais são reservados e não devem ser usados no caminho especificado '<path>' nas configurações do pipeline. Remova esses caracteres para corrigir o erro
PIPELINE_NAME_LIMIT_REACHED
O nome não pode ser maior do que <maxPipelineNameLength> caracteres.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
O pipeline não foi capaz de analisar as tabelas de origem (<tables>) em virtude de erros não retomáveis após execução parcial.
Uma nova atualização de pipeline não será criada.
<flowErrors>
Verifique o log de eventos e corrija os problemas de acordo.
CANALIZAÇÃO_NÃO_ELEGÍVEL_PARA_RESTAURAÇÃO
Pipeline '<pipelineId>' já passou da janela de restauração.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não está usando o Modo de Publicação Direta.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
A tabela ainda não está pronta para atualização
Para mais detalhes, consulte PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Você não tem permissão para executar esta operação. Você não é o proprietário do pipeline com ID '<pipelineId>' que gere a tabela <tableName>.
PIPELINE_REPETÍVEL_ANÁLISE
O pipeline não conseguiu analisar as tabelas de origem (<tables>) devido a erros que podem ser repetidos após a execução parcial.
Uma nova atualização de pipeline será criada para tentar processar novamente. Se o erro persistir, verifique o log de eventos e resolva os problemas de acordo.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' não pode ser modificado pelos utilizadores. Se os usuários quiserem adicionar ou modificar o <settingName>, use o campo '<editableFieldName>'.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
As configurações do pipeline foram modificadas simultaneamente.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
As configurações <configurations> não são suportadas pelos Lakeflow Spark Declarative Pipeliness. Remova essas configurações.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Não há suporte para iniciar uma atualização com a configuração 'desenvolvimento'.
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
O pipeline deve ter exatamente uma tabela, mas encontrou <tablesSize> tabelas: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
O número de arquivos de origem, incluindo arquivos declarados em pastas, excede o limite de <limit>.
Remova ou mescle arquivos excessivos e altere as especificações de pipeline correspondentes, se necessário,
ou entre em contato com o suporte da Databricks para solicitar um aumento de limite.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
A pasta '<folder_path>' excede o nível máximo permitido de aninhamento de diretórios de <limit>. Reduza o nível de aninhamento de pastas ou entre em contato com o suporte do Databricks para solicitar um aumento de limite.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
Não é permitido modificar o seguinte parâmetro <param> nas configurações do pipeline
PIPELINE_TYPE_NOT_SUPPORTED
O tipo de pipeline '<pipelineType>' não é suportado.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não é um pipeline ETL.
PIPELINE_TYPE_QUOTA_EXCEEDED
Não é possível iniciar a atualização '<updateId>' porque o limite para pipelines ativos do tipo '<pipelineType>' foi atingido.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, está em execução. Interrompa o funcionamento do pipeline antes de executar a operação.
PIPELINE_WORKSPACE_LIMIT_REACHED
A criação de pipelines do tipo '<pipelineType>' está bloqueada porque o espaço de trabalho '<orgId>' já possui '<countLimit>' pipelines. Exclua os dutos não utilizados.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Encontraram-se células que contêm instalação %pip que não estão no topo do bloco de anotações para '<notebookPath>'
Mova todas as células de instalação %pip para o início do bloco de notas.
PY4J_BLOCKED_API
SQLSTATE: nenhum atribuído
Você está usando uma API Python que não é suportada no ambiente atual.
Consulte a documentação do Databricks para obter alternativas.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Ocorreu um erro na chamada da API <sourceName>. Tipo de API de origem: <qbcSourceApiType>.
Tente atualizar a tabela de destino. Se o problema persistir, submeta um pedido.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Ocorreu um erro no conector de ingestão baseado numa consulta para <sourceName>.
Para mais detalhes, ver QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
A referência ao conjunto de dados <identifier> Lakeflow Spark Declarative Pipelines fora da definição da consulta do conjunto de dados (ou seja, @dlt.table anotação) não é suportada. Em vez disso, leia-o dentro da definição de consulta do conjunto de dados.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
A atualização deve ser iniciada no espaço de trabalho <homeWorkspaceId>, onde o recurso foi criado.
A atualização foi tentada no espaço de trabalho <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
Não é possível adicionar <type> a uma tabela que já tenha <existingType>. Por favor, abandone o horário existente ou use ALTER TABLE...ALTER <type> ... para a alterar.
REQUIRED_PARAM_NOT_FOUND
O parâmetro <param> obrigatório não foi encontrado.
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' é ilegal porque '<reservedKeyword>' é uma palavra-chave reservada nos Lakeflow Spark Declarative Pipelines.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' é ilegal porque '<reservedKeyword>' é uma palavra-chave reservada nos Lakeflow Spark Declarative Pipelines.
OS RECURSOS ESTÃO A SER PROVISIONADOS
Os recursos do gasoduto estão sendo provisionados para o gasoduto '<pipelineId>'.
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' foi designado como apenas leitura no espaço de trabalho atual.
RESTAURAR_PIPELINE_NÃO_EXCLUIDO
O pipeline '<pipelineId>' não foi apagado. A restauração só é aplicável a dutos excluídos.
RESTAURAR_PIPELINE_DESATIVADO
RestorePipeline não está habilitado para o tipo de pipeline <pipelineType>
Entre em contato com o suporte da Databricks para obter assistência na restauração do pipeline '<pipelineId>'.
ROOT_PATH_NOT_FOUND
Não é possível acessar o caminho raiz '<rootPath>'. Certifique-se de que tem os privilégios de acesso necessários.
RUN_AS_USER_NOT_FOUND
A execução especificada como usuário '<runAsUserId>' para a atualização não existe no espaço de trabalho.
SAAS_CONNECTION_ERROR
Falha ao estabelecer uma conexão com a fonte <sourceName>. Código de erro: <saasConnectionErrorCode>.
Para mais detalhes, ver SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Encontrei dados duplicados na tabela <tableName>. Tipo de fonte: <sourceName>.
Para mais detalhes, veja SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Inválido include_columns especificado para a tabela <qualifiedTableName>. Motivo: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Configuração inválida da chave primária para a tabela <qualifiedTableName>. Motivo: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Esta sessão não pôde ser autenticada mutuamente para uso com <sourceName>. Tipo de API de origem: <saasSourceApiType>. Código de erro: <saasSourceApiErrorCode>.
Por favor, verifique se o certificado do cliente e a chave privada são um par válido e confiáveis por <sourceName>.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
O token de atualização para conexão <connectionName> expirou. Edite a conexão, autentique-se novamente e execute novamente seu pipeline.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
Ocorreu uma alteração de esquema na tabela <tableName> da fonte de <sourceName>.
Para mais detalhes, ver SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Ocorreu um erro na chamada da API <sourceName>. Tipo de API de origem: <saasSourceApiType>. Código de erro: <saasSourceApiErrorCode>.
Tente atualizar a tabela de destino. Se o problema persistir, submeta um pedido.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
A troca de tokens OAuth falhou para a ligação UC: <connectionName>.
Isto pode ser causado por problemas com as tuas credenciais UC. Verifique o rastreio de erro, edite a ligação UC, volte a autenticar e execute novamente o pipeline. Se o erro persistir, registre um ticket.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Erro não suportado ocorreu na fonte de dados <sourceName>.
Para mais detalhes, consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Detetamos alterações de esquema incompatíveis ao inicializar o pipeline:
<details>
Execute uma atualização completa nas tabelas afetadas.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Erro encontrado ao criar entrada para análise parcial. Uma nova atualização de pipeline não será criada.
Verifique o registo de eventos e corrija os problemas em conformidade.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
O esquema analisado da tabela de origem (<table>) divergiu do esquema esperado.
Tente novamente a atualização do pipeline e veja se o problema foi resolvido.
Se esse problema persistir, execute uma atualização completa nas tabelas mencionadas acima
Esquema esperado:
<expectedSchema>
Esquema real:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
A conexão <connectionName> fornecida está inacessível. Verifique a ligação e tente novamente.
Para mais detalhes, consulte SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec tem uma cadeia de caracteres vazia no campo de catálogo.
Remova a string vazia ou adicione o nome do catálogo. (Se este esquema não pertencer a um catálogo na origem, não defina o campo.)
Detalhes das especificações do esquema:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se esta tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes das especificações do esquema:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Pelo menos um dos catálogos de origem e esquema de origem deve estar presente. Mas ambos estão vazios.
Detalhes das especificações do esquema:
<schemaSpec>
SEQUENCE_BY_COLUMN_NOT_FOUND
A definição do pipeline inclui coluna(s) sequence_by (<columnNames>) que não existem na tabela <qualifiedTableName> da origem <sourceType>. Remova esta(s) coluna(s) do campo sequence_by.
Política de Orçamento Sem Servidor e Política de Uso Ambos Definidos
Não é possível definir budget_policy_id e usage_policy_id. Por favor, remova budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
A política de orçamento fornecida com id '<budgetPolicyId>' não pode ser usada neste espaço de trabalho devido a restrições de vinculação de políticas ao espaço de trabalho.
SERVERLESS_BUDGET_POLICY_IS_INVALID
A política de orçamento sem servidor com id '<budgetPolicyId>' é inválida.
SERVERLESS_BUDGET_POLICY_MISSING
A política de orçamento sem servidor com id '<budgetPolicyId>' não existe.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
A política de orçamento sem servidor não está habilitada, entre em contato com o suporte do Databricks.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
A política de orçamento sem servidor não está habilitada para essa conta. O usuário não pode especificar uma política de orçamento para esse pipeline. O administrador da conta deve tentar se inscrever através do portal de visualização de recursos. Se o problema persistir, entre em contato com o suporte da Databricks.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
A política de orçamento sem servidor não pode ser atribuída a um pipeline que não seja sem servidor.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
A política de orçamento sem servidor não é suportada para o tipo de pipeline <pipelineType>.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
O usuário não tem permissão para usar a política de orçamento sem servidor com id '<budgetPolicyId>'.
SERVERLESS_NOT_AVAILABLE
A computação sem servidor não está disponível. Entre em contato com a Databricks para obter mais informações.
SERVERLESS_NOT_ENABLED
Não podes usar computação serverless com o Lakeflow Spark Declarative Pipeliness. Entre em contato com a Databricks para habilitar esse recurso em seu espaço de trabalho.
SERVERLESS_NOT_ENABLED_FOR_USER
A computação sem servidor não está ativada para o utilizador. Entre em contato com o administrador do seu espaço de trabalho para ativar esse recurso.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
A computação sem servidor não está disponível para este espaço de trabalho e/ou região. Entre em contato com a Databricks para obter mais informações.
SERVERLESS_REQUIRED
Você deve usar computação sem servidor neste espaço de trabalho.
SERVICENOW_CONNECTION_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Para mais detalhes, ver SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Neste momento, o pipeline de ingestão não pode ingerir a tabela '<tableName>' porque a chave do cursor numa linha contém um campo vazio.
Para continuar a executar o pipeline, remova esta tabela. Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao se conectar à instância ServiceNow. A instância parece estar hibernando ou inativa.
Faça login no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja totalmente ativada.
Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao se conectar à instância ServiceNow. A instância está offline.
Faça login no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja restaurada.
Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao consultar o esquema da tabela '<tableName>'. A tabela não existe na conta ServiceNow para este usuário.
Verifique se há erros de digitação no nome da tabela e verifique se o usuário tem as permissões necessárias para acessar a tabela.
Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao se conectar à instância ServiceNow. A instância tem restrições de controle de acesso de endereço IP.
Para resolver isso, desative as restrições de endereço IP navegando até ServiceNow >> All >> System Security >> IP Address Access Control ou use IPs estáveis sem servidor
Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Detetada URL inválida do ponto de extremidade da API da ServiceNow. A estrutura de URL não corresponde ao formato ServiceNow esperado.
Verifique a configuração da instância ServiceNow nas credenciais de conexão UC.
Para mais detalhes, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Isso geralmente acontece quando a busca de dados para uma tabela leva muito tempo. Como primeiro passo, trabalhe com o administrador do ServiceNow para ativar a indexação na coluna do cursor.
A coluna do cursor é selecionada na seguinte lista, por ordem de disponibilidade e preferência: sys_updated_on (primeira escolha), sys_created_on (segunda escolha), sys_archived (terceira escolha)
Para obter instruções sobre como habilitar a indexação no ServiceNow, consulte aqui: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Também recomendamos aumentar o tempo limite de consulta da API REST para mais de 60 segundos para permitir mais tempo para buscar registros.
Em seguida, tente novamente a sua pipeline de ingestão. Se o problema persistir, registre um ticket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Ao buscar o esquema de tabela sem privilégios de administrador, o internal_type das colunas do esquema não está acessível.
Para resolver isso, dê permissões de leitura na tabela 'sys_glide_object' para o usuário atual.
Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Ocorreu um erro no ServiceNow ao buscar o esquema de tabela.
Encontrados dois tipos de dados conflitantes para o campo '<fieldName>': '<firstDataType>' e '<secondDataType>'.
Para continuar a executar o pipeline, remova esta tabela. Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Para mais detalhes, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES não é suportado. Para modificar as propriedades da tabela, altere a definição original e execute uma atualização.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
O carregamento para o objeto <objName> está incompleto porque o trabalho de consulta da API do Salesforce demorou demasiado tempo, falhou ou foi cancelado manualmente.
Para mais detalhes, veja SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
A ingestão do objeto <objName> falhou porque o trabalho de consulta da API em massa do Salesforce não pôde ser encontrado.
Isso provavelmente ocorre porque o trabalho foi excluído na interface do usuário do Salesforce ou porque já se passaram mais de 7 dias desde a última atualização de pipeline, após o qual o Salesforce exclui automaticamente o trabalho
Para acionar um novo trabalho em massa, execute um FULL REFRESH na tabela de destino específica.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Ocorreu um erro na chamada à API do Salesforce: limite de API excedido
Aguarde até que os limites da API sejam redefinidos. Em seguida, tente atualizar a tabela de destino.
Se o erro persistir, registre um ticket.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
A ingestão do objeto <objName> está incompleta porque a criação do trabalho de consulta da API em massa do Salesforce falhou. Código de erro: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS (Registos malformados do conector SFDC)
A ingestão do objeto '<objName>' do Salesforce falhou porque o Salesforce <saasSourceApiType> retornou registros malformados.
Por favor, verifique o stacktrace para obter mais detalhes.
Verifique os dados no Salesforce e execute novamente o pipeline.
SINKS_NOT_SUPPORTED_IN_SEG
Os sinks Lakeflow Spark Declarative Pipelines no pipeline não são suportados em espaços de trabalho com controlo de saída serverless. Os sumidouros Declarativos de Oleodutos Lakeflow Spark suportados são Kafka e Delta.
Os seguintes coletores não suportados são encontrados: <sinkNames>, seus formatos correspondentes são: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Falha ao ler o conjunto de dados dependente '<sourceTableName>' porque este não está materializado. Executar toda a cadeia de produção para materializar todos os conjuntos de dados dependentes.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Caminho de definição para o elemento do grafo '<graphElementName>' não encontrado. Entre em contato com o suporte da Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Não existe nenhum caminho de definição de pipeline disponível no contexto atual de execução do SQL do Spark. Entre em contato com o suporte da Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
A definição de fluxo não é suportada. Entre em contato com o suporte da Databricks. Comando: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
O tipo de saída '<outputType>' não é suportado no Spark Connect. Entre em contato com o suporte da Databricks.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Não há suporte para a criação de um MV/ST autônomo PRIVATE . Remova o modificador PRIVATE
TEMPO_LIMITE_DE_INÍCIO_DO_REPL_PYTHON_EXCEDIDO
Timeout ao aguardar o início do REPL do Python. Demorou mais do que <timeoutSeconds> segundos.
STREAMING_TARGET_NOT_DEFINED
Não é possível encontrar a tabela <target> de destino para o <command> comando. A tabela de destino <target> não está definida no pipeline.
SYNCED_TABLE_USER_ERROR
Erro do usuário do pipeline de tabela sincronizada.
Para mais detalhes, ver SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
A tabela <tableName> foi modificada fora desta transação e esta transação foi revertida. Repita a operação.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Atualização de pipeline para pipeline: <pipelineId> detetou uma cadeia cíclica de restrições de chave externa: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec está em falta de um dos catálogos de origem e/ou esquemas de origem.
Detalhes das especificações da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec tem uma cadeia de caracteres vazia no campo de catálogo.
Remova a string vazia ou adicione o nome do catálogo. (Se esta tabela não pertencer a um catálogo na origem, não defina o campo.)
Detalhes das especificações da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se esta tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes das especificações da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
O nome da tabela está vazio. Forneça um nome de tabela.
Detalhes das especificações da tabela:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
A evolução do esquema não pode ser habilitada devido à falta de metadados. Por favor, acione uma atualização completa.
Motivo: o token da tabela de instantâneo deve ser definido quando a evolução do esquema estiver habilitada.
PIPELINE_DESCARTADO_NO_AMBIENTE_DE_TRABALHO
Não é possível iniciar o pipeline porque o pipeline está no lixo ou foi eliminado.
TRIGGER_INTERVAL_VALUE_INVALID
O intervalo de desencadeamento deve ser uma duração positiva, o valor máximo aceitável é de 2.147.483.647 segundos. Recebido: <actual> segundos.
ACIONADOR_NÃO_ATIVADO
Os gatilhos não estão habilitados para este espaço de trabalho. Habilite os Gatilhos de Tabela na página Pré-Visualização.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
A vista <source> é uma visualização que lê a partir de um local de arquivo, que atualmente não é suportada pelo trigger.
TRIGGER_REQUEST_SERIALIZATION_ERROR
Ocorreu um problema ao processar o seu pedido. Entre em contato com o suporte da Databricks.
TIPO_DE_ACIONADOR_SEGURO_NÃO_SUPORTADO
Falha na configuração do gatilho: tipo de tabela não suportado. Consulte a documentação para obter os tipos suportados.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
A origem <source> com o tipo <type> não é suportada pelo gatilho atualmente.
TRIGGER_STATE_SERIALIZATION_ERROR
Ocorreu um problema ao processar o seu pedido. Entre em contato com o suporte da Databricks.
TRIGGER_TABLE_LIMIT_EXCEEDED
Falha na configuração do gatilho: o gatilho inclui mais tabelas do que o limite permitido. Consulte a documentação para obter detalhes sobre os limites da tabela e como resolver esse problema.
TRIGGER_TABLE_TYPE_NOT_SUPPORTED (Tipo de tabela de trigger não suportado)
Falha na configuração do gatilho: tipo de tabela não suportado. Consulte a documentação para obter os tipos suportados.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Não é permitido limpar o campo do esquema de destino para pipelines de UC. Motivo: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
O papel IAM para a credencial de armazenamento revelou-se não auto-assumível.
Verifique a confiança da sua função e as políticas do IAM para garantir que sua função do IAM possa assumir a si mesma de acordo com a documentação de credenciais de armazenamento do Unity Catalog.
UC_NOT_ENABLED
A utilização do catálogo UC no Lakeflow Spark Declarative Pipelines não está ativada.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
Os pipelines habilitados para UC não podem publicar no Hive Metastore. Escolha um catálogo de destino diferente.
UC_TARGET_SCHEMA_REQUIRED
O campo de esquema de destino é necessário para pipelines de UC. Motivo: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Falha ao inferir o esquema para a tabela <tableName> a partir dos seus fluxos a montante.
Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.
Esquema inferido até agora:
<inferredDataSchema>
Esquema incompatível:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Erro inesperado ao verificar as permissões de esquema para pipeline <pipelineId>. Entre em contato com o suporte da Databricks.
A_COMPATIBILIDADE_COM_O_UNIFORME_NÃO_PODE_SER_DEFINIDA_COM_ROW_FILTERS_OU_COLUMN_MASKS
A compatibilidade uniforme não pode ser definida em exibições materializadas ou tabelas de streaming que tenham um filtro de linha ou máscaras de coluna aplicadas.
UNITY_CATALOG_INITIALIZATION_FAILED
Encontrou um erro com o Unity Catalog ao configurar o pipeline no cluster <clusterId>.
Certifique-se de que a configuração do seu Catálogo Unity está correta e que os recursos necessários (por exemplo, catálogo, esquema) existem e são acessíveis.
Verifique também se o cluster tem permissões apropriadas para acessar o Unity Catalog.
Detalhes: <ucErrorMessage>
UNRESOLVED_SINK_PATH
O caminho de armazenamento para o coletor <identifier> não pode ser resolvido. Entre em contato com o suporte da Databricks.
UNRESOLVED_TABLES_FOR_MAINTENANCE
As tabelas a seguir foram encontradas na definição de pipeline, mas não puderam ser resolvidas durante a manutenção. Execute uma execução de atualização de pipeline com a definição de pipeline mais recente para materializar todas as tabelas na definição de pipeline e desbloquear a manutenção, ou entre em contato com o suporte do Databricks se o problema persistir.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
O caminho de armazenamento para a tabela <identifier> não pode ser resolvido. Entre em contato com o suporte da Databricks.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> não é suportado.
UNSUPPORTED_CHANNEL_FOR_DPM
Canal não suportado para o Modo de Publicação Direta. Espera obter o canal 'CURRENT' ou o 'PREVIEW', mas obteve 'PREVIOUS'
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> apenas suportado no modo de publicação direta, ativado o Spark Declarative Pipeline
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' não é suportado na definição de consulta. Mova o comando para fora da definição de consulta. Se for um Spark Declarative Pipeline em Python, move o '<command>' para fora do @dlt.table()/@dlt.view() decorador. Se for um Spark Declarative Pipeline no Scala, move o '<command>' para fora do método 'query'.
UNSUPPORTED_CUSTOM_DBR_VERSION
A versão DBR personalizada '<v>' não é suportada nos espaços de trabalho SHIELD e HIPAA. Esperado um de [<supportedDbrVersions>]
PRÉ-VISUALIZAÇÃO_DE_ESQUEMA_PERSONALIZADO_NÃO_SUPORTADO
A visualização privada do esquema personalizado está desativada.
Por favor, crie um novo pipeline com o modo de publicação predefinido, usando o campo 'schema'
na especificação do pipeline, e mover os conjuntos de dados deste pipeline para o novo pipeline.
ATIVAÇÃO_PREVISUALIZAÇÃO_ESQUEMA_PERSONALIZADO_NÃO_SUPORTADO
A pré-visualização privada personalizada do esquema está desativada e não podes adicionar a pré-visualização a um pipeline.
Por favor, remova <sparkConfKeys> da configuração do oleoduto.
UNSUPPORTED_DBR_VERSION
A versão DBR '<v>' não é suportada. Esperado um de [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> não é suportado no seu espaço de trabalho. Entre em contato com o suporte da Databricks para habilitar esse recurso para seu espaço de trabalho.
UNSUPPORTED_LANGUAGE
Falhou ao carregar o <language> caderno '<notebookPath>'. Atualmente, apenas <supportedLanguages> notebooks são suportados.
UNSUPPORTED_LIBRARY_FILE_TYPE
O ficheiro em <path> não tem o sufixo .py ou .sql. Somente arquivos Python e SQL são suportados em pipelines.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Idioma <language> não suportado para notebook <path>. Somente Python e SQL são suportados em pipelines
UNSUPPORTED_LIBRARY_OBJECT_TYPE
O item incluído em <path> é do tipo <objectType>, que não é suportado. Atualmente, apenas blocos de anotações e arquivos podem ser usados como bibliotecas. Para resolver esse problema, remova o objeto sem suporte ou atualize as bibliotecas configuradas para esse pipeline para que apenas os tipos de objeto suportados sejam incluídos.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Definição de pipeline de ingestão gerenciada inválida, tipo de fonte sem suporte: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Validar apenas, explorar apenas e rebobinar atualizações são mutuamente exclusivas. No máximo, um deve estar pronto.
UNSUPPORTED_REWIND
As operações de retrocesso ainda não estão ativadas para este espaço de trabalho.
UNSUPPORTED_SAAS_INGESTION_TYPE
O tipo de ingestão fornecido <ingestionType> não é suportado.
Entre em contato com o suporte da Databricks se esse problema persistir.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' não é suportado na API spark.sql("...") no Lakeflow Spark Declarative Pipelines Python. Comando suportado: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
Instrução SQL sem suporte para <datasetType> '<datasetName>': <operation> não há suporte.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Apenas DBSQL pipelines podem ter definição_atualizada.
USE_CATALOG_IN_HMS
O USE CATALOG é suportado apenas no Spark Declarative Pipeline habilitado por UC
VIEW_TEXT_NOT_SAVED_IN_UC
Não é possível atualizar a tabela <tableName> pois ela não tem uma consulta salva no Unity Catalog. Entre em contato com o suporte da Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Ocorreu um erro no Workday HCM. Tipo de API de origem: <saasSourceApiType>.
Falhou em buscar o lote no deslocamento '<offset>'.
Tente atualizar a tabela de destino. Se o problema persistir, submeta um pedido.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.
Falha ao buscar dados para o relatório '<reportUrl>'. O cliente OAuth não tem acesso de escopo suficiente para recuperar o relatório.
Para resolver isso, verifique se o cliente OAuth tem os escopos necessários configurados no Workday.
Se o erro persistir, registre um ticket.
ERRO_WORKDAY_RELATÓRIOS_CONECTOR_AUSÊNCIA_DE_PARAMETROS_OBRIGATÓRIOS
Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.
O relatório Workday '<reportUrl>' espera o parâmetro '<missingParam>'.
Garantir que todos os parâmetros do relatório estão incluídos na URL; podes verificar a configuração do relatório Workday para identificar quais os parâmetros que são obrigatórios.
Se o problema persistir, registre um ticket.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.
O URL do relatório '<reportUrl>' está incorreto. Verifique se há erros de digitação no URL base ou no nome do relatório para resolver o problema.
Se o problema persistir, registre um ticket.
WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR
Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.
O tamanho do relatório com URL '<reportUrl>' é maior que 2GB. Certifique-se de que o tamanho do relatório não exceda este limite.
Se o problema persistir, registre um ticket.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.
Para mais detalhes, consulte WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
O URL do relatório do dia útil está vazio. Deve ser apresentado pelo menos um relatório.
WORKSPACE_QUOTA_EXCEEDED
Não é possível iniciar a atualização '<updateId>' porque já existem '<maxActiveUpdates>' pipelines ativos em execução neste espaço de trabalho.
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND (Ficheiro do ambiente de base não encontrado)
SQLSTATE: nenhum atribuído
O ficheiro YAML do ambiente base está em falta. Verifique se o arquivo existe no caminho especificado.
Descrição: Ocorre quando o arquivo YAML do ambiente base necessário não pode ser encontrado no local esperado.
Ação sugerida: Verifique se o arquivo YAML do ambiente base existe no caminho especificado e tente novamente a instalação.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: nenhum atribuído
Falha ao ler o arquivo de ambiente base devido à sintaxe incorreta ou ao formato do arquivo YAML. Por favor, reveja o conteúdo do ficheiro.
Descrição: Ocorre quando o arquivo YAML do ambiente base contém erros de sintaxe ou formato.
Ação sugerida: valide e corrija a sintaxe YAML no arquivo de ambiente e, em seguida, tente novamente a instalação.
ERROR_CONNECTION_REFUSED
SQLSTATE: nenhum atribuído
Não é possível conectar-se ao repositório de pacotes. Verifique a conectividade de rede, as configurações de firewall ou a disponibilidade do repositório.
Descrição: Ocorre quando o pip não consegue estabelecer uma conexão com o repositório de pacotes remoto devido a problemas de rede, restrições de firewall ou tempo de inatividade do repositório.
Ação sugerida: verifique a conectividade de rede, verifique as configurações de firewall ou proxy, confirme se a URL do repositório está acessível e tente novamente mais tarde se o repositório estiver temporariamente indisponível.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: nenhum atribuído
O pacote instalado é incompatível com os pacotes principais do Databricks. Alinhe as versões do pacote com as versões da biblioteca pré-instaladas e tente novamente as instalações.
Descrição: Ocorre quando uma versão de dependência central do Databricks (por exemplo, pyspark) é alterada.
Ação sugerida: Alinhe as versões do pacote instalado com as bibliotecas pré-instaladas e tente novamente a instalação.
ERRO_PACOTE_CRAN_NÃO_DISPONÍVEL
SQLSTATE: nenhum atribuído
O pacote CRAN não está disponível para a versão R pré-instalada neste computador.
Descrição: Ocorre quando um pacote R não é publicado para a versão R instalada na computação.
Ação sugerida: mude para um computador com uma versão R compatível ou escolha uma versão de pacote diferente.
ERROR_DBFS_DISABLED
SQLSTATE: nenhum atribuído
O acesso público à raiz do DBFS está desativado. Por favor, use um armazenamento alternativo.
Descrição: Ocorre ao tentar instalar bibliotecas do DBFS, mas a raiz pública do DBFS está desabilitada no espaço de trabalho.
Ação sugerida: use locais de armazenamento alternativos, como volumes de UC, arquivos de espaço de trabalho ou armazenamento remoto.
ERRO_DIRETÓRIO_NÃO_INSTALÁVEL
SQLSTATE: nenhum atribuído
O diretório não pode ser instalado devido à estrutura inválida do pacote Python. Verifique se o diretório está configurado corretamente.
Descrição: Ocorre quando pip install é executado em um diretório sem uma estrutura de pacote Python válida.
Ação sugerida: Verifique se o diretório contém um setup.py ou pyproject.toml e tente novamente, ou empacote-o como uma roda.
ERRO_INSTALAÇÃO_DUPLICADA
SQLSTATE: nenhum atribuído
Instalação de pacote duplicado detetada. Tente remover a entrada de pacote duplicada para o pacote e reinicie o cluster.
Descrição: Ocorre quando o mesmo pacote já está instalado no cluster e uma instalação duplicada é tentada.
Ação sugerida: Remova as entradas duplicadas do pacote e reinicie o cluster.
ERRO_FUNCIONALIDADE_DESATIVADA (ERROR_FEATURE_DISABLED)
SQLSTATE: nenhum atribuído
Os volumes do Catálogo Unity são desativados no espaço de trabalho. Entre em contato com o administrador do espaço de trabalho para ativar esse recurso.
Descrição: Ocorre quando os volumes do Catálogo Unity são desativados no espaço de trabalho, impedindo a instalação a partir de volumes UC.
Ação sugerida: entre em contato com o administrador do espaço de trabalho para habilitar os volumes do Catálogo Unity ou usar armazenamento alternativo.
ERRO_HASHE_INCOMPATIBILIDADE
SQLSTATE: nenhum atribuído
Incompatibilidade de hash do pacote detetada. O hash do pacote baixado não corresponde ao hash esperado.
Descrição: ocorre quando o hash de um pacote baixado não corresponde ao hash esperado.
Ação sugerida: Tente instalar novamente, reinicie o cluster e/ou mova instalações de pacotes grandes para arquivos de espaço de trabalho, volumes de UC ou um repositório PyPI privado.
ERROR_INVALID_FILE
SQLSTATE: nenhum atribuído
O arquivo especificado não pode ser instalado devido ao tipo de arquivo incorreto. Verifique se você está usando o tipo de arquivo válido e suportado.
Descrição: Ocorre quando o arquivo de biblioteca especificado não pode ser instalado devido ao tipo de arquivo ou formato incorreto.
Ação Sugerida: Use um tipo de ficheiro de biblioteca suportado (por exemplo, roda, jar) e verifique a validade do caminho.
ERROR_INVALID_REQUIREMENT
SQLSTATE: nenhum atribuído
Sintaxe incorreta ou entradas malformadas no arquivo de requisitos ou nas dependências do pacote. Verifique e corrija o conteúdo do arquivo de requisitos e das dependências do pacote.
Descrição: formato de requisito inválido ou malformado detetado no arquivo de requisitos ou nas especificações de dependência de um pacote.
Ação Sugerida: Use o formato correto (por exemplo, 'library-name==version') nos ficheiros de requisitos, verifique se os formatos de dependência dos pacotes são válidos e verifique erros tipográficos ou especificadores de versão não suportados.
ERROR_INVALID_SCRIPT_ENTRY_POINT (Ponto de entrada de script inválido)
SQLSTATE: nenhum atribuído
Ponto de entrada de script inválido. Verifique os pontos de entrada do pacote ou o arquivo setup.py.
Descrição: ocorre quando o ponto de entrada do script de console especificado não existe nos metadados do pacote.
Ação sugerida: verifique o nome do ponto de entrada no setup.py ou pyproject.toml ou entre em contato com o mantenedor do pacote.
ERRO_CONFIGURAÇÃO_DE_ARMAZENAMENTO_INVÁLIDA
SQLSTATE: nenhum atribuído
Valor de configuração de armazenamento inválido detetado para a conta de armazenamento em nuvem. Verifique a configuração de armazenamento, as configurações da conta e as credenciais.
Descrição: ocorre quando a configuração da conta de armazenamento em nuvem está malformada ou incorreta.
Ação sugerida: corrija a configuração de armazenamento da conta e tente instalar novamente.
ERROR_INVÁLIDO_ENTRADA_DO_UTILIZADOR
SQLSTATE: nenhum atribuído
Sintaxe de pacote inválida ou argumentos fornecidos. Verifique se a entrada e as opções para a instalação da biblioteca são válidas.
Descrição: Ocorre quando pip é invocado com opções ou argumentos inválidos.
Ação sugerida: verifique as opções de pip e a sintaxe do comando, corrija a entrada e tente instalar novamente.
ERROR_INVALID_WHEEL (Erro: Roda Inválida)
SQLSTATE: nenhum atribuído
Arquivo de roda corrompido, malformado ou inválido detetado. Verifique o arquivo de roda ou tente instalar novamente.
Descrição: Ocorre quando pip encontra um arquivo de roda corrompido, incompleto ou malformado durante a instalação.
Ação sugerida: limpe o cache do pip, baixe novamente ou reconstrua o pacote wheel, reinstale e verifique a sua integridade antes de tentar novamente.
ERROR_JAR_EVICTED
SQLSTATE: nenhum atribuído
O pacote JAR foi removido pelo resolvedor devido a conflitos de versão. Resolva conflitos de versão de dependência.
Descrição: Ocorre quando a resolução de dependência do Maven remove um jar devido a conflitos de versão com outras dependências.
Ação sugerida: resolva conflitos em sua configuração de dependência ou use substituições de versão explícitas.
ERRO_RESOLUÇÃO_BIBLIOTECA_MAVEN
SQLSTATE: nenhum atribuído
Não é possível resolver as coordenadas da biblioteca Maven. Verifique os detalhes da biblioteca, o acesso ao repositório ou a disponibilidade do repositório Maven.
Descrição: Ocorre quando o Maven não consegue localizar ou resolver a biblioteca especificada devido a coordenadas incorretas, problemas de rede ou tempo de inatividade do repositório.
Ação sugerida: verifique o formato groupId:artifactId:version, verifique URLs e credenciais do repositório, tente repositórios alternativos ou tente novamente mais tarde se o repositório estiver temporariamente indisponível.
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: nenhum atribuído
Não é possível baixar ou acessar os ativos de armazenamento em nuvem especificados, geralmente devido a configurações incorretas, dependências ausentes ou problemas de conectividade. Reveja a configuração do armazenamento na nuvem.
Descrição: ocorre quando o cluster não pode baixar ou instalar arquivos de biblioteca do armazenamento em nuvem, geralmente devido a configurações incorretas, dependências ausentes ou problemas de rede.
Ação sugerida: verifique se os URIs de armazenamento em nuvem estão corretos, se as credenciais são válidas e se todos os proxies ou bibliotecas de rede necessários estão configurados corretamente e, em seguida, tente instalar novamente.
ERROR_NO_SUCH_FILE_OR_DIRECTORY
SQLSTATE: nenhum atribuído
O arquivo de biblioteca não existe ou o usuário não tem permissão para ler o arquivo de biblioteca. Verifique se o arquivo da biblioteca existe e se o usuário tem as permissões certas para acessar o arquivo.
Descrição: Ocorre quando o arquivo especificado está ausente ou inacessível no caminho determinado durante a instalação da biblioteca.
Ação sugerida: verifique se o arquivo existe no caminho especificado, corrija o caminho ou carregue o arquivo ausente e garanta as permissões adequadas.
ERROR_OPERATION_NOT_SUPPORTED - Operação Não Suportada
SQLSTATE: nenhum atribuído
A instalação da biblioteca não é suportada para este tipo de ficheiro a partir do sistema de ficheiros solicitado. Verifique o tipo de biblioteca e consulte o guia do usuário sobre a biblioteca suportada na computação atual.
Descrição: Ocorre quando o sistema de arquivos de destino, o tipo de arquivo ou o tipo de computação não oferece suporte à operação solicitada durante a instalação.
Ação sugerida: use um sistema de arquivos, tipo de arquivo ou tipo de computação suportado ou ajuste o destino de instalação para um local suportado.
ERRO_PERMISSÃO_NEGADA
SQLSTATE: nenhum atribuído
O usuário não tem a permissão suficiente para instalar o pacote. Verifique os direitos de acesso ao arquivo e ao diretório para o usuário.
Descrição: Ocorre quando o usuário que instala não tem permissão para ler ou gravar um arquivo ou diretório durante a instalação.
Ação sugerida: verifique e conceda permissões adequadas no diretório de destino ou entre em contato com o administrador do sistema.
ERROR_PIP_CONFIG
SQLSTATE: nenhum atribuído
O usuário tentou instalar uma biblioteca Python, mas o arquivo de configuração pip do cluster ou do nível do espaço de trabalho tem erros de sintaxe ou está malformado. Verifique e corrija o arquivo pip config.
Descrição: Ocorre quando o arquivo de configuração do pip tem erros de sintaxe ou está malformado.
Ação sugerida: corrija os erros de sintaxe no arquivo de configuração pip, remova o arquivo de configuração para usar as configurações padrão, reinicie o cluster e tente novamente a instalação.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: nenhum atribuído
A restauração do Python REPL falhou após a instalação do pacote.
Descrição: Normalmente ocorre quando os pacotes Python principais são atualizados de forma a quebrar o ambiente de execução durante a restauração.
Ação Sugestida: Revise pacotes instalados recentemente e instale pacotes compatíveis com os padrões do Ambiente Databricks, como numpy, pandas, pyspark e outras bibliotecas padrão. Garanta que as versões são compatíveis com a versão do seu Databricks Runtime. Se continuar a falhar, por favor contacte o Suporte da Databricks.
ERROR_REQUIREMENTS_FILE_INSTALLATION
SQLSTATE: nenhum atribuído
Arquivos de requirements.txt que contêm um volume do Catálogo Unity ou uma referência de arquivo de espaço de trabalho não são suportados em clusters que não têm UC habilitado. Utilize um cluster com capacidades de UC para instalar o ficheiro requirements.txt que se refira a um volume de UC ou ficheiro de área de trabalho.
Descrição: ocorre quando o arquivo requirements.txt inclui volumes de UC ou referências de arquivos de espaço de trabalho num cluster não habilitado para UC.
Ação sugerida: use um cluster habilitado para UC para requirements.txt que faça referência a arquivos de espaço de trabalho ou UC ou remova essas referências.
ERROR_REQUIRE_HASHES
SQLSTATE: nenhum atribuído
Faltam hashes quando o pip é executado no modo --require-hashes e um requisito não possui um hash. Por favor, aborde os requisitos de hash ou desative a verificação de hash.
Descrição: Ocorre quando pip é executado no modo --require-hashes e um requisito não tem um hash.
Ação sugerida: adicione hashes para todos os pacotes no requirements.txt ou remova o sinalizador --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: nenhum atribuído
Falha ao reiniciar o processo Python. Isso pode ser devido à atualização da versão de um pacote que entra em conflito com as bibliotecas de tempo de execução pré-instaladas. Verifique e alinhe as dependências do pacote e suas versões.
Descrição: Ocorre quando o ambiente Python não pode ser reiniciado após a instalação da biblioteca, geralmente devido a conflitos entre pacotes instalados e bibliotecas de tempo de execução do Databricks pré-instaladas.
Ação sugerida: Alinhe as versões do pacote instalado com as bibliotecas de tempo de execução do Databricks pré-instaladas para evitar conflitos e erros de reinicialização do Python.
ERROR_RESTART_SCALA
SQLSTATE: nenhum atribuído
Falha ao reiniciar o processo Scala. Isto pode dever-se a uma incompatibilidade de versões do Scala nos JARs do Scala (por exemplo, correr jar 2.12 num kernel 2.13). Verifique e alinhe as versões do Scala.
Descrição: Ocorre quando o ambiente Scala não pode ser reiniciado, geralmente devido a conflitos de incompatibilidade de versão do Scala em JARs scala.
Ação sugerida: Alinhe as versões do JAR scala com a versão do kernel scala para evitar conflitos e erros de reinicialização do Scala.
ERROR_S3_FORBIDDEN
SQLSTATE: nenhum atribuído
Acesso negado ao recurso do S3. Verifique as permissões do IAM e as políticas de bucket.
Descrição: as credenciais da AWS do cluster não têm permissões suficientes para acessar o recurso especificado do S3.
Ação sugerida: verifique e atualize as políticas de bucket do S3 ou as funções do IAM para conceder o acesso de leitura necessário ao cluster.
ERROR_SCALA_INSTALLATION
SQLSTATE: nenhum atribuído
Falhei em instalar dependências de Java devido a problemas de permissões ou ficheiros em falta.
Descrição: Ocorre quando dependências de Java não podem ser instaladas, frequentemente devido a caminhos inválidos, URLs ou permissões insuficientes de ficheiros.
Ação Sugerida: Verificar os caminhos dos ficheiros e URLs, garantir as permissões adequadas e tentar novamente a instalação.
ERROR_SETUP_PY_FAILURE
SQLSTATE: nenhum atribuído
O setup.py do pacote Python não foi executado com êxito devido a problemas de compatibilidade, dependências ausentes ou erros de configuração. Verifique o arquivo de configuração de suas dependências.
Descrição: Ocorre quando o script setup.py do pacote falha devido a problemas de compatibilidade, dependências ausentes ou erros de configuração.
Ação sugerida: Atualizar versões de pacotes, instalar dependências ausentes, substituir pacotes preteridos e verificar o script setup.py.
ERROR_SSL_VIOLATION (Violação SSL)
SQLSTATE: nenhum atribuído
Pip encontrou problemas de handshake ou verificação de certificado SSL. Reveja as configurações e certificados SSL no seu computador ou espaço de trabalho.
Descrição: Ocorre quando o pip encontra problemas de handshake SSL ou de verificação de certificado ao conectar-se a repositórios de pacotes.
Ação sugerida: verifique se os certificados SSL são válidos, configure hosts confiáveis no pip ou verifique a configuração SSL da rede.
ERROR_UC_ASSET_NOT_FOUND
SQLSTATE: nenhum atribuído
Objeto Unity Catalog não encontrado. Verifique se o catálogo, o esquema e o volume existem.
Descrição: ocorre quando o volume, catálogo ou esquema do Catálogo Unity especificado não existe ou está inacessível
Ação sugerida: verifique se o caminho do objeto do Unity Catalog está correto e se o objeto existe na sua conta.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: nenhum atribuído
O tipo de biblioteca não é suportado neste cálculo. Verifique as bibliotecas suportadas para o tipo de computação.
Descrição: Ocorre ao tentar instalar um tipo de biblioteca que não é compatível com a computação selecionada.
Ação sugerida: use um tipo de biblioteca suportado para este cálculo ou alterne para um computador que ofereça suporte a este libraryType.
ERROR_UNSUPPORTED_PYTHON_VERSION (Erro: Versão do Python não suportada)
SQLSTATE: nenhum atribuído
A biblioteca Python é incompatível com a versão Python neste computador. Use um cálculo com uma versão compatível do Python.
Descrição: Ocorre quando a restrição de python_requires um pacote não corresponde à versão do Python em execução na computação.
Ação sugerida: instale uma versão do pacote que suporte a versão atual do Python ou altere a versão de computação.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: nenhum atribuído
A instalação falha quando a configuração spark.ssl.enabled está ativada, o que não é suportado para a instalação da biblioteca. Desative a configuração SSL e reinicie o cluster.
Descrição: Ocorre quando a configuração spark.ssl.enabled está ativada, o que não é suportado para a instalação da biblioteca.
Ação sugerida: desative a configuração SSL (por exemplo, defina spark.ssl.enabled=false ou defina spark.databricks.libraries.ignoreSSL=true) e reinicie o cluster.
ERROR_USER_NOT_FOUND_IN_WORKSPACE
SQLSTATE: nenhum atribuído
A instalação da biblioteca falhou porque o usuário não foi encontrado no espaço de trabalho. Isso normalmente acontece quando um usuário foi removido do espaço de trabalho, mas seu token ainda está sendo usado.
Descrição: ocorre quando o token de acesso de um usuário está em uso, mas o usuário não existe mais no espaço de trabalho especificado.
Ação sugerida: verifique se o usuário tem acesso ao espaço de trabalho ou atualize a configuração do cluster para usar as credenciais de um usuário válido.
ERROR_VOLUME_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Permissões insuficientes no volume do Unity Catalog. Verifique os direitos de acesso ao volume UC ou solicite acesso ao proprietário do volume UC.
Descrição: ocorre quando o usuário não tem permissões no volume UC especificado.
Ação sugerida: solicite permissões de LEITURA no volume do Catálogo Unity ao proprietário ou administrador do volume.
ERROR_WHEEL_BUILD
SQLSTATE: nenhum atribuído
Pip não pôde construir a roda com êxito devido a dependências de compilação ausentes ou erros. Verifique o conteúdo e as dependências do pacote de roda.
Descrição: Ocorre quando pip não consegue construir uma roda para o pacote devido a dependências ou erros de compilação ausentes.
Ação sugerida: Certifique-se de que as ferramentas de construção e os cabeçalhos estão instalados ou instale uma roda pré-construída com --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: nenhum atribuído
A roda é incompatível com o cálculo atual devido a incompatibilidade de tag de plataforma ou um arquivo de roda inválido. Por favor, verifique o conteúdo do pacote wheel, as dependências e a sua compatibilidade com o sistema de computação.
Descrição: Ocorre quando o arquivo Wheel é inválido ou as tags da plataforma não são compatíveis.
Ação sugerida: Use uma roda construída para a plataforma atual ou reconstrua a roda com tags apropriadas.
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE: nenhum atribuído
Não é possível baixar ou acessar os ativos de armazenamento em nuvem especificados, geralmente devido a configurações incorretas ou problemas de conectividade. Reveja a configuração de armazenamento na nuvem.
Descrição: ocorre quando a computação não pode baixar ou instalar arquivos de biblioteca do armazenamento em nuvem, geralmente devido a configurações incorretas ou problemas de rede.
Ação sugerida: verifique se os URIs de armazenamento em nuvem estão corretos, se as credenciais são válidas e se todos os proxies ou bibliotecas de rede necessários estão configurados corretamente e, em seguida, tente instalar novamente.
FAULT_DBR_VERSION_EOS
SQLSTATE: nenhum atribuído
A versão do Databricks Runtime na computação atingiu seu fim de suporte e não é mais suportada. Por favor, utilize uma versão de tempo de execução do Databricks que seja suportada.
Descrição: Ocorre quando a biblioteca é instalada em uma versão do Databricks Runtime que não recebe mais atualizações ou suporte.
Ação sugerida: atualize o cluster para uma versão suportada do Databricks Runtime e tente novamente a instalação.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: nenhum atribuído
A instalação da biblioteca está bloqueada devido à falta na lista de permissões. Isso pode acontecer se uma biblioteca for removida da lista de permissões depois de ter sido adicionada a um cluster. Verifique a lista de permissões da biblioteca, solicite ao administrador que adicione bibliotecas à lista de permissões ou remova pacotes não autorizados do cluster.
Descrição: Ocorre quando uma ou mais bibliotecas solicitadas não são aprovadas na lista de permissões do metastore e são bloqueadas na instalação. Isso também pode acontecer se uma biblioteca foi permitida anteriormente, mas depois removida da lista de permissões.
Ação sugerida: verifique a lista de permissões do metastore, solicite ao administrador que adicione as bibliotecas ausentes à lista de permissões ou remova bibliotecas não autorizadas do cluster.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: nenhum atribuído
A versão do Databricks Runtime no cluster atingiu seu fim de suporte e não é mais suportada. Por favor, utilize uma versão de tempo de execução do Databricks que seja suportada.
Descrição: Ocorre quando a biblioteca é instalada em uma versão do Databricks Runtime que não recebe mais atualizações ou suporte.
Ação sugerida: altere o cluster para usar uma versão suportada do Databricks Runtime e tente novamente a instalação.
FORMATO_DE_ARMAZENAMENTO_NÃO_SUPORTADO_PELA_BIBLIOTECA_DE_POLLING_DE_ERROS
SQLSTATE: nenhum atribuído
A versão selecionada do Databricks Runtime pode não suportar determinados formatos de armazenamento de biblioteca, como caminhos gs:// ou abfss://. Atualize o Databricks Runtime ou consulte o guia do usuário sobre os recursos para diferentes versões do Databricks Runtime.
Descrição: Ocorre quando a versão do Databricks Runtime não suporta o formato ou protocolo de armazenamento de biblioteca especificado.
Ação sugerida: use um esquema de armazenamento suportado ou atualize para uma versão do Databricks Runtime que suporte o formato de armazenamento desejado.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR (Erro: Catálogo de Unidade não disponível)
SQLSTATE: nenhum atribuído
A instalação da biblioteca requer o Unity Catalog, mas o Unity Catalog não está disponível no cluster ou no espaço de trabalho. Entre em contato com o administrador do espaço de trabalho para ativar esse recurso.
Descrição: Ocorre quando uma instalação de biblioteca requer o Unity Catalog, mas o Unity Catalog não está disponível no espaço de trabalho.
Ação sugerida: solicite a administração para habilitar o Catálogo Unity em seu espaço de trabalho ou use um cluster que ofereça suporte ao Catálogo Unity.
Falha de Acesso ao Armazenamento
SQLSTATE: nenhum atribuído
Não é possível acessar recursos de armazenamento em nuvem devido a problemas de credencial, rede ou permissão. Verifique a configuração de acesso ao armazenamento na nuvem.
Descrição: ocorre quando a computação não pode acessar os recursos de armazenamento em nuvem devido a problemas de credencial, rede ou permissão.
Ação sugerida: verifique as credenciais de armazenamento, a conectividade de rede e as permissões de acesso e, em seguida, tente instalar novamente.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: nenhum atribuído
DBR versão <abacDBRMajorVersion>.
<abacDBRMinorVersion> ou superior é necessário para consultar a tabela <tableFullName>, devido a ela estar protegida por uma política ABAC.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: nenhum atribuído
Credenciais do Azure Entra (também conhecido como Azure Ative Directory) ausentes.
Certifique-se de que tem sessão iniciada com a sua conta Entra
ou ter configurado um token de acesso pessoal (PAT) do Azure DevOps em Definições do Utilizador > Integração com Git.
Se não estiveres a usar um PAT, mas estiveres a usar o Azure DevOps com a API de Repos,
você deve usar um token de acesso do Azure Entra.
Consulte https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token as etapas para adquirir um token de acesso do Azure Entra.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: nenhum atribuído
Encontrou um erro com suas credenciais do Azure Entra (Azure Ative Directory). Por favor, tente sair do
Entra (https://portal.azure.com) e efetua login novamente.
Como alternativa, você também pode visitar Configurações do Usuário > Integração do Git para definir
configurar um token de acesso pessoal do Azure DevOps.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: nenhum atribuído
Encontrou um erro com suas credenciais do Azure Ative Directory. Por favor, tente sair do
Azure Active Directory (https://portal.azure.com) e efetuando login novamente.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: nenhum atribuído
Houve um erro com o Azure Workload Identity com uma Exceção do Azure: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: nenhum atribuído
A geração de credenciais para compartilhamento delta de sala limpa protegível não pode ser solicitada.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Protegível <securableName> com tipo <securableType> e tipo <securableKind> é gerenciado pelo sistema de sala limpa, o usuário não tem acesso.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: nenhum atribuído
Restrição com nome <constraintName> já existe, escolha um nome diferente.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
A restrição <constraintName> não existe.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: nenhum atribuído
Não foi possível ler o repositório remoto (<repoUrl>).
Foi usada<because> a <credentialName> (<credentialId>) credencial.
O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.
Vá ao seu provedor Git remoto para garantir que:
Seu URL de repositório Git remoto é válido.
O seu token de acesso pessoal ou palavra-passe da aplicação tem o acesso correto ao repositório.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: nenhum atribuído
Não foi possível resolver host para <repoUrl>.
Foi usada<because> a <credentialName> (<credentialId>) credencial.
O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
O parâmetro beginning_of_time não pode ser verdadeiro.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: nenhum atribuído
Token de continuação expirado. Causa: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: nenhum atribuído
O nome da credencial está em falta no pedido
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: nenhum atribuído
Validação de eventos do ficheiro falhou para operação <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: nenhum atribuído
Token de continuação inválido. Causa: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: nenhum atribuído
<missingField> está em falta no <queueType> pedido
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: nenhum atribuído
Valor <value> inválido para o parâmetro max_objects, valor esperado em [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: nenhum atribuído
ID de subscrição inválida. Causa: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: nenhum atribuído
Formato URI inválido. É esperado um volume (por exemplo, "/Volumes/catalog/schema/volume") ou um caminho de armazenamento em nuvem (por exemplo, "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: nenhum atribuído
Deve fornecer um tópico Kafka
CSMS_LOCATION_ERROR
SQLSTATE: nenhum atribuído
Falha ao listar objetos. Há problemas no local que precisam ser resolvidos. Detalhes: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: nenhum atribuído
Nenhum local encontrado para uri <path>
CSMS_METASTORE_ID_MISSING
SQLSTATE: nenhum atribuído
Deve fornecer o metastore uuid
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: nenhum atribuído
Não é possível determinar um metastore para a solicitação.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: nenhum atribuído
Falharam a resolução do ID de credencial para credencial: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: nenhum atribuído
O CSMS não conseguiu resolver o nome do fragmento local
CSMS_SERVICE_DISABLED
SQLSTATE: nenhum atribuído
O serviço está desativado
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: nenhum atribuído
O nome do estilhaço está ausente de uma solicitação RPC para o CSMS
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
A credencial de armazenamento não existe.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: nenhum atribuído
A ID da assinatura está ausente na solicitação.
Assinatura do CSMS não encontrada
SQLSTATE: nenhum atribuído
Subscrição com id <id> não encontrada.
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: nenhum atribuído
O catálogo Unity está desativado para este espaço de trabalho
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: nenhum atribuído
Entidade do Catálogo Unity não encontrada. Verifique se o catálogo, o esquema, o volume e/ou o local externo existem.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
O local externo do Catálogo Unity não existe.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: nenhum atribuído
O URI sobrepõe-se a outros volumes
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
Não é possível determinar um metastore para a solicitação. Metastore não existe
CSMS_UNITY_CATALOG_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: nenhum atribuído
URI aponta para uma tabela com filtro de nível de linha ou máscara de coluna. O acesso baseado em caminho a esta tabela não é permitido.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Permissão negada
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: nenhum atribuído
Limite de taxa de pedidos ultrapassado. Por favor, tenta novamente passado algum tempo.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
A tabela Unity Catalog não existe.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
O volume do Catálogo Unity não existe.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: nenhum atribuído
Fila de eventos de ficheiros desconhecidos no pedido
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: nenhum atribuído
O tipo <resourceType> de recurso gerido não é suportado
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: nenhum atribuído
Securável sem suporte
CSMS_URI_MISSING
SQLSTATE: nenhum atribuído
Deve fornecer uma URI
CSMS_URI_TOO_LONG
SQLSTATE: nenhum atribuído
O URI fornecido é demasiado longo. O comprimento máximo permitido é <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: nenhum atribuído
O contexto do utilizador está ausente num pedido rpc para CSMS
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: nenhum atribuído
O armazenamento padrão do Databricks não pode ser acessado usando a computação clássica. Use a computação sem servidor para acessar dados no armazenamento padrão
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: nenhum atribuído
A operação falhou porque as credenciais do aplicativo GitHub vinculado não puderam ser atualizadas.
Tente novamente ou vá para Configurações do usuário > Integração do Git e tente revincular sua conta do provedor Git.
Se o problema persistir, envie um ticket de suporte.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: nenhum atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
- Um administrador do repositório deve ir até https://github.com/apps/databricks/installations/new e instalar a aplicação Databricks GitHub no repositório.
Como alternativa, o proprietário de uma conta do GitHub pode instalar o aplicativo na conta para dar acesso aos repositórios da conta.
- Se a aplicação já estiver instalada, peça a um administrador para garantir que, ao usar o acesso delimitado com a opção 'Selecionar apenas repositórios', tenham incluído o acesso a este repositório ao selecioná-lo.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: nenhum atribuído
As credenciais do aplicativo GitHub vinculado expiraram após 6 meses de inatividade.
Vá para Configurações do usuário, integração do Git >, e tente reassociar suas credenciais.
Se o problema persistir, envie um ticket de suporte.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: nenhum atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
O usuário
<gitCredentialUsername>do GitHub deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo na conta<gitCredentialUsername>para permitir o acesso.Se o usuário
<gitCredentialUsername>já instalou o aplicativo e está usando o acesso com escopo com a opção 'Somente selecionar repositórios', ele deve garantir que incluiu o acesso a este repositório selecionando-o.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: nenhum atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
Um proprietário da organização
<organizationName>do GitHub deve ir a https://github.com/apps/databricks/installations/new e instalar a aplicação na organização<organizationName>para permitir o acesso.Se a aplicação já estiver instalada na organização
<organizationName>do GitHub, certifique-se de que um proprietário dessa organização, ao usar o acesso com escopo utilizando a opção 'Somente selecionar repositórios', tenha incluído acesso a este repositório ao selecioná-lo.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: nenhum atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
Acesse https://github.com/apps/databricks/installations/new e instale a aplicação na sua conta
<gitCredentialUsername>para conceder acesso.Se o aplicativo já estiver instalado e você estiver usando o acesso com escopo com a opção 'Somente selecionar repositórios', certifique-se de ter incluído o acesso a este repositório selecionando-o.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: nenhum atribuído
O cluster Git não está pronto.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: nenhum atribuído
Credenciais inválidas do provedor Git para URL do repositório <repoUrl>.
Foi usada<because> a <credentialName> (<credentialId>) credencial.
O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.
Vá ao seu provedor Git remoto para garantir que:
Você inseriu o e-mail ou nome de usuário correto do Git com suas credenciais de provedor do Git.
O seu token tem o acesso correto ao repositório.
Seu token não expirou.
Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: nenhum atribuído
Credenciais de Token de Acesso Pessoal do provedor Git inválidas para URL do repositório <repoUrl>.
Foi usada<because> a <credentialName> (<credentialId>) credencial.
O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.
Vá ao seu provedor Git remoto para garantir que:
Você inseriu o e-mail ou nome de usuário correto do Git com suas credenciais de provedor do Git.
O seu token tem o acesso correto ao repositório.
Seu token não expirou.
Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: nenhum atribuído
Nenhuma credencial Git configurada, mas credencial necessária para este repositório (<repoUrl>).
Vá para Configurações do usuário > integração do Git para configurar suas credenciais do Git.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: nenhum atribuído
Permissão de escrita no repositório <gitCredentialProvider> (<repoUrl>) não concedida.
Foi usada<because> a <credentialName> (<credentialId>) credencial.
O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.
Certifique-se de que você (<gitCredentialUsername>) tenha acesso de gravação a este repositório remoto.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: nenhum atribuído
Provedor de credenciais Git incorreto para o repositório.
Não tem uma credencial Git com um fornecedor Git (<repositoryGitProvider>) que corresponda à do fornecedor <repoUrl>Git do repositório.
Vá a Definições > de Utilizador Integração Git para criar uma nova credencial para o fornecedor <repositoryGitProvider>Git.
NOME_DO_ARQUIVO_NO_GIT_MUITO_LONGO
SQLSTATE: nenhum atribuído
Nome(s) de ficheiro ou pasta no caminho <path> excedem o limite máximo de <maxComponentBytes> bytes por componente.
Os sistemas baseados em Unix suportam apenas até <maxComponentBytes> bytes por nome de arquivo ou pasta.
Violações: <violations>
Por favor, reduza o(s) componente(s) ofensivo(s) para prosseguir.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: nenhum atribuído
A informação do fornecedor Git está em falta ou está vazia.
Por favor, adicione a informação da credencial git e tente novamente.
Se o problema persistir, envie um ticket de suporte.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: nenhum atribuído
O cluster de proxy Git não está pronto.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: nenhum atribuído
Falha ao se conectar ao Git Proxy, verifique se o Git Proxy está instalado e funcionando.
Erro: <error>
GIT_SECRET_IN_CODE
SQLSTATE: nenhum atribuído
Segredos encontrados no commit. Detalhe: <secretDetail>. Para corrigir este erro:
Remova o segredo e tente novamente.
Se o problema persistir, envie um ticket de suporte.
GIT_STALE_REMOTE_REFS
SQLSTATE: nenhum atribuído
O git fetch foi concluído, mas não foi possível atualizar referências remotas obsoletas devido a conflitos no caminho do sistema de ficheiros (por exemplo, branches eliminadas ou 'feature' vs 'feature/sub').
Git error: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: nenhum atribuído
A conta de armazenamento do Azure não tem namespace hierárquico habilitado.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> muito longo. O comprimento máximo é de <maxLength> caracteres.
INVALID_PARAMETER_VALUE
<msg>
Para mais detalhes, ver INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: nenhum atribuído
Task Framework: Não foi possível encontrar a saída de execução da tarefa para a tarefa com runId <runId> e orgId <orgId>.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: nenhum atribuído
Estrutura de Tarefas: Não foi possível encontrar o estado de execução para a tarefa com runId <runId> e orgId <orgId>.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
A configuração do cliente RPC para a tarefa com o ID <taskId> não existe.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: nenhum atribuído
Tarefa com ID <taskId> não existe.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: nenhum atribuído
Registro de tarefas: JobTask não suportado ou desconhecido com classe <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: nenhum atribuído
Não é suportado o acesso baseado em caminho a tabela de clone superficial externa <tableFullName>. Em vez disso, use nomes de tabela para aceder ao clone superficial.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: nenhum atribuído
A tabela de malha localizada em url '<url>' não foi encontrada. Use o comando REFRESH FOREIGN CATALOG para preencher tabelas Fabric.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: nenhum atribuído
O acesso baseado em caminho à tabela <tableFullName> com filtro de linha ou máscara de coluna não é suportado.
PERMISSION_DENIED
SQLSTATE: nenhum atribuído
<principalName> não tem <msg> em <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nenhum atribuído
Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: nenhum atribuído
Não é possível excluir objetos <resourceName> que não estão na lixeira
REDASH_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Não foi possível encontrar ou ter permissão para acessar o recurso <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: nenhum atribuído
Não é possível localizar o recurso a partir da ID de consulta <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: nenhum atribuído
Não é possível criar um novo trecho de consulta
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: nenhum atribuído
A cota para o número de trechos de consulta foi atingida. A quota atual é <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: nenhum atribuído
O gatilho especificado <trigger> já está em uso por outro trecho de consulta neste ambiente.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: nenhum atribuído
O recurso solicitado <resourceName> não existe
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nenhum atribuído
Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: nenhum atribuído
Não é possível restaurar objetos <resourceName> que não estão na lixeira
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: nenhum atribuído
Não é possível lixar objetos já descartados <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: nenhum atribuído
Não foi possível gerar o nome do recurso a partir do id <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: nenhum atribuído
Não é possível criar nova visualização
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: nenhum atribuído
Não foi possível encontrar a visualização <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: nenhum atribuído
A cota para o número de visualizações na consulta <query_id> foi atingida. A quota atual é <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: nenhum atribuído
Repositório remoto (<repoUrl>) não encontrado.
Foi usada<because> a <credentialName> (<credentialId>) credencial.
O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.
Vá ao seu provedor Git remoto para garantir que:
Seu URL de repositório Git remoto é válido.
O seu token de acesso pessoal ou palavra-passe da aplicação tem o acesso correto ao repositório.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' já existe
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' não existe.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nenhum atribuído
Consulta na tabela <tableFullName> com filtro de linha ou máscara de coluna não é suportada em clusters atribuídos.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: nenhum atribuído
A Tabela <tableFullName> está a ser partilhada com o Delta Sharing e não pode usar a segurança de linha/coluna.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: nenhum atribuído
O serviço <serviceName> está temporariamente em manutenção. Tente novamente mais tarde.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: nenhum atribuído
A tabela <tableFullName> não pode ter simultaneamente segurança de linha/coluna e visões materializadas online.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: nenhum atribuído
Demasiadas linhas para atualizar, interrompendo a atualização.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nenhum atribuído
As políticas ABAC não são suportadas para o tipo <tableType>de tabela .