Partilhar via


Condições de erro no Azure Databricks

Aplica-se a:marca de verificação sim Databricks SQL marca de verificação sim Databricks Runtime 12.2 e superior

As condições de erro são cadeias de caracteres descritivas legíveis por humanos que são exclusivas do erro que descrevem.

Você pode usar condições de erro para manipular programaticamente erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.

Esta é uma lista de condições de erro nomeadas comuns retornadas pelo Azure Databricks.

Databricks Runtime e Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE: 42623

Não foi possível executar o comando <statementType> porque os valores DEFAULT não são suportados ao adicionar novas colunas à fonte de dados de destino existente anteriormente pelo fornecedor da tabela: "<dataSource>".

FUNÇÃO_AGREGADA_EM_REFERÊNCIAS_ANINHADAS_NÃO_SUPORTADA

SQLSTATE: 0A000

Detetadas funções agregadas em referências <expression> de escopo externo que não são suportadas.

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

A expressão não determinística <sqlExpr> não deve aparecer nos argumentos de uma função agregada.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

Falhou em analisar a saída do modelo ao fazer casting para o returnType: "<dataType>", a resposta JSON foi: "<responseString>". Por favor, atualize o returnType para corresponder ao conteúdo do tipo representado pela resposta JSON e depois tente novamente a consulta. Exceção: <errorMessage>

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

A saída do modelo real possui mais de uma coluna "<responseString>". No entanto, o tipo de retorno especificado["<dataType>"] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e, em seguida, tente novamente a consulta.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

Ocorreu um erro ao fazer uma solicitação HTTP para a função <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

Resposta HTTP inválida para a função <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

O número máximo de palavras tem de ser um número inteiro não negativo, mas obteve <maxWords>.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

Os parâmetros de modelo fornecidos (<modelParameters>) são inválidos na função de servir o AI_QUERY ponto de extremidade "<endpointName>".

Para mais detalhes, ver AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE: 0A000

Função AI: "<functionName>" requer string válida <format> para responseFormat o parâmetro, mas encontrou o seguinte formato de resposta: "<invalidResponseFormat>". Exceção: <errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

O erro ocorreu ao analisar a JSON resposta para a função <funcName>: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

Falhou em analisar o esquema para o endpoint de serviço "": <endpointName>, a resposta <errorMessage> foi: "JSON".<responseJson>

Defina o parâmetro returnType manualmente na função AI_QUERY para sobrepor a resolução do esquema.

AI_FUNCTION_REGISTRY_LOOKUP_FAILURE

SQLSTATE: 42883

Falhou a resolução dinâmica da função "<functionName>" do AI Function Registry.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

A função <funcName> não é suportada no ambiente atual. Ele só está disponível em Databricks SQL Pro e Serverless.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

Falha ao avaliar a função SQL "<functionName>" porque o argumento fornecido de <invalidValue> tem "<invalidDataType>", mas apenas os seguintes tipos são suportados: <supportedDataTypes>. Atualize a chamada de função para fornecer um argumento do tipo string e tente novamente a consulta.

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE: 0A000

Encontrado formato de resposta não suportado.

Para mais detalhes, consulte a referência AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Função AI: "<functionName>" não suporta o seguinte tipo como tipo de retorno: "<typeName>". O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e suportado pela função AI. Os tipos suportados atualmente incluem: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

O valor fornecido "<argValue>" não é suportado pelo argumento "<argName>". Os valores suportados são: <supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT

SQLSTATE: 0A000

Esperava-se que o tipo de tarefa do endpoint de serviço fosse "Chat" para dar suporte a saídas estruturadas, mas encontrou-se "<taskType>" para o endpoint "<endpointName>".

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

Dado que "<sqlExpr>" não é suportado pelo argumento returnType.

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE: 0A000

Parâmetros conflitantes detetados para vector_search função SQL: <conflictParamNames>.<hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

A função SQL vector_search com tipo de coluna incorporada <embeddingColumnType> não é suportada.

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE: 0A000

A função vector_search SQL está sem o parâmetro de entrada da consulta. Por favor, especifique pelo menos um de: <parameterNames>.

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE: 0A000

O parâmetro query da função SQL vector_search não é suportado para a pesquisa vetorial hybrid. Por favor, use query_text em vez disso.

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE: 0A000

Texto de consulta não encontrado na função vector_search SQL para pesquisa vetorial hybrid. Por favor, forneça query_text.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search função SQL com tipo de índice <indexType> não é suportada.

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE: 0A000

query_vector deve ser especificado para o índice <indexName> porque não está associado a um ponto de extremidade de um modelo de incorporação.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

Falha ao materializar vector_search consulta de função SQL do tipo Spark <dataType> para objetos nativos Scala durante a codificação de solicitação com erro: <errorMessage>.

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search função SQL com tipo de consulta <unexpectedQueryType> não é suportada. Por favor, especifique um de: <supportedQueryTypes>.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

vector_search função SQL com num_results maior que <maxLimit> não é suportada. O limite especificado foi <requestedLimit>. Por favor, tente novamente com num_results <= <maxLimit>

AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE

SQLSTATE: 22003

O ai_top_drivers parâmetro <param> deve estar entre <lo> e <hi>.

AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE

SQLSTATE: 0A000

ai_top_drivers não suporta o <aggName> agregado. Escolha uma das seguintes agregações suportadas: <allowed>.

AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE

SQLSTATE: 0A000

ai_top_drivers não suporta colunas de dimensão numérica, de mapa ou de estrutura. A coluna <colName> tem o tipo <dataType>. Remova esta dimensão ou converta-a para um tipo suportado.

AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE

SQLSTATE: 0A000

ai_top_drivers Requer que o tipo de coluna do rótulo seja booleano. A coluna <colName> tem o tipo <dataType>. Altere a coluna do rótulo ou converta-a para um tipo suportado.

AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE

SQLSTATE: 0A000

ai_top_drivers requer que o tipo de coluna métrica seja numérico. A coluna <colName> tem o tipo <dataType>. Altere a coluna métrica ou converta-a em um tipo suportado.

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

O uso de consultas parametrizadas de nome requer que todos os parâmetros sejam nomeados. Parâmetros sem nomes: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

Não é possível usar todas as colunas como colunas de partição.

ALTER_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

Não é possível alterar <scheduleType> em uma tabela sem um agendamento ou gatilho existente. Adicione um cronograma ou gatilho à tabela antes de tentar alterá-lo.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> coluna <columnName> especifica o descritor "<optionName>" mais de uma vez, o que é inválido.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

O identificador <name> é ambíguo no CTE aninhado.

Defina <config> como "CORRECTED" para que o nome definido no CTE interno tenha precedência. Se definido como "LEGACY", as definições externas de CTE terão precedência.

Ver 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

A coluna ou campo <name> é ambíguo e encontrou <n> correspondências.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

A coluna <name> é ambígua. É porque você juntou vários DataFrames, e alguns desses DataFrames são os mesmos.

Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual.

Por favor, atribua nomes diferentes aos DataFrames via DataFrame.alias antes de os juntá-los.

e especifique a coluna usando nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Referência ambígua à restrição <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

O alias da coluna lateral <name> é ambíguo e tem <n> correspondências.

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

A referência <name> é ambígua, poderia ser: <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

Referência ambígua ao campo <field>. Ocorre <count> vezes no esquema.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS não é suportado.

ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE TABLE COMPUTE STORAGE METRICS não é suportado. Contacte a sua equipa de suporte da Databricks para inscrever este espaço de trabalho.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

A configuração ANSI SQL <config> não pode ser desativada neste produto.

APPEND_ONCE_FROM_BATCH_QUERY

SQLSTATE: 42000

Por favor, use o operador stream().

A criação de uma tabela de streaming a partir de uma consulta em lote impede o carregamento incremental de novos dados da origem. Tabela com erro: '<table>'.

Exemplo de uso:

CREATE STREAMING TABLE <target table name> ... AS SELECT ... FROM stream(<source table name>) ...

APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS

SQLSTATE: 42605

approx_top_k espera 1 a 3 discussões, mas obtém <argNum>.

APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT

SQLSTATE: 22023

Os itens máximos maxItemsTrackedrastreados (<maxItemsTracked>) de approx_top_k devem ser menores ou iguais a <limit>.

APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K

SQLSTATE: 22023

Os itens máximos maxItemsTrackedrastreados (<maxItemsTracked>) de approx_top_k devem ser maiores ou iguais a k(<k>).

APPROX_TOP_K_NON_POSITIVE_ARG

SQLSTATE: 22023

O valor de <argName> em approx_top_k deve ser um inteiro positivo, mas obtém <argValue>.

APPROX_TOP_K_NULL_ARG

SQLSTATE: 22004

O valor de <argName> em approx_top_k não pode ser NULL.

APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH

SQLSTATE: 42846

Não é permitido combinar approx_top_k esboços de diferentes tamanhos. Encontrei esboços de tamanho <size1> e <size2>.

APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH

SQLSTATE: 42846

Não é permitido combinar approx_top_k esboços de diferentes tipos. Encontrei esboços de tipos <type1> e <type2>.

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

O thread AQE é interrompido, provavelmente devido ao cancelamento da consulta pelo usuário.

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

A função <functionName> inclui um parâmetro <parameterName> na posição <pos> que requer um argumento constante. Por favor, calcule o argumento <sqlExpr> separadamente e passe o resultado como uma constante.

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>. <alternative> Se necessário, defina <config> como "false" para ignorar esse erro.

Para mais detalhes, ver ARITHMETIC_OVERFLOW

ARROW_TYPE_MISMATCH

SQLSTATE: 42K0G

Esquema inválido de <operation>: esperado <outputTypes>, obteve <actualDataTypes>.

ARTIFACT_ALREADY_EXISTS

SQLSTATE: 42713

O artefato <normalizedRemoteRelativePath> já existe. Escolha um nome diferente para o novo artefato porque ele não pode ser substituído.

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

O número de colunas ou variáveis atribuídas ou apelidadas: <numTarget> não coincide com o número de expressões de origem: <numExpr>.

AS_OF_JOIN

SQLSTATE: 42604

Junção as-of inválida.

Para mais detalhes, consulte AS_OF_JOIN

ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION

SQLSTATE: 0A000

Operações que desencadeiam análise ou execução de DataFrame não são permitidas em funções de consulta de pipeline. Mover o código para fora da função de consulta do pipeline.

AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

Não é possível iniciar uma nova transação enquanto uma transação implícita iniciada por SET AUTOCOMMIT=FALSE estiver ativa. COMMIT ou ROLLBACK a transação atual primeiro e SET AUTOCOMMIT=TRUE antes de iniciar uma nova transação.

AUTOCOMMIT_NOT_SUPPORTED

SQLSTATE: 0A000

A AUTOCOMMIT funcionalidade de modo está atualmente em desenvolvimento e ainda não é suportada no Databricks.

AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED

SQLSTATE: 0A000

AUTOCOMMIT não pode ser acedido ou modificado no Editor SQL legado. Muda para o novo Editor SQL (<docLink>) ou usa um caderno ligado a um armazém SQL do Databricks.

AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL

SQLSTATE: 0A000

AUTOCOMMIT só pode ser acedido ou modificado em armazéns SQL Databricks.

AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT não é permitido durante uma transação ativa. Compromete-se ou recue primeiro.

AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED

SQLSTATE: 25000

SET AUTOCOMMIT=FALSE não é permitido quando AUTOCOMMIT já está desativado. Esta restrição evita confusão e mantém os limites das transações claros.

AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT=TRUE não é permitido depois de instruções terem sido executadas numa transação implícita iniciada por SET AUTOCOMMIT=FALSE. Só é permitido imediatamente depois SET AUTOCOMMIT=FALSE (antes de qualquer afirmação), ou depois COMMIT ou ROLLBACK.

AUTO_TTL_COLUMN_NOT_FOUND

SQLSTATE: 42703

Esquema de tabela inválido para Auto-TTL. A coluna <column> Auto-TTL não pode ser encontrada.

AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED

SQLSTATE: 42K09

A coluna <column> Auto-TTL tem um tipo <type> que é inválido. O tipo de coluna tem de ser um dos TIMESTAMP, TIMESTAMP_NTZ, ou DATE.

AUTO_TTL_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Por favor, contacte o seu representante Databricks para ativar a funcionalidade Auto-TTL.

AUTO_TTL_INCOMPLETE_SETTING

SQLSTATE: 42601

Para definir o Auto-TTL numa tabela, ambas as propriedades autottl.timestampColumn da tabela são autottl.expireInDays necessárias, mas <missing> está em falta.

AUTO_TTL_INVALID_COLUMN_CHANGE

SQLSTATE: 42703

Coluna <column> não pode ser <operation> , pois é usada na definição de Auto-TTL.

AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES

SQLSTATE: 56038

O Auto-TTL não é suportado em tabelas clones superficiais.

AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES

SQLSTATE: 56038

O Auto-TTL não é suportado em tabelas com clones superficiais.

AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

O Auto-TTL requer que a Otimização Preditiva esteja ativada.

AUTO_TTL_REQUIRES_UC_MANAGED_TABLE

SQLSTATE: 56038

O Auto-TTL só é suportado em tabelas UC Managed (UC Managed Tables).

AVRO_CANNOT_WRITE_NULL_FIELD

SQLSTATE: 22004

Não é possível gravar valor nulo para o campo <name> definido como tipo <dataType>de dados Avro não nulo.

Para permitir um valor nulo para este campo, especifique o seu esquema avro como um tipo de união com "null" usando a opção avroSchema.

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

O uso de valores padrão não é suportado quandorescuedDataColumn está habilitado. Talvez seja possível remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue como false, mas os valores padrão não serão aplicados e os valores nulos ainda serão usados.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

Não é possível converter Avro <avroPath> para SQL <sqlPath> porque o tipo de dados codificado original é <avroType>, no entanto, você está tentando ler o campo como <sqlType>, o que levaria a uma resposta incorreta.

Para permitir a leitura deste campo, habilite a configuração SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".

AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Não é possível chamar a <functionName> função SQL porque a fonte de dados Avro não está carregada.

Reinicie seu trabalho ou sessão com o pacote 'spark-avro' carregado, por exemplo, usando o argumento --packages na linha de comando e, em seguida, tente novamente sua consulta ou comando.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

O uso de correspondência de campo posicional não é suportado quando rescuedDataColumn ou failOnUnknownFields está ativado. Remova essas opções para continuar.

AZURE_INVALID_CREDENTIALS_CONFIGURATION

SQLSTATE: 42KDK

O fornecedor ou credenciais de chaves Azure estão configurados incorretamente. Motivo: <causedBy>.

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

Não foi possível encontrar o lote <batchMetadataFile>.

BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Falha na validação da(s) opção(ões) de fonte de dados do BigQuery.

Para mais detalhes, consulte BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

As credenciais de conexão do BigQuery devem ser especificadas com o parâmetro 'GoogleServiceAccountKeyJson' ou todos os 'projectId', 'OAuthServiceAcctEmail' e 'OAuthPvtKey'.

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1> <symbol> <value2> causou transbordamento. Use <functionName> para ignorar o problema de estouro e retornar NULL.

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> não suporta catálogos incorporados.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

O método <methodName> não pode ser chamado no streaming Dataset/DataFrame.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN não pode alterar o agrupamento de tipos/subtipos de colunas de bucket, mas encontrou a coluna de bucket <columnName> na tabela <tableName>.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN não é suportado para colunas de partição, mas encontrou a coluna de partição <columnName> na tabela <tableName>.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

A marca d'água precisa ser definida para reatribuir a coluna de tempo do evento. Falha ao encontrar a definição de marca d'água na consulta de streaming.

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

Não é possível converter <sourceType> para <targetType>.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Não é possível converter Protobuf <protobufColumn> em SQL <sqlColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Não é possível converter <protobufType> de Protobuf para SQL tipo <toType>.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

Não é possível converter SQL <sqlColumn> para Protobuf <protobufColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

Não é possível converter SQL <sqlColumn> para Protobuf <protobufColumn> porque <data> não está em valores definidos para enum: <enumString>.

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

Não é possível copiar o estado do catálogo, como o banco de dados atual e as exibições temporárias, do Unity Catalog para um catálogo herdado.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

Falha ao criar a tabela da fonte de dados <tableName>:

Para mais detalhes, consulte CANNOT_CREATE_DATA_SOURCE_TABLE

CANNOT_DECODE_URL

SQLSTATE: 22546

O URL fornecido não pode ser decodificado: <url>. Certifique-se de que o URL está formatado corretamente e tente novamente.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

O <resourceType> de propriedade do sistema não pode ser excluído.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Não é possível eliminar a restrição com o nome <constraintName>, partilhada com uma restrição CHECK.

e uma restrição PRIMARY KEY ou FOREIGN KEY. Você pode soltar o PRIMARY KEY ou

FOREIGN KEY restrição por consultas:

ALTER TABLE .. DROP PRIMARY KEY ou

ALTER TABLE .. DROP FOREIGN KEY ..

NÃO_PODE_EXCLUIR_TABELA_BASE_REFERENCIADA_POR_CLONE_RASO

SQLSTATE: 42893

Não é possível soltar a tabela <baseTable> porque ela é referenciada por um ou mais clones superficiais: <cloneList>. DROP todos os clones superficiais antes de eliminar a tabela base. Se isso não for possível, considere usar 'DROP TABLE...FORCE' para largar a mesa à força. WARNING: Isso quebrará imediatamente todas as referências de clones superficiais existentes e as tornará inutilizáveis.

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

Não é possível estabelecer conexão com o banco de dados <jdbcDialectName> remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, verifique a configuração de rede do seu espaço de trabalho e certifique-se de que ele não tenha restrições de saída para o host. Verifique também se o host não bloqueia conexões de entrada da rede onde os clusters Spark do espaço de trabalho estão implantados. ** Mensagem de erro detalhada: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

Não é possível estabelecer conexão com o banco de dados <jdbcDialectName> remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o seu host, pois você está usando o Serverless Compute. Se suas políticas de rede não permitirem tráfego de entrada na Internet, use computação sem servidor ou entre em contato com seu representante Databricks para saber mais sobre a rede privada sem servidor. ** Mensagem de erro detalhada: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_TO_HOST

SQLSTATE: 08001

Não é possível estabelecer <protocol> ligação com <host>. Por favor, verifique a configuração de rede do seu espaço de trabalho e certifique-se de que não tem restrições de saída para o anfitrião. Por favor, verifique também se o host não bloqueia as ligações de entrada da rede onde os clusters do workspace estão implantados.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

As transformações e ações do conjunto de dados só podem ser invocadas pelo driver, não dentro de outras transformações do conjunto de dados; Por exemplo, dataset1.map(x => dataset2.values.count() * x) é inválido porque a transformação de valores e a ação de contagem não podem ser realizadas dentro da transformação dataset1.map. Para obter mais informações, consulte SPARK-28702.

CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

SQLSTATE: 58030

Erro ao carregar o gestor de arquivos do ponto de verificação de streaming para path=<path>.

Para mais detalhes, ver CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

Não é possível carregar a classe <className> ao registrar a função <functionName>, certifique-se de que está no classpath.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

Não foi possível carregar a classe Protobuf com o nome <protobufClassName>. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

Ocorreu um erro durante o estado de carregamento.

Para mais detalhes, consulte CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

Falha ao mesclar tipos de dados incompatíveis <left> e <right>. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas para tipos de dados compatíveis antes de tentar a mesclagem.

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

Esquemas de mesclagem com falha:

Esquema inicial:

<left>

Esquema que não pode ser mesclado com o esquema inicial:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Não é possível modificar o valor da configuração do Spark: <key>.

Ver também «https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements».

CANNOT_MODIFY_STATIC_CONFIG

SQLSTATE: 46110

Não é possível modificar o valor da configuração estática do Spark: <key>.

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

Não é possível interpretar o decimal. Certifique-se de que a entrada é um número válido com separadores opcionais de vírgula ou vírgula.

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

Não é possível analisar <intervalString>. Certifique-se de que o valor fornecido está em um formato válido para definir um intervalo. Você pode consultar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

Não é possível analisar o nome <fieldName> do campo e o valor <fieldValue> do JSON tipo <jsonType> de token para o tipo de dado <dataType>Spark alvo.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

Erro ao interpretar os bytes do descritor no Protobuf FileDescriptorSet.

CANNOT_PARSE_TIME

SQLSTATE: 22010

A cadeia de caracteres de entrada <input> não pode ser convertida para um valor de hora porque não corresponde ao formato de data e hora <format>.

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. Use <func> para tolerar cadeia de caracteres de entrada inválida e retornar NULL em vez disso.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

Não é possível consultar MV/ST durante a inicialização.

Para mais detalhes, consultar CANNOT_QUERY_TABLE_DURING_INITIALIZATION

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

Não é possível ler o arquivo no caminho <path> porque ele foi arquivado. Ajuste os filtros de consulta para excluir ficheiros arquivados.

CANNOT_READ_FILE

SQLSTATE: KD003

Não é possível ler o arquivo <format> no caminho: <path>.

Para mais detalhes, consulte CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

Não é possível ler a chave sensível '<key>' do provedor seguro.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Não é possível reconhecer a string do tipo hive: <fieldType>, coluna: <fieldName>. O tipo de dados especificado para o campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e certifique-se de que é um tipo de dados Spark SQL válido. Consulte a documentação do Spark SQL para obter uma lista de tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, certifique-se de que você está usando uma versão suportada do Spark SQL.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Não é possível fazer referência a um <objType> de catálogo Unity em objetos do Hive Metastore.

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE: 42000

Não é possível remover a propriedade reservada: <property>.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

Não é permitido renomear um <type> entre catálogos.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

Não é permitido renomear um <type> entre esquemas.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

Não é possível resolver a coluna do quadro de dados <name>. É provavelmente por causa de referências ilegais como df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

Não é possível resolver <targetString>.* com as colunas de entrada dadas <columns>. Verifique se a tabela ou estrutura especificada existe e está acessível nas colunas de entrada.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

Falha ao definir permissões no caminho criado <path> voltar para <permission>.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Não é possível clonar tabelas superficiais no Unity Catalog e no Hive Metastore.

CANNOT_SHALLOW_CLONE_AUTO_TTL

SQLSTATE: 0AKUC

Não é possível clonar superficialmente uma tabela <table> que tenha o Auto-TTL ativado.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

Não é possível clonar superficialmente uma tabela <table> que já é um clone superficial.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

O clone raso só é suportado para o tipo de tabela MANAGED. A tabela <table> não é MANAGED tabela.

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

Não é possível atualizar o tipo do campo <table><fieldName>.

Para mais detalhes, veja CANNOT_UPDATE_FIELD

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

O particionamento declarado <requestedPartitionColumns> entra em conflito com o particionamento existente de tabela <existingPartitionColumns>.

Por favor, exclua a tabela ou altere o particionamento declarado para corresponder às suas partições.

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

Não é possível converter <expression> de <sourceType> para <targetType>.

<details>

CANNOT_USE_KRYO

SQLSTATE: 22KD3

Não é possível carregar o codec de serialização Kryo. A serialização do Kryo não pode ser usada no cliente Spark Connect. Use a serialização Java, forneça um Codec personalizado ou use o Spark Classic.

CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

Múltiplos pseudónimos não são suportados na cláusula de marca de água.

NÃO_USAR_NOME_RESERVADO_DE_FORNECEDOR_DE_TRANSMISSÃO

SQLSTATE: 42000

Não é possível usar o nome do provedor de streaming reservado: <providerName>.

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

Não há suporte para a validação da conexão <jdbcDialectName>. Entre em contato com o suporte do Databricks para obter soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

Erro ao gravar arquivos de armazenamento de estado para o provedor <providerClass>.

Para mais detalhes, ver CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE: 22018

O valor <expression> do tipo <sourceType> não pode ser convertido para <targetType> porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast para tolerar entradas malformadas e retornar NULL em vez disso.

Para mais detalhes, consulte CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE: 22003

O valor <value> do tipo <sourceType> não pode ser convertido para <targetType> devido a um overflow. Use try_cast para tolerar o excesso e retornar NULL em vez disso.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

Falha em atribuir um valor do tipo <sourceType> à coluna do tipo <targetType> ou à variável <columnName> devido a um overflow. Use try_cast no valor de entrada para tolerar sobrecarga e retornar NULL em vez disso.

CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT

SQLSTATE: 55019

A conversão de catálogo de UC Foreign para UC Standard falhou porque o catálogo contém entidades estrangeiras (até 10 são mostrados aqui): <entityNames>. Para ver a lista completa de entidades estrangeiras neste catálogo, por favor consulte os scripts na 'ALTER CATALOG DROP CONNECTION'documentação de comandos.

CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE

SQLSTATE: 0AKUC

O catálogo não pode ser convertido de UC Foreign para UC Standard. Apenas <convertableCatalogTypes> catálogos UC estrangeiros podem ser convertidos para UC Standard.

CATALOG_NOT_FOUND

SQLSTATE: 42P08

O catálogo <catalogName> não foi encontrado. Considere definir a configuração <config> do SQL como um plug-in de catálogo.

CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED

SQLSTATE: 0A000

A criação de tabelas Delta com <feature> recurso de tabela não é permitida. Entre em contato com o suporte da Databricks.

CHECKPOINT_DIR_NOT_SET

SQLSTATE: 42K0I

O diretório Checkpoint não foi definido no SparkContext.

Por favor, defina com SparkContext.setCheckpointDir().

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

O bloco de verificação <rddBlockId> não foi encontrado!

O executor que originalmente marcou essa partição não está mais vivo ou o RDD original não é mais persistente.

Se esse problema persistir, você pode considerar usar rdd.checkpoint() em vez disso, que é mais lento do que o ponto de verificação local, mas mais tolerante a falhas.

VIOLAÇÃO_DE_RESTRIÇÃO_DE_VERIFICAÇÃO

SQLSTATE: 23001

CHECK restrição <constraintName> <expression> violada pela linha com valores:

<values>

CIRCULAR_CLASS_REFERENCE

SQLSTATE: 42602

Não pode ter referências circulares na classe; mas obteve a referência circular da classe <t>.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className> deve substituir <method1> ou <method2>.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects não suporta a classe <cls> como coleção resultante.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

Os comandos de Sala Limpa não são suportados

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Nome inválido para fazer referência a um <type> dentro de uma Sala Limpa. Use o nome de um <type> dentro da sala branca, seguindo o formato de [catalog].[schema].[<type>].

Se não tiver certeza sobre qual nome usar, você pode executar "SHOW ALL IN CLEANROOM [clean_room]" e usar o valor na coluna "nome".

CLONING_WITH_HISTORY_INVALID_OPTION

SQLSTATE: 42613

A clonagem com histórico é especificada com uma opção inválida: <invalidOption>.

Sintaxe válida: CREATE (OU REPLACE) TABLE ... PROFUNDO CLONE...WITH HISTORY.

CLONING_WITH_HISTORY_UNSUPPORTED

SQLSTATE: 0A000

Não há suporte para clonagem com histórico.

CLOUD_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

O ficheiro na nuvem já existe. Motivo: <causedBy>.

CLOUD_FILE_NOT_FOUND

SQLSTATE: 42K03

O ficheiro cloud não foi encontrado. Motivo: <causedBy>.

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

Foi recebida uma notificação de ficheiro para o ficheiro: <filePath> mas já não existe. Certifique-se de que os ficheiros não são eliminados antes de serem processados. Para continuar seu fluxo, você pode definir o <config> de configuração do Spark SQL como true.

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

Erro do provedor de nuvem: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

O clustering especificado não corresponde ao da tabela existente <tableName>.

Colunas de agrupamento especificadas: [<specifiedClusteringString>].

Colunas de agrupamento existentes: [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' não suporta clustering.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Entre em contacto com o seu representante Databricks para ativar a funcionalidade de agrupamento automático.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

Habilite clusteringTable.enableClusteringTableFeature para utilizar CLUSTER BY AUTO.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO requer que a Otimização Preditiva esteja ativada.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO só é suportado em tabelas UC Managed.

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

O codec <codecName> não está disponível.

Para mais detalhes, ver CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

Não é possível encontrar um nome curto para o codec <codecName>.

COLLATION_INVALID_NAME

SQLSTATE: 42704

O valor <collationName> não representa um nome de agrupamento correto. Nomes de agrupamento válidos sugeridos: [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

O valor <provider> não representa um provedor de agrupamento correto. Os fornecedores suportados são: [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE: 42P21

Não foi possível determinar qual agrupamento usar para funções e operadores de cadeia de caracteres.

Para mais detalhes, ver COLLATION_MISMATCH

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Não é possível criar matriz com <numberOfElements> elementos que excedam o limite <maxRoundedArrayLength>de tamanho da matriz,

Para mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

Aliases de coluna não são permitidos no <op>.

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

A coluna <columnName> já existe. Escolha outro nome ou renomeie a coluna existente.

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE: 0A000

Alguns valores no campo <pos> são incompatíveis com o tipo de matriz de coluna. Tipo esperado <type>.

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE: 0A000

As máscaras de coluna não puderam ser resolvidas em <tableName> porque havia uma incompatibilidade entre máscaras de coluna herdadas de políticas e máscaras de coluna explicitamente definidas. Para continuar, desative o Controle de Acesso Baseado em Atributos (ABAC) e entre em contato com o suporte do Databricks.

COLUMN_MASKS_RESTRIÇÃO_DE_VERIFICAÇÃO_NÃO_SUPORTADA

SQLSTATE: 0A000

Não há suporte para a criação de uma restrição CHECK na tabela <tableName> com políticas de máscara de coluna.

COLUMN_MASKS_DUPLICAR_USANDO_NOME_DA_COLUNA

SQLSTATE: 42734

Uma instrução <statementType> tentou atribuir uma política de máscara de coluna a uma coluna que incluía duas ou mais outras colunas referenciadas na lista USING COLUMNS com o mesmo nome <columnName>, o que é inválido.

COLUMN_MASKS_FUNCIONALIDADE_NÃO_SUPORTADA

SQLSTATE: 0A000

Não há suporte para políticas de máscara de coluna para <tableName>:

Para mais detalhes, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

Não é possível <statementType> <columnName> a partir da tabela <tableName> porque é referenciada numa política de máscara de colunas para a coluna <maskedColumn>. O proprietário da tabela deve remover ou alterar esta política antes de prosseguir.

COLUMN_MASKS_FONTE_NÃO_SUPORTADA_MESCLAGEM

SQLSTATE: 0A000

As operações MERGE INTO não suportam as políticas de máscara de coluna na tabela de origem <tableName>.

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET (Mesclagem de destino não suportada)

SQLSTATE: 0A000

As operações MERGE INTO não suportam a gravação na tabela <tableName> com políticas de máscara de coluna.

COLUMN_MASKS_NOME_DA_COLUNA_DE_ALVO_MULTIPARTES

SQLSTATE: 42K05

Esta instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName> com múltiplas partes no nome, o que é inválido.

COLUMN_MASKS_MULTI_PART_USANDO_NOME_DE_COLUNA

SQLSTATE: 42K05

Esta instrução tentou atribuir uma política de máscara de coluna a uma coluna e a lista de USING COLUMNS incluiu o nome <columnName> com várias partes de nome, o que é inválido.

COLUMN_MASKS_NOT_ENABLED

SQLSTATE: 56038

O suporte para definir máscaras de coluna não está habilitado

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

As políticas de máscara de coluna só são suportadas no Unity Catalog.

COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

Não é possível criar um índice ON TABLE <tableName> secundário porque a tabela tem políticas de máscara de coluna definidas.

COLUMN_MASKS_MOSTRAR_PARTIÇÕES_NÃO_SUPORTADAS

SQLSTATE: 0A000

O comando SHOW PARTITIONS não é suportado para tabelas<format> com máscaras de coluna.

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED (Fonte de clonagem de tabela não suportada)

SQLSTATE: 0A000

<mode> clone da tabela <tableName> com políticas de máscara de coluna não é suportado.

COLUMN_MASKS_TABELA_CLONAGEM_ALVO_NÃO_SUPORTADO

SQLSTATE: 0A000

Não é suportado clonar <mode> para tabela <tableName> com políticas de máscara de coluna.

COLUMN_MASKS_CONSTANTE_NÃO_SUPORTADA_COMO_PARÂMETRO

SQLSTATE: 0AKD1

Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição de máscara de coluna e tente novamente o comando.

COLUMN_MASKS_TIPO_DE_DADO_NÃO_SUPORTADO

SQLSTATE: 0AKDC

Função <functionName> usada como uma política de mascaramento de coluna contém parâmetro com tipo de dados <dataType> não suportado.

COLUMN_MASKS_PROVEDOR_NÃO_SUPORTADO

SQLSTATE: 0A000

Falhou ao executar o comando <statementType> porque a atribuição de políticas de máscara de coluna não é suportada na fonte de dados de destino com o provedor de tabela: "<provider>".

COLUMN_MASKS_USANDO_NOME_DE_COLUNA_IGUAL_A_COLUNA_ALVO

SQLSTATE: 42734

A coluna <columnName> tinha o mesmo nome que a coluna de destino, que é inválida; Remova a coluna da lista de USING COLUMNS e tente novamente o comando.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> coluna <colName> não estiver definida na tabela <tableName>, as colunas definidas da tabela são: <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE: 42703

A coluna <colName> não pode ser encontrada. Verifique a ortografia e a correção do nome da coluna de acordo com a configuração do SQL <caseSensitiveConfig>.

COLUMN_NOT_FOUND_IN_TABLE

SQLSTATE: 42703

Coluna <columnName> não encontrada na tabela <tableFullName>.

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE: 22003

Coluna ordinal fora dos limites. O número de colunas na tabela é <attributesLength>, mas o ordinal da coluna é <ordinal>.

Os atributos são os seguintes: <attributes>.

COMANDO_NÃO_ATIVADO

SQLSTATE: 0A000

<command> não está habilitado.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

Inesperado '', antes da definição da(s) restrição(ões). Certifique-se de que a cláusula de restrição não comece com uma vírgula quando as colunas (e expectativas) não estiverem definidas.

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

O comando COMMENT ON CONNECTION ainda não foi implementado

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

O comparador devolveu um NULL para uma comparação entre <firstValue> e <secondValue>.

Ele deve retornar um inteiro positivo para "maior que", 0 para "igual" e um inteiro negativo para "menor que".

Para reverter para um comportamento preterido em que NULL é tratado como 0 (igual), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como "true".

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

Não é possível processar tipos de dados de entrada para a expressão: <expression>.

Para mais detalhes, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

CONCURRENT_QUERY

SQLSTATE: 0A000

Outra instância desta consulta [id: <queryId>] acabou de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId> novo runId: <newQueryRunId>].

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE: 53000

O número mínimo de slots livres necessários no cluster é <numTasks>, no entanto, o cluster tem apenas <numSlots> slots livres. A consulta será interrompida ou falhará. Aumente o tamanho do cluster para continuar.

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

Atualização simultânea do log. Vários trabalhos de streaming detetados para <batchId>.

Certifique-se de que apenas um trabalho de streaming é executado num local de ponto de verificação específico de cada vez.

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

A configuração <config> não está disponível.

CONFLICTING_CLUSTER_CONFIGURATION

SQLSTATE: 22023

As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>. Remova essas configurações da configuração do cluster e reinicie o cluster do Spark.

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE: KD009

Estruturas de diretórios conflitantes detetadas.

Caminhos suspeitos:

<discoveredBasePaths>

Se os caminhos fornecidos forem diretórios de partição, defina "basePath" nas opções da fonte de dados para especificar o diretório raiz da tabela.

Se houver vários diretórios raiz, carregue-os separadamente e, em seguida, unifique-os.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

Nomes de colunas de partição conflitantes detetados:

<distinctPartColLists>

Para diretórios de tabela particionados, os arquivos de dados devem viver apenas em diretórios folha.

E diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.

Verifique os seguintes diretórios para arquivos inesperados ou nomes de colunas de partição inconsistentes:

<suspiciousPaths>

CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED

SQLSTATE: KD009

O nome da coluna da partição '<partitionColumnName>' conflita com o nome da coluna reservada.

O esquema do <tableName> é incompatível com o Hive, o Spark gera automaticamente uma coluna reservada '<partitionColumnName>' para armazenar a tabela de uma maneira específica.

Use um nome diferente para a coluna de partição.

CONFLICTING_PROVIDER

SQLSTATE: 22023

O provedor especificado <provider> é inconsistente com o provedor de catálogo existente <expectedProvider>. Use 'USING <expectedProvider>' e tente novamente o comando.

CONFLICTING_SQL_CONFIGURATION

SQLSTATE: 22023

As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>. Remova essas configurações da configuração do SparkSession.

CONNECT

SQLSTATE: 56K00

Erro genérico do Spark Connect.

Para obter mais detalhes, consulte CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

Não é possível criar a ligação <connectionName> porque ela já existe.

Escolha um nome diferente, solte ou substitua a conexão existente ou adicione a cláusula IF NOT EXISTS para tolerar conexões pré-existentes.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Não é possível executar este comando porque o nome da conexão deve estar não vazio.

CONNECTION_NOT_FOUND

SQLSTATE: 42000

Não é possível executar este comando porque o nome da conexão <connectionName> não foi encontrado.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

As ligações do tipo '<connectionType>' não suportam a(s) seguinte(s) opção(ões): <optionsNotSupported>. Opções suportadas: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Não é possível criar conexão do tipo '<connectionType>'. Tipos de ligação suportados: <allowedTypes>.

TIPO_DE_CONEXÃO_NÃO_SUPORTADO_PARA_INJEÇÃO_DE_OPÇÕES

SQLSTATE: 42000

A conexão com nome <connectionName> e tipo <connectionType> não é suportada nas opções de dataframe.

TIPO_DE_CONEXÃO_NÃO_SUPORTADO_PARA_FUNÇÃO_DE_CONSULTA_REMOTA

SQLSTATE: 42000

A conexão com o nome '<connectionName>' do tipo '<connectionType>' não é suportada para a execução da função de consulta remota.

CONNECT_INVALID_PLAN

SQLSTATE: 56K00

O plano Spark Connect é inválido.

Para mais detalhes, veja CONNECT_INVALID_PLAN

CONNECT_SESSION_MIGRATION

SQLSTATE: 56K00

Erro de migração de sessão genérica (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).

Para mais detalhes, consulte CONNECT_SESSION_MIGRATION

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

As restrições de tabela só são suportadas no Unity Catalog.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

A restrição '<constraintName>' já existe. Exclua primeiro a restrição existente.

Restrição existente:

<oldConstraint>

CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA

SQLSTATE: 42710

A restrição <constraintName> já existe na base de dados <schemaName>.

CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE

SQLSTATE: 42710

<serverMessage>

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

Não é possível remover a restrição inexistente <constraintName> da tabela <tableName>.

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

O valor <str> (<fmt>) não pode ser convertido porque <targetType> está malformado. Corrija o valor de acordo com a sintaxe ou altere seu formato. Use <suggestion> para tolerar entradas malformadas e retornar NULL em vez disso.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Não é possível escrever para <tableName>, a razão é

Para mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Esquema inválido <scheme>. COPY INTO credenciais de origem atualmente suportam apenas s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO credenciais de origem devem especificar <keyList>.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

Ficheiros duplicados foram confirmados numa operação COPY INTO simultânea. Tente novamente mais tarde.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Esquema inválido <scheme>. COPY INTO criptografia de origem atualmente suporta apenas s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO a encriptação suporta apenas ADLS Gen2 ou o protocolo de ficheiro abfss://

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO A encriptação de origem deve especificar '<key>'.

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

Opção de encriptação inválida <requiredKey>. COPY INTO A criptografia de origem deve especificar '<requiredKey>' = '<keyValue>'.

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

O COPY INTO recurso '<feature>' não é compatível com '<incompatibleSetting>'.

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO exceto pela anexação de dados não pode ser executado simultaneamente com outras transações. Tente novamente mais tarde.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO falhou em carregar o seu estado, número máximo de tentativas excedido.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Uma incompatibilidade de esquema foi detetada durante a cópia para a tabela Delta (Tabela: <table>).

Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada pela configuração:

COPY_OPTIONS ('mergeSchema' = 'verdadeiro')

Diferença de esquema:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

O formato dos ficheiros fonte deve ser CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. O uso de COPY INTO como fonte em tabelas Delta não é suportado, pois dados duplicados podem ser processados após operações de OPTIMIZE. Essa verificação pode ser desativada executando o comando SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

O diretório de origem não continha nenhum arquivo analisável do tipo <format>. Por favor, verifique o conteúdo de '<source>'.

O erro pode ser silenciado definindo '<config>' como 'false'.

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

Ocorreu um erro interno durante o processamento do estado COPY INTO.

Para mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

Falha ao analisar o comando COPY INTO.

Para mais detalhes, consulte COPY_INTO_SYNTAX_ERROR

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

O COPY INTO recurso '<feature>' não é suportado.

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Não é possível descarregar dados no formato '<formatType>'. Os formatos suportados para <connectionType> são: <allowedFormats>.

CORRUPTED_CATALOG_FUNCTION

SQLSTATE: 0A000

Não é possível converter a função de catálogo '<identifier>' em uma função SQL devido a informações de função corrompidas no catálogo. Se a função não for uma função SQL, certifique-se de que o nome da classe '<className>' é carregável.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

O comando CREATE FOREIGN SCHEMA ainda não foi implementado

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

O comando CREATE FOREIGN TABLE ainda não foi implementado

CREATE_OR_REFRESH_MV_NOT_SUPPORTED

SQLSTATE: 42601

CREATE OU REFRESH MATERIALIZED VIEW não é suportado. Use CREATE OU REPLACE MATERIALIZED VIEW em vez disso.

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

Não é possível CREATE OU REFRESH visualizações materializadas ou tabelas de streaming com ASYNC especificado. Remova ASYNC da instrução CREATE OU REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

Não é permitido criar o modo de exibição permanente <name> sem atribuir explicitamente um alias para a expressão <attr>.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE coluna <columnName> especifica o descritor "<optionName>" mais de uma vez, o que é inválido.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Não é possível criar a visualização <viewName>, a razão é

Para mais detalhes, ver CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE: 42601

Forneça credenciais ao criar ou atualizar locais externos.

CREDENTIAL_PURPOSE_MISMATCH

SQLSTATE: 42809

A credencial <credentialName> tem finalidade <actualPurpose> , mas a finalidade dada no comando é <expectedPurpose>.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

A opção CSV enforceSchema não pode ser definida ao usar rescuedDataColumn ou failOnUnknownFields, pois as colunas são lidas pelo nome em vez de ordinal.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

Referência da função cíclica detetada: <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

O Databricks Delta não está ativado na sua conta.<hints>

DATAFLOW_GRAPH_NÃO_ENCONTRADO

SQLSTATE: KD012

Não foi possível encontrar um gráfico de fluxo de dados com id <graphId>

TipoDeDados_NaoPodeOrdenar

SQLSTATE: 0A000

Type <dataType> não suporta operações ordenadas.

DATATYPE_MISMATCH

SQLSTATE: 42K09

Não é possível resolver <sqlExpr> devido a incompatibilidade de tipo de dados:

Para mais detalhes, ver DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> requer um parâmetro length, por exemplo <type>(10). Por favor, especifique o comprimento.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

Write Lineage sem êxito: falta a relação correspondente com as políticas para CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

A fonte de dados '<provider>' já existe. Escolha um nome diferente para a nova fonte de dados.

DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST

SQLSTATE: 42000

A ligação <connectionName> não é suportada neste contexto porque não tem uma lista externa de opções configurada. Por favor, atualize a ligação para incluir um arquivo válido <optionName>.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

Erro encontrado ao salvar em fonte de dados externa.

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

Fonte de dados '<provider>' não encontrada. Certifique-se de que a fonte de dados está registada.

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

Falha ao encontrar a fonte de dados: <provider>. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.

DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Falhou a validação das opções da fonte de dados <dataSource>.

Para mais detalhes, consulte DATA_SOURCE_OPTIONS_VALIDATION_FAILED

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

A opção <option> não deve estar vazia e não deve conter caracteres inválidos, cadeias de caracteres de consulta ou parâmetros.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

A opção <option> é necessária.

DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION

SQLSTATE: 42000

A opção <optionName> não é permitida pela ligação <connectionName> e não pode ser fornecida externamente.

VALOR_OPÇÃO_FONTE_DE_DADOS_INVÁLIDO

SQLSTATE: 42602

A opção de fonte de dados fornecida '<option>' contém valor inválido ('<value>').

Para mais detalhes, consulte DATA_SOURCE_OPTION_VALUE_NOT_VALID

DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION

SQLSTATE: 42000

O motor <dataSourceEngine> de origem de dados externo gerou erro de sintaxe durante a execução da consulta '<query>'. <externalEngineError>.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

O esquema da tabela da fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.

Esquema da fonte de dados: <dsSchema>

Esquema esperado: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

O URL JDBC não é permitido nas opções de fonte de dados, especifique as opções 'host', 'port' e 'database'.

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE: 22023

<rangeMessage>.

Para mais detalhes, ver DATETIME_FIELD_OUT_OF_BOUNDS

DATETIME_OVERFLOW

SQLSTATE: 22008

Sobrecarga da operação de data e hora: <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

Você excedeu a cota da API para a fonte de dados <sourceName>.

Para mais detalhes, consulte DC_API_QUOTA_EXCEEDED

DC_CONNECTION_ERROR

SQLSTATE: KD000

Falha ao estabelecer uma conexão com a fonte <sourceName>. Código de erro: <errorCode>.

Para mais detalhes, ver DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Ocorreu um erro nas chamadas da API do Dynamics, errorCode: <errorCode>.

Para mais detalhes, ver DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE: KD000

Erro aconteceu em chamadas JDBC Netsuite, errorCode: <errorCode>.

Para mais detalhes, ver DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: nenhum atribuído

Ocorreu uma alteração de esquema na tabela <tableName> da fonte de <sourceName>.

Para mais detalhes, ver DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

Ocorreu um erro nas chamadas da API ServiceNow, errorCode: <errorCode>.

Para mais detalhes, ver DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

O carregamento para o objeto <objName> está incompleto porque o trabalho de consulta da API do Salesforce demorou demasiado tempo, falhou ou foi cancelado manualmente.

Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar esta tabela de destino específica. Se o erro persistir, registre um ticket. ID do trabalho: <jobId>. Situação profissional: <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

Ocorreu um erro em chamadas de API do Sharepoint, errorCode: <errorCode>.

Para mais detalhes, ver DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE: KD000

Ocorreu um erro na chamada da API <sourceName>. Tipo de API de origem: <apiType>. Código de erro: <errorCode>.

Às vezes, isso pode acontecer quando você atinge um <sourceName> limite de API. Se você não tiver excedido o limite da API, tente executar novamente o conector. Se o problema persistir, submeta um pedido.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

Erro não suportado ocorreu na fonte de dados <sourceName>.

Para mais detalhes, ver DC_UNSUPPORTED_ERROR

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Ocorreu um erro nas chamadas da API RAAS do Workday, errorCode: <errorCode>.

Para mais detalhes, ver DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

A precisão decimal <precision> excede a precisão máxima <maxPrecision>.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

O banco de dados padrão <defaultDatabase> não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>.

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

Uma DEFAULT palavra-chave num MERGE, INSERT, UPDATEcomando , ou SET VARIABLE não podia ser atribuída diretamente a uma coluna alvo porque fazia parte de uma expressão.

Por exemplo: UPDATE SET c1 = DEFAULT é permitido, mas UPDATE T SET c1 = DEFAULT + 1 não é permitido.

DEFAULT_UNSUPPORTED

SQLSTATE: 42623

Falha ao executar o comando <statementType> porque DEFAULT valores não são suportados para a fonte de dados de destino com o provedor de tabela: "<dataSource>".

DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED

SQLSTATE: 0A000

Definir um fluxo <flowName> único com a opção 'uma vez' não é suportado.

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE: 0A000

DESCRIBE TABLE ... AS JSON Suportado apenas quando [EXTENDED|FORMATTED] é especificado.

Por exemplo: DESCRIBE EXTENDED <tableName> AS JSON é suportado mas DESCRIBE <tableName> AS JSON não é.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

A consulta de streaming foi lida a partir de uma tabela Delta inesperada (id = '<newTableId>').

Ele costumava ler de outra tabela Delta (id = '<oldTableId>') de acordo com o ponto de verificação.

Isso pode acontecer quando alteraste o código para ler de uma nova tabela ou excluíste e

recriou uma tabela. Reverta a alteração ou exclua o ponto de verificação da consulta de streaming

para reiniciar a partir do zero.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

Não há suporte para funções de janela distintas: <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE: 22012

Divisão por zero. Use try_divide para tolerar que o divisor seja 0 e devolva NULL em vez disso. Se necessário, defina <config> como "false" para ignorar esse erro.

Para mais detalhes, ver DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

As expectativas só são suportadas dentro de um pipeline Lakeflow Spark Declarative Pipeline.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED Os VIEWs com uma CLUSTER BY cláusula são suportados apenas num pipeline Lakeflow Spark Declarative Pipeline.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW as localizações são suportadas apenas num pipeline Lakeflow Spark Declarative Pipeline.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW esquemas com um tipo especificado são suportados apenas numa pipeline Lakeflow Spark Declarative Pipeline.

DLT_VIEW_TABLE_CONSTRAINTS_NÃO_SUPORTADO

SQLSTATE: 56038

CONSTRAINT as cláusulas numa vista só são suportadas num pipeline Lakeflow Spark Declarative Pipeliness.

DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE: 0A000

A função de consulta remota não suporta consultas DML.

DROP_COMMAND_TYPE_MISMATCH

SQLSTATE: 42809

Não é possível largar a <metadataType> com DROP <commandType>.

Use DROP <metadataTypeUpper> em vez disso.

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

Não é possível excluir SCHEDULE numa tabela sem uma programação ou disparador existente.

DUPLICATED_CTE_NAMES

SQLSTATE: 42602

A definição de CTE não pode ter nomes duplicados: <duplicateNames>.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

Nomes de campos duplicados no Arrow Struct não são permitidos, recebeu <fieldNames>.

DUPLICATED_MAP_KEY

SQLSTATE: 23505

Foi encontrada uma chave de mapa duplicada <key>, por favor, verifique os dados de entrada.

Se você quiser remover as chaves duplicadas, você pode definir <mapKeyDedupPolicy> como "LAST_WIN" para que a chave inserida finalmente tenha precedência.

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

O nome da métrica não é exclusivo: <metricName>. O mesmo nome não pode ser usado para métricas com resultados diferentes.

No entanto, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, auto-junções).

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

As colunas ou variáveis <nameList> aparecem mais de uma vez como destinos de atribuição.

DUPLICATE_CLAUSES

SQLSTATE: 42614

Encontradas cláusulas duplicadas: <clauseName>. Por favor, remova um deles.

DUPLICATE_CONDITION_IN_SCOPE

SQLSTATE: 42734

Encontrada condição <condition> duplicada no escopo. Por favor, remova um deles.

DUPLICATE_EXCEPTION_HANDLER

SQLSTATE: 42734

Encontrados manipuladores duplicados. Por favor, remova um deles.

Para mais detalhes, consulte DUPLICATE_EXCEPTION_HANDLER

DUPLICATE_FLOW_SQL_CONF

SQLSTATE: 42710

Encontrado conf SQL duplicado para o conjunto de dados '<datasetName>': '<key>' é definido por '<flowName1>' e '<flowName2>'

DUPLICATE_KEY

SQLSTATE: 23505

Encontradas chaves duplicadas <keyColumn>.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

A chamada para a rotina <routineName> é inválida porque inclui várias atribuições de argumentos para o mesmo nome de parâmetro <parameterName>.

Para mais detalhes, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

Encontrado(s) nome(s) duplicado(s) na lista de parâmetros da rotina definida pelo usuário <routineName>: <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

Coluna(s) duplicada(s) encontrada(s) na lista de colunas da cláusula RETURNS da rotina definida pelo usuário <routineName>: <columns>.

NOME_DE_VARIÁVEL_DUPLICADO_DENTRO_DE_DECLARE

SQLSTATE: 42734

Variável <variableName> duplicada encontrada na lista de variáveis declaradas. Por favor, remova um deles.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

O nó anterior emitiu uma linha com eventTime=<emittedRowEventTime> que é mais antiga que current_watermark_value=<currentWatermark>

Isso pode levar a problemas de correção nos operadores com estado a jusante no pipeline de execução.

Corrija a lógica do operador para emitir linhas após o valor atual da marca d'água global.

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

Falha ao analisar uma cadeia de caracteres vazia para o tipo de dados <dataType>.

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

Arquivo local vazio na consulta <operation> no ambiente de preparação

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE: 0A000

A fonte de dados <format> não suporta a gravação de esquemas vazios ou esquemas vazios aninhados. Certifique-se de que o esquema de dados tem pelo menos uma ou mais colunas.

ENCODER_NOT_FOUND

SQLSTATE: 42704

Não foi encontrado um codificador do tipo <typeName> para a representação interna do Spark SQL.

Considere alterar o tipo de entrada para um dos suportados em '<docroot>/sql-ref-datatypes.html'.

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

O rótulo final <endLabel> não pode existir sem o rótulo inicial.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Algumas partições nos tópicos do Kafka relatam um deslocamento disponível menor do que o deslocamento final ao executar a consulta com Trigger.AvailableNow. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.

Offset mais recente: <latestOffset>, Offset final: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Para a fonte de dados Kafka com Trigger.AvailableNow, o deslocamento final deve ser menor ou igual para cada partição de tópico em comparação com o deslocamento previamente buscado. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.

compensação pré-buscada: <prefetchedOffset>, compensação final: <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

Erro ao ler dados avro -- encontrou uma impressão digital desconhecida: <fingerprint>, não tenho certeza de qual esquema usar.

Isso pode acontecer se registares esquemas adicionais depois de iniciares o teu contexto Spark.

EVENT_LOG_EMPTY

SQLSTATE: 55019

O log de eventos para <tableOrPipeline> não tem esquema e não contém eventos. Tente novamente mais tarde depois que os eventos forem gerados

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

Não é possível consultar logs de eventos de um cluster compartilhado atribuído ou sem isolamento, use um cluster compartilhado ou um armazém SQL Databricks.

EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE

SQLSTATE: 0A000

A EVENT_LOG função Table-Valued não é suportada para pipelines que usam o campo 'esquema' ou que publicam no armazenamento predefinido.

Para consultar o log de eventos, publique-o no metastore especificando o campo event_log nas configurações do pipeline.

Para mais informações, consulte a documentação de pipelines declarativos do Monitor Lakeflow Spark: https://docs.databricks.com/aws/en/delta-live-tables/observability

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

Não há logs de eventos disponíveis para <tableOrPipeline>. Tente novamente mais tarde depois que os eventos forem gerados

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

O tipo de tabela de <tableIdentifier> é <tableType>.

Consultar registos de eventos apenas suporta vistas materializadas, tabelas de streaming ou pipelines Lakeflow Spark Declarative Pipeline

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

A hora do evento <eventName> possui um tipo <eventType> inválido, mas o esperado era "TIMESTAMP".

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

Excede a limitação de comprimento do tipo char/varchar: <limit>.

EXCEL_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

A fonte de dados do Excel não está habilitada neste cluster.

EXCEL_FILE_ERROR

SQLSTATE: 58030

Erro ao processar o arquivo do Excel '<filePath>'.

Para mais detalhes, consulte EXCEL_FILE_ERROR

EXCEL_INVALID_READ_OPTION_VALUE

SQLSTATE: 42000

Valor de opção de leitura inválido para fonte de dados do Excel.

Para mais detalhes, consulte EXCEL_INVALID_READ_OPTION_VALUE

EXCEL_INVALID_WRITE_OPTION_VALUE

SQLSTATE: 0A000

A fonte de dados do Excel não suporta o valor '<value>' para a opção de gravação '<option>'.

Para mais detalhes, ver EXCEL_INVALID_WRITE_OPTION_VALUE

EXCEL_INVALID_WRITE_SCHEMA

SQLSTATE: 42000

A fonte de dados do Excel não oferece suporte ao esquema '<schema>' para escrita.

<hint>

EXCEL_PARSING_ERROR

SQLSTATE: 22000

Erro ao analisar dados do Excel.

Para mais detalhes, ver EXCEL_PARSING_ERROR

OPÇÃO_DE_ESCRITA_NÃO_SUPORTADA_NO_EXCEL

SQLSTATE: 42616

A fonte de dados do Excel não suporta a opção de gravação '<option>'.

<hint>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT coluna <columnName> foi resolvida e esperava-se que fosse do tipo StructType, mas foi encontrado o tipo <dataType>.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

As colunas em uma lista EXCEPT devem ser distintas e não sobrepostas, mas têm (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

As EXCEPT colunas [<exceptColumns>] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>] da expansão da estrela.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

O nome da coluna/campo <objectName> na cláusula EXCEPT não pode ser resolvido. Queria dizer um dos seguintes: [<objectList>]?

Nota: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna da estrutura pai, etc.) durante uma expansão de estrutura. Tente remover os qualificadores se eles forem usados com colunas aninhadas.

EXECUTOR_DISK_OUT_OF_SPACE

SQLSTATE: 53100

Disco executor fora do espaço. Por favor, aumente a capacidade do disco, se disponível. Se estiver a usar Serverless, por favor contacte a nossa equipa de suporte.

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

A cláusula USING deste comando EXECUTE IMMEDIATE continha vários argumentos com o mesmo alias (<aliases>), o que é inválido; Atualize o comando para especificar aliases exclusivos e tente novamente.

EXPECT_PERMANENT_TABLE_NOT_TEMP

SQLSTATE: 42809

'<operation>' espera uma mesa permanente, mas <tableName> é uma mesa temporária. Em vez disso, especifique uma tabela permanente.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

'<operation>' espera uma visão permanente, mas <viewName> é uma visão temporária.

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

'<operation>' espera uma tabela, mas <viewName> é uma vista.

Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

A tabela <tableName> não suporta <operation>.

Para mais detalhes, consulte EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

Falha ao decodificar uma linha para um valor das expressões: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

Falha ao codificar um valor das expressões: <expressions> para uma linha.

EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED

SQLSTATE: 0A000

A expressão <expr> não pode ser traduzida para expressão v2.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

A expressão de coluna <expr> não pode ser classificada porque seu tipo <exprType> não é ordenável.

EXTERNAL_METASTORE_CLIENT_ERROR

SQLSTATE: 58000

Falha na operação do cliente:

Para mais detalhes, ver EXTERNAL_METASTORE_CLIENT_ERROR

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE: 42893

Falha ao executar a operação na tabela <sourceTable> de origem porque o clone <targetTable> superficial ainda existe e seu status é inválido. Se pretender realmente continuar com esta operação, limpe o clone superficial executando o comando DROP explicitamente.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

As tabelas externas não suportam o <scheme> esquema.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Erro ao executar 'REFRESH FOREIGN <scope> <name>'. Não é possível repor um tecido <scope> diretamente, use 'REFRESH FOREIGN CATALOG <catalogName>' para repor o Catálogo de Tecido.

FAILED_EXECUTE_UDF

SQLSTATE: 39000

Função definida pelo utilizador (<functionName>: (<signature>) => <result>) falhou devido a: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 38000

Falha na preparação da função <funcName> para a chamada. Por favor, verifique os argumentos da função.

FAILED_JDBC

SQLSTATE: HV000

Falha do JDBC <url> na operação:

Para mais detalhes, ver FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

Falha na interpretação da estrutura: <raw>.

FAILED_READ_FILE

SQLSTATE: KD001

Erro ao ler o arquivo <path>.

Para mais detalhes, ver FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Falha ao registrar classes com Kryo.

FAILED_RENAME_PATH

SQLSTATE: 42K04

Falha ao renomear <sourcePath> para <targetPath>, pois o destino já existe.

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

Falha ao renomear o ficheiro temporário <srcPath> para <dstPath> pois FileSystem.rename retornou falso.

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

Falhou a conversão do valor <value> da linha da classe <class> para o tipo <sqlType> SQL alvo no JSON formato.

FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY

SQLSTATE: 58030

Falhou a criação de um plano para consulta direta nos ficheiros: <dataSourceType>

FAILED_TO_LOAD_ROUTINE

SQLSTATE: 38000

Falha ao carregar a rotina <routineName>.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

A instrução, incluindo possíveis funções SQL e exibições referenciadas, era muito complexa para ser analisada.

Para atenuar esse erro, divida a instrução em várias partes menos complexas.

FEATURE_NOT_ENABLED

SQLSTATE: 56038

O recurso <featureName> não está habilitado. Considere definir a configuração <configKey> para <configValue> para ativar este recurso.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> não é suportado em armazéns SQL clássicos. Para usar esse recurso, use um SQL warehouse Pro ou Serverless.

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> não é suportado sem o Unity Catalog. Para usar esse recurso, ative o Unity Catalog.

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> não é suportado no seu ambiente. Para usar esse recurso, entre em contato com o Suporte da Databricks.

FETCH_FAILED

SQLSTATE: 58000

Tarefa falhada ao buscar dados ou metadados de embaralhamento: <errorString>.

FGAC_ON_DEDICATED_COMPUTE_FAILED

SQLSTATE: KD011

O controle de acesso refinado (FGAC) na computação dedicada falhou devido à seguinte exceção: <message>

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível modificar a coluna <op>, porque <fieldNames> já existe no <struct>.

FIELD_NOT_FOUND

SQLSTATE: 42704

Não existe tal campo de estrutura <fieldName> em <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Arquivo no caminho de preparação <path> já existe, mas OVERWRITE não está definido

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Ocorreu um erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE: 0A000

Não é permitido consultar a fonte de dados <source> na computação sem servidor. Na computação sem servidor, apenas as fontes de dados <allowlist> são suportadas.

Palavra-chave proibida na consulta JDBC

SQLSTATE: 42000

A opção <queryOption> de consulta não pode conter palavras-chave proibidas. Remova as seguintes palavras-chave da consulta: <keywords>

FORBIDDEN_OPERATION

SQLSTATE: 42809

A operação <statement> não é permitida no <objectType>: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

As colunas de referência de chave estrangeira <parentColumns> não correspondem às colunas referenciadas de chave primária <childColumns>.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Não é possível executar este comando porque o nome do <objectType> estrangeiro deve não estar vazio.

FOREIGN_TABLE_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

A tabela não é elegível para upgrade de UC Foreign para UC External. Reason:

Para mais detalhes, consulte FOREIGN_TABLE_CONVERSION_UNSUPPORTED

FOREIGN_VIEW_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

O objeto <objectName> não é elegível para conversão para uma vista UC Managed (UC Managed view). Reason:

Para mais detalhes, veja FOREIGN_VIEW_CONVERSION_UNSUPPORTED

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

A inferência 'from_json' encontrou atualizações de esquema conflitantes em: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json encontrou columnNameOfCorruptRecord presente (<columnNameOfCorruptRecord>)

num JSON objeto e já não pode avançar. Configure um valor diferente para

a opção 'columnNameOfCorruptRecord'.

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

A inferência de from_json não pôde ler o esquema armazenado em: <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json foi incapaz de inferir o esquema. Por favor, forneça um em vez disso.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

A inferência from_json só é suportada ao definir tabelas de streaming

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json configuração é inválida:

Para mais detalhes, consulte FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json não podia evoluir de <old> para <new>

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

A função <function> requer parâmetros nomeados. Parâmetros sem nomes: <exprs>. Por favor, atualize a chamada de função para adicionar nomes a todos os parâmetros, por exemplo, <function>(param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName> tem valor padrão: (<defaultValue>) e expressão de geração: (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

O Hive 2.2 e versões inferiores não suportam getTablesByType. Use o Hive 2.3 ou versão superior.

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

Falha ao obter rastreamento de inicialização. Causa: <cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

A função get_warmup_tracing() não é permitida.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Protocolo de grafite inválido: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

O lavatório de grafite requer a propriedade '<property>'.

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

Não é possível encontrar a coluna de agrupamento (<grouping>) nas colunas de agrupamento <groupingColumns>.

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

As colunas de grouping_id (<groupingIdColumn>) não correspondem às colunas de agrupamento (<groupByColumns>).

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE: 42903

Funções agregadas não são permitidas em GROUP BYmas foram encontradas em <sqlExpr>.

Para mais detalhes, consulte a secção GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> refere-se a uma expressão <aggExpr> que contém uma função agregada. Funções agregadas não são permitidas em GROUP BY.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

GROUP BY posição <index> não está na lista de seleção (intervalo válido é [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

A expressão <sqlExpr> não pode ser usada como uma expressão de agrupamento porque seu tipo de dados <dataType> não é um tipo de dados ordenável.

HDFS_HTTP_ERROR

SQLSTATE: KD00F

Ao tentar ler a partir do HDFS, a solicitação HTTP falhou.

Para mais detalhes, ver HDFS_HTTP_ERROR

HINT_UNSUPPORTED_FOR_JDBC_DIALECT

SQLSTATE: 42822

A opção hint não é suportada na <jdbcDialect> fonte de dados JDBC. Os dialetos suportados são MySQLDialect, OracleDialect e DatabricksDialect.

HIVE_METASTORE_INVALID_PLACEHOLDER_PATH

SQLSTATE: 42K06

A consulta ou o comando não pôde ser executado porque a configuração 'spark.databricks.hive.metastore.tablePlaceholderPath' forneceu um caminho de espaço reservado inválido para a tabela Hive Metastore. Atualize essa configuração com um novo valor para fornecer um caminho válido e, em seguida, execute novamente a consulta ou o comando novamente.

HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET

SQLSTATE: 42000

A consulta ou o comando falhou porque o caminho do espaço reservado da tabela do Hive Metastore não está definido, o que é necessário quando o local do esquema está no DBFS e o local da tabela é um objeto/arquivo. Defina spark.databricks.hive.metastore.tablePlaceholderPath como um caminho ao qual você tenha acesso e, em seguida, execute novamente a consulta ou o comando novamente.

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Chamada inválida para <function>; apenas são suportados buffers de esboço HLL válidos como entradas (tais como os produzidos pela função hll_sketch_agg).

HLL_INVALID_LG_K

SQLSTATE: 22546

Chamada inválida para <function>; O valor lgConfigK deve estar entre <min> e <max>, inclusive: <value>.

HLL_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Chamada inválida para <function>; o K valor deve ser um valor constante, mas obteve uma expressão não constante.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

Os esboços têm valores de lgConfigK diferentes: <left> e <right>. Defina o parâmetro allowDifferentLgConfigK como true para chamar <function> com valores de lgConfigK diferentes.

HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC

SQLSTATE: 22KD1

O caminho de clone superficial '<path>' não pôde ser resolvido para uma tabela no Unity Catalog. Verifique se a tabela existe e está federada ao Catálogo Unity.

HYBRID_ANALYZER_EXCEPTION

SQLSTATE: 0A000

Ocorreu uma falha ao tentar resolver uma consulta ou comando com o analisador de ponto fixo herdado e com o resolvedor de passagem única.

Para mais detalhes, consulte HYBRID_ANALYZER_EXCEPTION

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> não é um identificador válido, pois tem mais do que partes do <limit> nome.

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE: 42601

Opção de gerador de sequência de coluna IDENTITY duplicada: <sequenceGeneratorOption>.

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY passo da coluna não pode ser 0.

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> não é suportado para colunas IDENTITY.

ILLEGAL_DAY_OF_WEEK

SQLSTATE: 22009

Entrada ilegal para o dia da semana: <string>.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

Valor ilícito fornecido ao Armazenamento de Estado

Para mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE: 42616

A conexão não pode ser criada devido ao esquema inadequado de URI <uri> fornecido para a opção de conexão '<option>'.

Regime(s) permitido(s): <allowedSchemes>.

Adicione um esquema se ele não estiver presente no URI ou especifique um esquema a partir dos valores permitidos.

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

Coluna de pivot inválida <columnName>. As colunas dinâmicas devem ser comparáveis.

LEITURA_INCOMPATÍVEL_DE_VISUALIZAÇÃO_DE_LOTE

SQLSTATE: 42000

View <datasetIdentifier> é uma exibição em lote e deve ser referenciada usando SparkSession#read. Essa verificação pode ser desabilitada definindo Spark conf pipelines.incompatibleViewCheck.enabled = false.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber> da tabela <tableOrdinalNumber> é do tipo <dataType1>, o que não é compatível com <dataType2> na coluna correspondente da primeira tabela.<hint>.

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

Detetado um DataSourceRegister incompatível. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

Não é possível gravar dados incompatíveis para a tabela <tableName>:

Para mais detalhes, consulte INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

Os tipos de junção <joinType1> e <joinType2> são incompatíveis.

INCOMPATIBLE_STREAMING_VIEW_READ

SQLSTATE: 42000

View <datasetIdentifier> é uma exibição de streaming e deve ser referenciada usando SparkSession#readStream. Essa verificação pode ser desabilitada definindo Spark conf pipelines.incompatibleViewCheck.enabled = false.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

A consulta SQL da vista <viewName> tem uma alteração de esquema incompatível e a coluna <colName> não pode ser resolvida. Esperavam-se <expectedNum> colunas com o nome <colName>, mas foram recebidas <actualCols>.

Tente recriar a visualização executando: <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Tipo complexo incompleto:

Para mais detalhes, veja: INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

Você poderá obter um resultado diferente devido à atualização para

Para mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> Requer pelo menos <minArgs> argumentos e, no máximo <maxArgs> , argumentos.

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

Max offset com <rowsPerSecond> rowsPerSecond é <maxSeconds>, mas 'rampUpTimeSeconds' é <rampUpTimeSeconds>.

INDETERMINATE_COLLATION

SQLSTATE: 42P22

Não foi possível determinar qual agrupamento usar para operação de cadeia de caracteres. Use a cláusula COLLATE para definir o agrupamento explicitamente.

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE: 42P22

O tipo de dados <expr> tem agrupamento indeterminado. Use a cláusula COLLATE para definir o agrupamento explicitamente.

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE: 42P22

O esquema contém agrupamento indeterminado em: [<columnPaths>]. Use a cláusula COLLATE para definir o agrupamento explicitamente.

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível criar o índice <indexName> na tabela <tableName> porque ele já existe.

INDEX_NOT_FOUND

SQLSTATE: 42704

Não é possível encontrar o índice <indexName> na tabela <tableName>.

INET_FUNCTIONS_NOT_ENABLED

SQLSTATE: 0A000

<functionName> está desativado ou sem suporte. As funções do INET ainda não estão disponíveis publicamente.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

Não há suporte para o tipo de gatilho <trigger> para esse tipo de cluster.

Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Não é possível escrever para <tableName>, a razão é

Para mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Não é possível escrever em '<tableName>', <reason>:

Colunas da tabela: <tableColumns>.

Colunas de partição com valores estáticos: <staticPartCols>.

Colunas de dados: <dataColumns>.

INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS

SQLSTATE: 42000

Todas as colunas na USING cláusula devem aparecer na mesma posição nos esquemas de destino e de origem. USING não há suporte para cláusulas que contenham colunas desalinhadas.

As seguintes colunas estão desalinhadas: <misalignedReplaceUsingCols>

INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS

SQLSTATE: 42000

A tabela deve ser particionada e todas as colunas especificadas devem representar o conjunto completo das colunas de partição da tabela.

As seguintes colunas não são colunas de partição: <nonPartitionColumns>

As seguintes colunas de partições estão faltando: <missingPartitionsColumns>

INSERT_REPLACE_USING_NOT_ENABLED

SQLSTATE: 0A000

Por favor, contacte o seu representante Databricks para ativar a INSERT INTO...REPLACE USING funcionalidade (...)

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

Privilégios insuficientes:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

O utilizador <user> não tem privilégios suficientes para a localização externa <location>.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

Não há dono para <securableName>. Peça ao administrador para definir um proprietário.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

O utilizador não possui <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

O utilizador não tem permissão <action> em <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

O proprietário de <securableName> é diferente do proprietário de <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT

SQLSTATE: 42501

O cliente não tem permissão para definir um tempo limite de retenção personalizado para os resultados do CloudFetch.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

A credencial de armazenamento <credentialName> tem privilégios insuficientes.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

O utilizador não pode <action> em <securableName> devido às permissões em seguráveis subjacentes.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

O utilizador não pode <action> em <securableName> devido às permissões nos objetos de segurança subjacentes.

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

Estouro de número inteiro durante a operação com intervalos.

Para obter mais detalhes, consulte INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

Divisão por zero. Use try_divide para tolerar que o divisor seja 0 e devolva NULL em vez disso.

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

A expressão FILTER<filterExpr> em uma função agregada é inválida.

Para mais detalhes, consulte INVALID_AGGREGATE_FILTER

INVALID_AGNOSTIC_ENCODER

SQLSTATE: 42001

Encontrado um codificador agnóstico inválido. Esperava uma instância de AgnosticEncoder, mas obteve <encoderType>. Para mais informações consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_ARRAY_INDEX

SQLSTATE: 22003

O índice <indexValue> está fora dos limites. A matriz tem <arraySize> elementos. Use a função SQL get() para permitir o acesso a um elemento em um índice inválido e retornar NULL em seu lugar.

Para mais detalhes, ver INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

O índice <indexValue> está fora dos limites. A matriz tem <arraySize> elementos. Use try_element_at para permitir o acesso a um elemento em um índice inválido e retornar NULL em vez disso.

Para mais detalhes, ver INVALID_ARRAY_INDEX_IN_ELEMENT_AT (Índice de array inválido no elemento em)

INVALID_ARTIFACT_PATH

SQLSTATE: 22023

Artefacto com nome <name> é inválido. O nome deve ser um caminho relativo e não pode fazer referência a diretórios de pais/irmãos/sobrinhos.

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE: 42601

Erro de sintaxe no nome do atributo: <name>. Verifique se os backticks aparecem em pares, que uma sequência de texto entre aspas seja uma parte completa do nome e use um backtick apenas dentro das partes do nome entre aspas.

INVALID_AUTO_TTL_EXPIRE_IN_DAYS

SQLSTATE: 22003

O número de dias especificado para Auto-TTL deve ser não negativo.

INVALID_AWS_AUTHENTICATION

SQLSTATE: 42000

Escolha exatamente um dos seguintes métodos de autenticação:

  • Forneça o nome da sua credencial de serviço Databricks (<serviceCredential>) (como uma opção de fluxo de faísca ou como uma variável de ambiente de cluster).

  • Forneça a AWS AccessKey (<awsAccessKey>) e a SecretAccessKey (<awsSecretKey>) para usar chaves da AWS.

  • Não forneça as chaves da AWS nem uma credencial de serviço Databricks para usar a cadeia padrão do provedor de credenciais da AWS para autenticação do Kinesis.

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE: 42000

Forneça o nome da sua credencial de serviço Databricks (<serviceCredential>)

OU ambos <awsAccessKey> e <awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE: 22003

A posição <bitPosition> no bitmap com índice 0 está fora dos limites. O bitmap tem <bitmapNumBits> bits (<bitmapNumBytes> bytes).

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

É esperada uma declaração booleana na condição, mas <invalidStatement> foi encontrado.

INVALID_BOUNDARY

SQLSTATE: 22003

O limite <boundary> é inválido: <invalidValue>.

Para mais detalhes, ver INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

Não é possível usar <type> para coluna de bucket. Não há suporte para tipos de dados agrupados para bucketing.

CONTAGEM_DE_BALDE_INVÁLIDA

SQLSTATE: 22003

O número de buckets deve ser maior que 0, mas menor ou igual a bucketing.maxBuckets (<bucketingMaxBuckets>). Entendi <numBuckets>.

INVALID_BUCKET_FILE

SQLSTATE: 58030

Arquivo de bucket inválido: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

O formato esperado é ByteString, mas era <unsupported> (<class>).

INVALID_CIDR_RANGE

SQLSTATE: 22023

A função <functionName> recebeu um intervalo CIDR inválido: <value>.

INVALID_CLONE_SESSION_REQUEST

SQLSTATE: 42K04

Pedido de clone de sessão inválido.

Para mais detalhes, veja INVALID_CLONE_SESSION_REQUEST

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

A fonte de dados <datasource> não pode salvar a coluna <columnName> porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Por favor, use um alias para renomeá-lo.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

Coluna ou campo <name> é do tipo <type>, mas deverá ser <expectedType>.

INVALID_CONF_VALUE

SQLSTATE: 22022

O valor '<confValue>' na configuração "<confName>" é inválido.

Para mais detalhes, ver INVALID_CONF_VALUE

CARACTERÍSTICAS_INVÁLIDAS_DE_RESTRIÇÃO

SQLSTATE: 42613

As características de restrição [<characteristics>] são duplicadas ou entram em conflito entre si.

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE: 42804

A coluna <columnName> para registos corrompidos deve ter o tipo anulável STRING, mas tem <actualType>.

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

A função current_recipient só pode ser usada na instrução CREATE VIEW ou na instrução ALTER VIEW para definir uma visualização apenas de partilha no Unity Catalog.

INVALID_CURSOR

SQLSTATE: HY109

O cursor é inválido.

Para obter mais informações, consulte INVALID_CURSOR

FORMATO_DE_FONTE_DE_DADOS_INVÁLIDO_PARA_INJEÇÃO_DE_OPÇÕES_DE_CONEXÃO

SQLSTATE: 42000

A conexão com nome <connectionName> e tipo <connectionType> não suporta o formato <actualFormat>. Formato suportado: <expectedFormat>.

TENTATIVA_INVALIDA_DE_SUBSTITUICAO_DA_OPCAO_DO_FONTE_DE_DADOS

SQLSTATE: 42000

A opção <optionName> já existe na conexão <connectionName> e não pode ser substituída.

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

Padrão datetime não reconhecido: <pattern>.

Para mais detalhes, ver INVALID_DATETIME_PATTERN

INVALID_DBFS_MOUNT

SQLSTATE: 42KDL

O suporte DBFS não pode ser acedido.

Para mais detalhes, veja INVALID_DBFS_MOUNT

INVALID_DBSQL_CONFIG

SQLSTATE: 42616

<confValue> não é suportado para a chave de configuração SQL <confKey>

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

Falha ao executar <statement> comando porque a coluna de destino ou variável <colName> tem um valor DEFAULT<defaultValue>,

Para mais detalhes, ver INVALID_DEFAULT_VALUE

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

Valor inválido para delimitador.

Para mais detalhes, ver INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE: 42809

O catálogo de destino do comando SYNC deve estar dentro do Unity Catalog. Encontrado <catalog>.

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

A memória do sistema <systemMemory> deve ser pelo menos <minSystemMemory>.

Aumente o tamanho da pilha usando a opção --driver-memory ou "<config>" na configuração do Spark.

OPÇÕES_INVÁLIDAS_DE_DROP_TABLE

SQLSTATE: 42601

Não é possível especificar as opções PURGE e FORCE no comando DROP TABLE. Utilize ou PURGE ou FORCE, mas não ambos.

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

As opções passadas <option_list> são proibidas para a tabela estrangeira <table_name>.

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

O nome do local não pode ser cadeia de caracteres vazia, mas <location> foi dado.

CONFIGURAÇÕES_AMBIENTAIS_INVÁLIDAS_DEPENDÊNCIAS

SQLSTATE: 42000

O parâmetro de dependências de configurações de ambiente está ausente ou não pôde ser analisado em uma lista de cadeias de caracteres. Formato esperado: ["dep1", "dep2"]

INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION

SQLSTATE: 42000

Esta versão de runtime não suporta uma versão de ambiente para fontes de dados. Valor: <environmentVersion>.

INVALID_ERROR_CONDITION_DECLARATION

SQLSTATE: 42K0R

Declaração de condição inválida.

Para mais detalhes, ver INVALID_ERROR_CONDITION_DECLARATION

INVALID_ESC

SQLSTATE: 42604

Encontrada uma cadeia de escape inválida: <invalidEscape>. A cadeia de escape deve conter apenas um caractere.

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar deveria ser uma string literal de comprimento um, mas recebeu <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

A memória do executor <executorMemory> deve ser pelo menos <minSystemMemory>.

Aumente a memória do executor usando a opção --executor-memory ou "<config>" na configuração do Spark.

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

Encontrado um codificador de expressão inválido. Espera uma instância de ExpressionEncoder, mas obteve <encoderType>. Para mais informações consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

O tipo de expressão deve ser do tipo string mas obteve <exprType>.

INVALID_EXTERNAL_TYPE

SQLSTATE: 42K0N

O tipo externo <externalType> não é válido para o tipo <type> na expressão <expr>.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

Não é possível extrair um valor de <base>. Preciso de um tipo complexo [STRUCT, ARRAY, MAP] mas já tenho <other>.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

Não é possível extrair <field> de <expr>.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

O nome do campo deve ser uma cadeia de caracteres literal não nula, mas é <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 42000

O nome do campo <fieldName> é inválido: <path> não é uma struct.

INVALID_FLOW_QUERY_TYPE

SQLSTATE: 42000

Flow <flowIdentifier> retorna um tipo de relação inválido.

Para mais detalhes, consulte INVALID_FLOW_QUERY_TYPE

INVALID_FORMAT

SQLSTATE: 42601

O formato é inválido: <format>.

Para mais detalhes, veja INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

O intervalo válido para segundos é [0, 60] (inclusive), mas o valor fornecido é <secAndMicros>. Para evitar este erro, use try_make_timestamp, que retorna NULL em caso de erro.

Se não quiser usar a versão padrão de timestamp da sessão desta função, utiliza try_make_timestamp_ntz ou try_make_timestamp_ltz.

INVALID_GET_DIAGNOSTICS_USAGE

SQLSTATE: 42612

Uso inválido da GETDIAGNOSTICS instrução.

Para mais detalhes, ver INVALID_GET_DIAGNOSTICS_USAGE

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE: 35000

Uso inválido da GETDIAGNOSTICS instrução. O único valor suportado para um número de condição na GETDIAGNOSTICS instrução é 1.

INVALID_HANDLE

SQLSTATE: HY000

O identificador <handle> é inválido.

Para mais detalhes, ver INVALID_HANDLE

INVALID_HANDLER_DECLARATION

SQLSTATE: 42K0Q

Declaração de manipulador inválida.

Para mais detalhes, consulte INVALID_HANDLER_DECLARATION

INVALID_HTTP_REQUEST_METHOD

SQLSTATE: 22023

O parâmetro de entrada: método, valor: <paramValue> não é um parâmetro válido para http_request porque não é um método HTTP válido.

INVALID_HTTP_REQUEST_PATH

SQLSTATE: 22023

O parâmetro de entrada: path, value: <paramValue> não é um parâmetro válido para http_request porque a travessia de caminho não é permitida.

INVALID_IDENTIFIER

SQLSTATE: 42602

O identificador não citado <ident> é inválido e deve ser novamente citado como: <ident>.

Os identificadores não citados só podem conter ASCII letras ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e sublinhado ('_').

Os identificadores não cotados também não devem começar com um dígito.

Diferentes fontes de dados e meta-armazenamentos podem impor restrições adicionais a identificadores válidos.

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

O índice 0 é inválido. Um índice deve ser 0 < 0 or > (o primeiro elemento tem índice 1).

INVALID_INLINE_TABLE

SQLSTATE: 42000

Tabela embutida inválida.

Para mais detalhes, ver INVALID_INLINE_TABLE

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

Erro ao analisar '<input>' para intervalo. Certifique-se de que o valor fornecido está em um formato válido para definir um intervalo. Você pode consultar a documentação para o formato correto.

Para mais detalhes, ver INVALID_INTERVAL_FORMAT

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE: 22006

Não é possível adicionar um intervalo a uma data porque sua parte de microssegundos não é 0. Para resolver isto, converta a data de entrada num timestamp, que suporta a adição de intervalos com microssegundos não zerados.

INVALID_IP_ADDRESS

SQLSTATE: 22023

A função <functionName> recebeu um endereço IP inválido: <value>.

INVALID_IP_ADDRESS_OR_CIDR_RANGE

SQLSTATE: 22023

A função <functionName> recebeu um endereço IP inválido ou intervalo CIDR: <value>.

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE: 46121

<fieldName> não é um identificador válido do Java e não pode ser usado como nome de campo

<walkedTypePath>.

INVALID_JDBC_CONNECTION_OPTION

SQLSTATE: 42616

A opção <optionKey> não é um parâmetro válido para esta conexão jdbc.

INVALID_JDBC_CONNECTION_OPTION_VALUE

SQLSTATE: 42616

A opção <optionKey> com um valor <optionValue> não é uma opção válida para esta conexão jdbc.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

Tipo de junção inválido em joinWith: <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

Falhou a conversão da JSON cadeia '<invalidType>' para um tipo de dado. Introduza um tipo de dados válido.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

As colações só podem ser aplicadas a tipos de cadeia, mas o tipo de JSON dados é <jsonType>.

INVALID_JSON_RECORD_TYPE

SQLSTATE: 22023

Detetou um tipo inválido de registo JSON ao inferir um esquema comum no modo <failFastMode>. Esperava um tipo STRUCT, mas encontrei <invalidType>.

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

Não é possível converter JSON o campo raiz para o tipo Spark alvo.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

O esquema de entrada <jsonSchema> só pode conter STRING como um tipo de chave para um MAP.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

O valor da configuração "<bufferSizeConfKey>" deve ser inferior a 2048 MiB, mas foi recebido <bufferSizeConfValue> MiB.

INVALID_KRYO_SERIALIZER_NO_DATA

SQLSTATE: 22002

O objeto '<obj>' é inválido ou malformado para <serdeOp> ao usar <serdeClass>.

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

O uso do rótulo <labelName> é inválido.

Para mais detalhes, ver INVALID_LABEL_USAGE

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Chamada de função lambda inválida.

Para mais detalhes, consulte INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

O <joinType>JOIN com a correlação LATERAL não é permitido porque uma subconsulta OUTER não pode ser correlacionada com o seu parceiro de junção. Remova a correlação LATERAL ou use um INNERJOINou LEFT OUTERJOIN em vez disso.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

O limite como expressão <expr> é inválido.

Para mais detalhes, ver INVALID_LIMIT_LIKE_EXPRESSION

INVALID_LOG_VERSION

SQLSTATE: KD002

UnsupportedLogVersion.

Para mais detalhes, ver INVALID_LOG_VERSION

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

Nome inválido '<name>' no comando <command>. Motivo: <reason>

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

O caminho não absoluto fornecido <path> não pode ser qualificado. Atualize o caminho para um local de montagem dbfs válido.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

O literal numérico <rawStrippedQualifier> está fora do intervalo válido de <typeName> com valor mínimo de <minValue> e valor máximo de <maxValue>. Por favor, ajuste o valor em conformidade.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Métricas observadas inválidas.

Para mais detalhes, consultar INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE: 42K06

Opções inválidas:

Para mais detalhes, ver INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

A função agregada pandas UDF <functionList> não pode ser invocada simultaneamente com outras funções agregadas não-pandas.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

Um mapeamento de parâmetros inválido foi fornecido:

Para mais detalhes, consulte INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

O valor do(s) parâmetro(s) <parameter> em <functionName> é inválido:

Para mais detalhes, ver INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

Não é possível usar <type> para coluna de partição.

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

O comando partition é inválido.

Para mais detalhes, ver INVALID_PARTITION_OPERATION

INVALID_PARTITION_VALUE

SQLSTATE: 42846

Não foi possível converter o valor <value> para o tipo de dados <dataType> para a coluna de partição <columnName>. Verifique se o valor corresponde ao tipo de dados esperado para esta coluna de partição.

INVALID_PIPELINE_ID

SQLSTATE: 42604

A identificação do pipeline <pipelineId> não é válida.

Um ID de pipeline deve ser um UUID no formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'

INVALID_PRIVILEGE

SQLSTATE: 42852

Privilege <privilege> não é válido para <securable>.

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> é uma chave de propriedade inválida, por favor, use aspas, por exemplo, SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> é um valor de propriedade inválido, por favor, use aspas, por exemplo, SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE: 42000

O nome da coluna <columnName> é inválido porque não é qualificado com um nome de tabela ou consiste em mais de 4 partes de nome.

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

A consulta parametrizada deve usar parâmetros posicionais ou nomeados, mas não ambos.

INVALID_RECURSIVE_CTE

SQLSTATE: 42836

Definição recursiva inválida encontrada. As consultas recursivas devem conter uma UNION ou uma UNION ALL declaração com 2 filhos. O primeiro filho precisa ser o termo âncora sem referências recursivas. Qualquer CTE interno de nível superior não deve conter autorreferências.

INVALID_RECURSIVE_REFERENCE

SQLSTATE: 42836

Referência recursiva inválida encontrada dentro WITH RECURSIVE da cláusula.

Para mais detalhes, ver INVALID_RECURSIVE_REFERENCE

INVALID_REGEXP_REPLACE

SQLSTATE: 22023

Não foi possível executar regexp_replace para origem = "<source>", padrão = "<pattern>", substituição = "<replacement>" e posição = <position>.

INVALID_RESETTABLE_DEPENDENCY

SQLSTATE: 42000

As tabelas <upstreamResettableTables> são reiniciáveis, mas têm uma dependência não reiniciável a jusante '<downstreamTable>'. reset falhará, pois o Spark Streaming não suporta dados de origem excluídos. Você pode remover a propriedade <resetAllowedKey>=false de '<downstreamTable>' ou adicioná-la às suas dependências antecedentes.

INVALID_RESET_COMMAND_FORMAT

SQLSTATE: 42000

O formato esperado é 'RESET' ou 'RESET tecla'. Se quiser incluir caracteres especiais em tonalidade, por favor use aspas, por exemplo, RESET key.

INVALID_RESIGNAL_USAGE

SQLSTATE: 0K000

RESIGNAL quando o manipulador não está ativo. RESIGNAL só pode ser usada dentro do corpo do manipulador de exceções.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO as credenciais devem incluir AWS_ACCESS_KEY, AWS_SECRET_KEY, e AWS_SESSION_TOKEN.

INVALID_SAVE_MODE

SQLSTATE: 42000

O modo de salvamento especificado <mode> é inválido. Os modos de gravação válidos incluem "adicionar", "sobrescrever", "ignorar", "erro", "erro se existir" e "padrão".

INVALID_SCHEMA

SQLSTATE: 42K07

O esquema de entrada <inputSchema> não é uma cadeia de caracteres de esquema válida.

Para mais detalhes, veja INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres do alfabeto, números e _.

TIPO_DE_ESQUEMA_INVÁLIDO_NESTRURAL

SQLSTATE: 42K09

Tipo de esquema inválido. Espere um tipo struct, mas tem <dataType>.

INVALID_SCHEME

SQLSTATE: 0AKUC

O catálogo Unity não suporta <name> como o esquema de arquivo padrão.

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

Consulta de segredo inválida:

Para mais detalhes, ver INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE: 42000

O formato esperado é 'SET', 'SET chave', ou 'SET chave=valor'. Se quiser incluir caracteres especiais em tonalidade, ou incluir ponto e vírgula no valor, por favor use aspas, por exemplo, SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

O <sharedObjectType> nome do alias deve ter a forma "schema.name".

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

O esquema <schema> especificado pelo usuário é inválido quando a opção está habilitada singleVariantColumn . O esquema deve ser um campo variante ou um campo variante mais um campo de coluna corrompido.

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

O catálogo de origem não deve estar dentro do Unity Catalog para o comando SYNC. Encontrado <catalog>.

INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND

SQLSTATE: 42KDH

A fonte da operação do serviço MERGE de filtragem só pode conter projeções e filtros.

Ajuste o MERGE comando ou use uma tabela de preparo como fonte.

<stmt>

INVALID_SPARK_CONFIG

SQLSTATE: 42616

Configuração inválida do Spark:

Para mais detalhes, ver INVALID_SPARK_CONFIG

INVALID_SQLSTATE

SQLSTATE: 428B3

Valor inválido SQLSTATE : '<sqlState>'. SQLSTATE deve ter exatamente 5 caracteres e conter apenas A-Z e 0-9. SQLSTATE não deve começar com «00», «01» ou «XX».

INVALID_SQL_ARG

SQLSTATE: 42K08

O argumento <name> de sql() é inválido. Considere substituí-lo por um literal SQL ou por funções construtoras de coleção, como map(), array(), struct().

INVALID_SQL_FUNCTION_DATA_ACCESS

SQLSTATE: 42K0E

Não é possível criar uma função SQL com CONTAINS SQL que acede a uma tabela/vista ou a uma função SQL que leia dados SQL. Por favor, use READS SQL DATA em vez disso.

INVALID_SQL_SYNTAX

SQLSTATE: 42000

Sintaxe SQL inválida:

Para mais detalhes, ver INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

Caminho de staging inválido na consulta de staging <operation>: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

A cláusula INTO de EXECUTE IMMEDIATE só é válida para consultas, mas a instrução dada não é uma consulta: <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

A declaração ou cláusula: <operation> não é válida.

INVALID_STREAMING_RATE_SOURCE_VERSION

SQLSTATE: 22023

Versão inválida para a origem da taxa: <version>. A versão deve ser 1 ou 2.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL

SQLSTATE: 22023

O intervalo de gatilho em tempo real é definido como <interval> ms. Isso é menor do que os <minBatchDuration> ms mínimos especificados por spark.databricks.streaming.realTimeMode.minBatchDuration.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL

SQLSTATE: 22023

O intervalo de ponto de verificação de <interval> do gatilho em tempo real não pôde ser analisado. Verifique se introduziu um número inteiro positivo.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

Subconsulta inválida:

Para mais detalhes, ver INVALID_SUBQUERY_EXPRESSION

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... <command> não suporta <tableName>. Por favor, use ALTER <targetTableType>...<command> em vez disso.

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... SET TBLPROPERTIES não suporta <tableName>. Por favor, use ALTER <targetTableType>...SET TBLPROPERTIES em vez disso.

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

Não é possível criar o objeto persistente <objName> do tipo <obj> porque ele faz referência ao objeto temporário <tempObjName> do tipo <tempObj>. Torne o objeto temporário <tempObjName> persistente ou torne o objeto persistente <objName> temporário.

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

O carimbo de data/hora <timestamp> fornecido não corresponde à sintaxe <format>esperada.

INVALID_TIMEZONE

SQLSTATE: 22009

O fuso horário: <timeZone> é inválido. O fuso horário deve ser um identificador de zona baseado em região ou um deslocamento de zona. Os IDs de região devem ter o formato 'área/cidade', como 'América/Los_Angeles'. Os deslocamentos de zona devem estar no formato '(+|-)HH', '(+|-)HH:mm' ou '(+|-)HH:mm:ss', por exemplo '-08', '+01:00' ou '-13:33:33', e devem estar no intervalo de -18:00 a +18:00. 'Z' e 'UTC' são aceites como sinónimos de '+00:00'.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Não é possível especificar a versão e o carimbo de data/hora quando a tabela percorre o tempo.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

A expressão de marca temporal de viagem no tempo <expr> é inválida.

Para mais detalhes, ver INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE: 42604

O valor do literal <valueType> digitado é inválido: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

Function <funcName> não implementa um ScalarFunction ou AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command> <supportedOrNot> a tabela de origem está no Hive Metastore e a tabela de destino está no Unity Catalog.

INVALID_URL

SQLSTATE: 22P02

O url é inválido: <url>. Use try_parse_url para tolerar a URL inválida e retornar NULL em vez disso.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

Uso inválido de <elem> em <prettyName>.

INVALID_UTF8_STRING

SQLSTATE: 22029

Sequência de bytes UTF8 inválida encontrada na string: <str>.

INVALID_UUID

SQLSTATE: 42604

O <uuidInput> de entrada não é um UUID válido.

O UUID deve ter o formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'

Por favor, verifique o formato do UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

Declaração de variável inválida.

Para mais detalhes, consulte INVALID_VARIABLE_DECLARATION

INVALID_VARIANT_CAST

SQLSTATE: 22023

O valor da variante <value> não pode ser convertido em <dataType>. Por favor, use try_variant_get em vez disso.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

Variante inválida.

Para obter mais detalhes, verifique INVALID_VARIANT_FROM_PARQUET

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

O caminho <path> não é um caminho de extração de variante válido no <functionName>.

Um caminho válido deve começar com $ e é seguido por zero ou mais segmentos como [123], .name, ['name'], ou ["name"].

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE: 22023

O esquema <schema> não é um esquema de destruição de variante válido.

INVALID_WHERE_CONDITION

SQLSTATE: 42903

A condição WHERE<condition> contém expressões inválidas: <expressionList>.

Reescreva a consulta para evitar funções de janela, funções de agregação e funções de gerador na cláusula WHERE.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

Não é possível especificar ORDER BY ou uma moldura de janela para <aggFunc>.

INVALID_WITHIN_GROUP_EXPRESSION

SQLSTATE: 42K0K

Função <funcName> inválida com WITHIN GROUP.

Para obter mais detalhes, consulte INVALID_WITHIN_GROUP_EXPRESSION

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

O gerador da fonte de dados gerou um número inválido de mensagens de commit. Esperava exatamente uma mensagem de commit de cada tarefa, mas recebeu <detail>.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

A distribuição de gravação solicitada é inválida.

Para mais detalhes, ver INVALID_WRITE_DISTRIBUTION

IRC_CREDENTIAL_VENDING_ERROR

SQLSTATE: 08006

Houve um erro ao ligar-se ao host IRC, impossível vender credenciais para a tabela <tableIdentifier>.

Para mais detalhes, veja IRC_CREDENTIAL_VENDING_ERROR

ISOLATED_COMMAND_FAILURE

SQLSTATE: 39000

Falha ao executar <command>. Saída do comando:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE: 39000

Falha ao executar <command>.

ISOLATION_ENVIRONMENT_ERROR

SQLSTATE: 39000

Falhei em instalar dependências de ambiente devido <name> a um erro do sistema.

Para mais detalhes, veja ISOLATION_ENVIRONMENT_ERROR

ISOLATION_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

Falhou a instalação de dependências de ambiente para <name>.

Para mais detalhes, veja ISOLATION_ENVIRONMENT_USER_ERROR

JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

SQLSTATE: 42000

Erro de sintaxe do mecanismo externo JDBC. O erro foi causado pela consulta <jdbcQuery>. <externalEngineError>.

Para mais detalhes, consulte JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

A condição <joinCondition> de junção tem o tipo <conditionType> inválido, o esperado é "BOOLEAN".

KAFKA_DATA_LOSS

SQLSTATE: 22000

Alguns dados podem ter sido perdidos porque já não estão disponíveis em Kafka;

ou os dados foram removidos pelo Kafka ou o tópico pode ter sido excluído antes de todos os dados estarem no

tópico foi processado.

Se você não quiser que sua consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.

Reason:

Para mais detalhes, ver KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

Não foi possível ler até o número de sequência desejado <endSeqNum> para o fragmento <shardId> em

Kinesis Stream <stream> com o modo de consumidor <consumerMode>. A consulta falhará devido a

potencial perda de dados. O último registro lido foi no número sequencial <lastSeqNum>.

Isso pode acontecer se os dados com endSeqNum já tiverem sido envelhecidos, ou se o fluxo do Kinesis tiver sido afetado por algum outro motivo.

suprimido e reconstruído com o mesmo nome. O comportamento de falha pode ser substituído

definindo spark.databricks.kinesis.failOnDataLoss como false na configuração do spark.

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE: 51000

Para o fluxo de kinesis <streamId>, o consumidor EFO <consumerId> anteriormente registado no fluxo foi excluído.

Reinicie a consulta para que um novo consumidor seja registrado.

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE: 51000

Para o estilhaço <shard>, a chamada anterior da API subscribeToShard foi feita dentro dos 5 segundos anteriores à próxima chamada.

Reinicie a consulta após 5 segundos ou mais.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

O shardId mínimo obtido do Kinesis (<fetchedShardId>)

é menor do que o shardId mínimo registado (<trackedShardId>).

Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,

e uma consulta de streaming usando esse fluxo do Kinesis é reiniciada usando um local de ponto de verificação existente.

Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE: 0A000

O modo de sondagem do Kinesis não é suportado.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

Para o estilhaço <shard>, o último registo lido do Kinesis em buscas anteriores tem número de sequência <lastSeqNum>,

que é maior do que o registro lido na busca atual com número de sequência <recordSeqNum>.

Isso é inesperado e pode acontecer quando a posição inicial de nova tentativa ou próxima busca é inicializada incorretamente e pode resultar em registros duplicados a jusante.

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE: 42KDF

Para ler a partir de Fluxos de Kinesis com configurações de consumo (consumerName, consumerNamePrefix, ou registeredConsumerId), consumerMode deve ser efo.

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE: 42KDF

Para ler a partir do Kinesis Streams com consumidores registrados, você deve especificar as opções registeredConsumerId e registeredConsumerIdType.

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE: 42KDF

Para ler do Kinesis Streams, deve-se configurar uma (mas não ambas) das opções streamName ou streamARN como uma lista de nomes de fluxos/ARNs separada por vírgulas.

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE: 42KDF

Para ler a partir do Kinesis Streams com consumidores registados, não configure as opções consumerName ou consumerNamePrefix, pois elas não terão efeito.

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE: 22023

O número de IDs de consumidor registrados deve ser igual ao número de fluxos do Kinesis, mas obteve <numConsumerIds> IDs de consumidor e fluxos de <numStreams>.

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE: 22023

O consumidor registrado <consumerId> fornecido não pode ser encontrado para streamARN <streamARN>. Verifique se registou o consumidor ou, caso contrário, não forneça a opção registeredConsumerId.

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE: 22023

O tipo de consumidor registado <consumerType> é inválido. Deve ser name ou ARN.

KLL_SKETCH_INCOMPATIBLE_MERGE

SQLSTATE: 22000

Para a função <functionName>, não é possível fundir esboços KLL: <reason>

KLL_SKETCH_INVALID_INPUT

SQLSTATE: 22000

Para a função <functionName>, dados binários de esboço KLL inválidos: <reason>

KLL_SKETCH_INVALID_QUANTILE_RANGE

SQLSTATE: 22003

Para a função <functionName>, o valor do quantil deve estar entre 0,0 e 1,0 (inclusive), mas obtém <quantile>.

KLL_SKETCH_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Para a função <functionName>, o parâmetro k deve ser um valor constante, mas obteve uma expressão não constante.

KLL_SKETCH_K_OUT_OF_RANGE

SQLSTATE: 22003

Para a função <functionName>, o k parâmetro deve estar entre 8 e 65535 (inclusive), mas obteve <k>.

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Falha na serialização do Kryo: <exceptionMsg>. Para evitar isso, aumente o valor "<bufferSizeConfKey>".

LABELS_MISMATCH

SQLSTATE: 42K0L

O rótulo de início <beginLabel> não corresponde ao rótulo final <endLabel>.

ETIQUETA_OU_PARA_VARIÁVEL_JÁ_EXISTE

SQLSTATE: 42K0L

O rótulo ou a FOR variável <label> já existe. Escolha outro nome ou renomeie o existente.

N/A

SQLSTATE: 42K0L

O rótulo ou FOR nome <label> da variável é proibido.

LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

SQLSTATE: 0A000

A fonte de dados de federação do Lakehouse '<provider>' requer a versão mais recente do Databricks Runtime.

Para mais detalhes, consulte LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED

SQLSTATE: 0A000

LATERAL JOIN com funções de tabela definidas pelo utilizador otimizadas para Arrow (UDTFs) não são suportadas. As setas UDTF não podem ser utilizadas no lado direito de uma junção lateral.

Em vez disso, use um UDTF regular ou reestruture sua consulta para evitar a junção lateral.

LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED

SQLSTATE: 0A000

CREATE TEMPORARY TABLE Sem um prestador, não é permitido.

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA caminho de entrada não existe: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL deve ser usado juntamente com o esquema de file, mas obteve: <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível nomear a tabela gerenciada como <identifier>, pois seu local associado <location> já existe. Escolha um nome de tabela diferente ou remova primeiro o local existente.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Algumas das partições no(s) tópico(s) Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.

Partições de tópico para o offset mais recente: <tpsForLatestOffset>, partições de tópico para o offset final: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

Mensagens Avro malformadas são detetadas na desserialização de mensagens. Modo de análise: <mode>. Para processar uma mensagem Avro malformada como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVE'.

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

Valor inválido encontrado ao executar <function> com <charset>

MALFORMED_CSV_RECORD

SQLSTATE: KD000

Registro CSV malformado: <badRecord>

MALFORMED_LOG_FILE

SQLSTATE: KD002

O ficheiro de log foi malformado: falha em ler a versão de log correta do <text>.

MALFORMED_PROTOBUF_MESSAGE

SQLSTATE: 42K0G

Mensagens Protobuf malformadas são detetadas na desserialização de mensagens. Modo de análise: <failFastMode>. Para processar a mensagem protobuf malformada como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVE'.

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

Registros malformados são detetados na análise de registros: <badRecord>.

Modo de análise: <failFastMode>. Para processar registros malformados como resultado nulo, tente definir a opção 'modo' como 'PERMISSIVE'.

Para mais detalhes, consulte MALFORMED_RECORD_IN_PARSING

MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

SQLSTATE: 22000

Estado malformado na fonte RatePerMicroBatch.

Para mais detalhes, consulte MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

MALFORMED_VARIANT

SQLSTATE: 22023

O binário variante está malformado. Verifique se a fonte de dados é válida.

MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING

SQLSTATE: 0A000

Tentei ativar o clustering líquido numa tabela Managed Apache Iceberg sem desativar tanto os vetores de eliminação como o rastreio de linhas. Vetores de eliminação e rastreamento de linhas não são suportados para tabelas Apache Iceberg Geridas, mas são necessários para concorrência ao nível das linhas com tabelas Líquidas. Para permitir o agrupamento líquido numa tabela Apache Iceberg gerida com controlo reduzido de concorrência, os vetores de eliminação e o rastreamento de linhas devem ser desativados para esta tabela.

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

As tabelas gerenciadas do Apache Iceberg não suportam <operation>.

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

Não há suporte para a criação de tabela gerenciada com credencial de armazenamento.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

Não é possível <refreshType> a exibição materializada porque a mesma é anterior a ter um pipelineId. Para habilitar o <refreshType>, elimine e recrie a visualização materializada.

MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

SQLSTATE: 42601

Não é possível criar a visualização materializada com <refreshPolicy> a política de atualização porque não é suportada para atualização incremental. Reason:

Para mais detalhes, veja MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

A operação de visualização materializada <operation> não é permitida:

Para mais detalhes, consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

A expressão de saída <expression> em uma vista materializada deve ser explicitamente associada.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

Visualização materializada <name> não pôde ser criada com consulta de streaming. Por favor, use CREATE [OR REFRESH] STREAMING TABLE ou remova a STREAM palavra-chave da sua FROM cláusula para transformar esta relação numa consulta em lote.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

Atualmente, a Operação <operation> não é suportada em visões materializadas.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

Não é possível criar a nova variável <variableName> porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>).

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch precisa ser um inteiro positivo menor ou igual a <kinesisRecordLimit>

MCV_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Chamada inválida para <function>; apenas buffers de esboços MCV válidos são suportados como entradas (como os produzidos pela mcv_collect_internal função).

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

A condição de pesquisa ON da instrução MERGE correspondeu a uma única linha da tabela de destino e a várias linhas da tabela de origem.

Isso pode resultar na execução de operações na linha de destino mais de uma vez com uma operação de atualização ou exclusão, o que não é permitido.

MERGE_WITHOUT_WHEN

SQLSTATE: 42601

Deve haver pelo menos uma cláusula WHEN numa declaração MERGE.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT não está habilitado.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

O valor fornecido "<argValue>" não é suportado pelo argumento "<argName>" para a METRIC_STORE função de tabela.

Para mais detalhes, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

A rotina <routineName> do Metric Store está atualmente desativada neste ambiente.

METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA

SQLSTATE: 42K0E

A definição de visualização métrica contém uma junção com um critério ambíguo: <expr>. Use os critérios de união ou qualifique explicitamente as using colunas com o alias <sourceAlias>.

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE: 42K0E

A visualização métrica não tem permissão para usar tabelas de cache.

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE: 42K0E

O recurso de visualização métrica está desativado. Certifique-se de que "spark.databricks.sql.metricView.enabled" está definido como true.

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE: 42K0E

A função MEASURE() usa apenas um atributo como entrada, mas tem <expr>

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE: 42K0E

A definição de exibição métrica é inválida. Motivo: <reason>.

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE: 42K0E

A visualização métrica não é permitida nas definições de CTE. Plano: <plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE: 42K0E

A visualização métrica não tem permissão para usar junções. Plano: <plan>

METRIC_VIEW_MATERIALIZATIONS_DISABLED

SQLSTATE: 42K0E

As materializações de visualização métrica estão desativadas. Certifique-se de que "spark.databricks.sql.metricView.materializations.enabled" está definido como true.

MATERIALIZAÇÕES_VISTA_MÉTRICA_NÃO_AGREGADAS_COM_VISTA_MÉTRICA

SQLSTATE: 42K0E

A materialização não agregada não é suportada quando a visualização métrica faz referência a outras visualizações métricas.

METRIC_VIEW_MATERIALIZATION_ON_TEMPORARY_VIEW_NOT_SUPPORTED (Materialização da visão métrica em visão temporária não é suportada)

SQLSTATE: 42K0E

A materialização não é suportada em visualizações métricas temporárias.

METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED

SQLSTATE: 42K0E

A materialização não é suportada para vistas métricas que contenham expressões dependentes do invocador. Estas expressões impedem a reutilização da materialização.

METRIC_VIEW_MEASURE_IN_GROUP_BY

SQLSTATE: 42K0E

<measureColumns> as colunas de medida não podem ser usadas em GROUP BY cláusulas ou como valores categóricos. Recomendamos envolvê-los com uma função agregada como SUM() para o comportamento esperado.

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE: 42K0E

O uso da coluna de medida <column> de uma exibição métrica requer uma função MEASURE() para produzir resultados.

METRIC_VIEW_NOT_MATERIALIZED

SQLSTATE: 42K0E

Chamado comando visualização materializada na vista métrica sem materializações definidas

Para mais detalhes, veja METRIC_VIEW_NOT_MATERIALIZED

VISUALIZAÇÃO_MÉTRICA_NÃO_SUPORTADA_NO_HMS

SQLSTATE: 42K0E

As visualizações métricas não são suportadas no HMS.

METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA

SQLSTATE: 42602

A visualização métrica <oldName> não tem permissão para ser renomeada para um catálogo ou esquema diferente: <newName>.

METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED

SQLSTATE: 42K0E

O recurso de junção de flocos de neve da visualização métrica está desativado. Certifique-se de que "spark.databricks.sql.metricView.snowflake.join.enable" está definido como true.

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE: 42K0E

Não há suporte para o uso da visualização métrica. Plano: <plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE: 42K0E

A visualização métrica não está autorizada a usar a função de janela <expr>.

METRIC_VIEW_YAML_V11_DISABLED

SQLSTATE: 42K0E

A visualização métrica YAML v1.1 está desativada. Certifique-se de que "spark.databricks.sql.metricView.yaml.v11.enabled" está definido como true.

MIGRATION_NOT_SUPPORTED

SQLSTATE: 42601

<table> não é suportado para migrar para a tabela gerenciada por UC porque não é uma <tableKind> tabela.

Certifique-se de que a tabela que está sendo migrada é uma tabela delta externa de UC e

ele é referenciado por seu nome em vez de caminho.

MIGRATION_ROLLBACK_NOT_SUPPORTED

SQLSTATE: 42809

<table> não é suportado para migração de tabela gerida para tabela externa porque não é uma tabela <tableKind>.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

A fonte de dados Kafka no Trigger.AvailableNow deve fornecer as mesmas partições de tópico do deslocamento pré-buscado até o deslocamento final para cada microlote. O erro pode ser transitório - reinicie a consulta e relate se ainda vir o mesmo problema.

partições de tópico para offset pré-buscado: <tpsForPrefetched>, partições de tópico para offset final: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

A expressão não agregadora <expression> baseia-se em colunas que não participam na cláusula GROUP BY.

Adicione as colunas ou a expressão ao GROUP BY, agregue a expressão ou use <expressionAnyValue> se você não se importar com qual dos valores dentro de um grupo é retornado.

Para mais detalhes, ver MISSING_AGGREGATION

MISSING_CATALOG_ABILITY

SQLSTATE: 0A000

O catálogo <plugin> não suporta

Para mais detalhes, veja MISSING_CATALOG_ABILITY

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE: 42601

Cláusula em falta <clauses> para a operação <operation>. Por favor, adicione as cláusulas necessárias.

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

As ligações do tipo '<connectionType>' devem incluir a(s) seguinte(s) opção(ões): <requiredOptions>.

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE: 3F000

O nome do banco de dados não é especificado no catálogo de sessões v1. Certifique-se de fornecer um nome de banco de dados válido ao interagir com o catálogo v1.

MISSING_GROUP_BY

SQLSTATE: 42803

A consulta não inclui uma cláusula GROUP BY. Adicione GROUP BY ou transforme-o nas funções de janela usando cláusulas OVER.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

CHECK restrição deve ter um nome.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

O parâmetro <parameterName> é necessário para Kafka, mas não é especificado em <functionName>.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

O parâmetro <parameterName> é obrigatório, mas não é especificado em <functionName>.

MISSING_SCHEDULE_DEFINITION

SQLSTATE: 42000

Deve ser fornecida uma definição de calendário após SCHEDULE.

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE: HY000

A operação atingiu o tempo limite, mas nenhum prazo de tempo limite está configurado. Para definir um tempo limite baseado no tempo de processamento, use 'GroupState.setTimeoutDuration()' na operação 'mapGroupsWithState' ou 'flatMapGroupsWithState'. Para tempo limite baseado no tempo dos eventos, use 'GroupState.setTimeoutTimestamp()' e defina uma marca d'água usando 'Dataset.withWatermark()'.

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

A especificação da janela não está definida na cláusula WINDOW para <windowName>. Para obter mais informações sobre WINDOW cláusulas, consulte '<docroot>/sql-ref-syntax-qry-select-window.html'.

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

Não é suportada a modificação do catálogo pré-definido <catalogName>.

MULTIPART_FLOW_NAME_NOT_SUPPORTED

SQLSTATE: 0A000

Não há suporte para fluxo com nome de várias partes '<flowName>'.

MULTIPLE_EXCEL_DATA_SOURCE

SQLSTATE: 42710

Detetaram múltiplas fontes de dados Excel com o nome <provider> (<sourceNames>). Especifique o nome da classe totalmente qualificada ou remova-<externalSource> do classpath.

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

O Databricks Delta não suporta vários caminhos de entrada na API load().

caminhos: <pathList>. Para criar um único DataFrame carregando

vários caminhos da mesma tabela Delta, por favor, carregue o caminho raiz de

a tabela Delta com os filtros de partição correspondentes. Se os vários caminhos

Se são provenientes de diferentes tabelas Delta, utilize as APIs union()/unionByName() do Dataset

para combinar os DataFrames gerados por chamadas de API load() separadas.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

Encontrado pelo menos duas restrições correspondentes com a condição dada.

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE: 42000

<clause1> e <clause2> não pode coexistir no mesmo operador de pipe SQL usando '|>'. Separe as várias cláusulas de resultado utilizando operadores de pipe distintos e, depois, volte a executar a consulta.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Não é possível especificar a viagem no tempo na cláusula e nas opções de viagem no tempo.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

Detetaram múltiplas fontes de dados com o nome <provider> (<sourceNames>). Especifique o nome da classe totalmente qualificada ou remova-<externalSource> do classpath.

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE: 42K0E

O aliasing de várias partes (<names>) não é suportado com <expr> pois não é uma função geradora.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

A expressão <expr> não suporta mais de uma fonte.

MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION

SQLSTATE: 42K0E

A coluna <measureColumn> de medida na vista métrica não pode referenciar colunas de dimensão (<dimensionColumn>).

MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF

SQLSTATE: 42K0E

A referência <measureColumn> não qualificada da coluna de medida na vista métrica multi-fonte não é permitida. Por favor, qualifique a coluna de medidas com o pseudónimo de origem.

MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION

SQLSTATE: 42K0E

A expressão de agregação sobre múltiplas fontes na vista métrica não é suportada: <expr>.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

Não é permitido implementar várias interfaces UDF, classe UDF <className>.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

Cláusulas ou opções mutuamente exclusivas <clauses>. Por favor, remova uma destas cláusulas.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

A consulta de entrada espera um <expectedType>, mas a tabela subjacente é um <givenType>.

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

Os parâmetros nomeados não são suportados para a função <functionName>; Em vez disso, tente novamente a consulta com argumentos posicionais para a chamada de função.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

Não é possível chamar a função <functionName> porque as referências de argumento nomeado não são suportadas. Neste caso, a referência de argumento nomeada foi <argument>.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

Não é possível chamar a função <functionName> porque as referências de argumento nomeado não estão habilitadas aqui.

Neste caso, a referência de argumento nomeada foi <argument>.

Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

Não é possível criar o namespace <nameSpaceName> porque já existe.

Escolha um nome diferente, solte o namespace existente ou adicione a cláusula IF NOT EXISTS para tolerar namespace pré-existente.

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

Não é possível soltar um namespace <nameSpaceNameName> porque ele contém objetos.

Use DROP NAMESPACE...CASCADE para eliminar o namespace e todos os seus objetos.

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

O namespace <nameSpaceName> não pode ser encontrado. Verifique a ortografia e a correção do namespace.

Se você não qualificou o nome com, verifique a saída current_schema() ou qualifique o nome com o corretamente.

Para tolerar o erro na queda use DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE: KD00F

Falha na solicitação nativa. requestId: <requestId>, nuvem: <cloud>, operação: <operation>

solicitação: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

Erro: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

A Fonte de Dados XML Nativa não está habilitada neste cluster.

NEGATIVE_SCALE_DISALLOWED

SQLSTATE: 0A000

Não é permitida uma escala negativa: «<scale>». Defina a configuração <sqlConf> como "true" para permiti-la.

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE: 22003

Encontrou o valor negativo em <frequencyExpression>: <negativeValue>, mas esperava um valor integral positivo.

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

Não é permitido usar uma função agregada no argumento de outra função agregada. Utilize a função de agregação interna numa subconsulta.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

Não são permitidos comandos EXECUTE IMMEDIATE aninhados. Certifique-se de que a consulta SQL fornecida (<sqlString>) não contenha outro comando EXECUTE IMMEDIATE.

NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Detetaram referências <expression> ao âmbito externo na subconsulta lateral que não é suportada. Por favor, certifique-se de que a subconsulta lateral não contém subconsultas que referenciam atributos de escopos externos aninhados.

Referências nestadas em subconsulta não são suportadas

SQLSTATE: 0A000

Detetadas referências <expression> de escopo externo na subconsulta que não são suportadas.

VIOLAÇÃO_DE_CONSTRANGIMENTO_DE_VERIFICAÇÃO_NOVA

SQLSTATE: 23512

A nova restrição de verificação (<expression>) não pode ser adicionada porque seria violada pelos dados existentes na tabela <tableName>. Certifique-se de que todas as linhas existentes satisfaçam a restrição antes de adicioná-la.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

O(s) campo(s) <nonExistFields> do(s) não existe(m). Campos disponíveis: <fieldNames>

CONSTRAINTE_DE_VERIFICAÇÃO_NÃO_DETERMINÍSTICA

SQLSTATE: 42621

A restrição <checkCondition> de verificação não é determinística. As restrições de verificação devem conter apenas expressões determinísticas.

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

A função <funcName> requer que o parâmetro <paramName> seja uma expressão dobrável do tipo <paramType>, mas o argumento real é um não-dobrável.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Quando há mais de uma cláusula MATCHED em uma declaração MERGE, apenas a última cláusula MATCHED pode omitir a condição.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma declaração MERGE, apenas a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Quando há mais de uma cláusula NOT MATCHED [BY TARGET] em uma declaração MERGE, apenas a última cláusula NOT MATCHED [BY TARGET] pode omitir a condição.

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

É necessário expressões literais para valores de pivô, detectadas em <expression>.

NON_PARTITION_COLUMN

SQLSTATE: 42000

PARTITION cláusula não pode conter a coluna não-partição: <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

A função de janela não é suportada no <windowFunc> (como coluna <columnName>) no streaming de DataFrames/Datasets.

O Streaming Estruturado suporta apenas a agregação de janela de tempo usando a função WINDOW. (especificação da janela: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

Não permitido na cláusula FROM:

Para mais detalhes, consulte NOT_ALLOWED_IN_FROM

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE: 42601

Não permitido na tubulação da cláusula WHERE.

Para mais detalhes, consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

A expressão <expr> utilizada para a rotina ou cláusula <name> deve ser uma constante STRING que é NOT NULL.

Para mais detalhes, ver NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

A operação <operation> não é permitida para <tableIdentWithDB> porque não é uma tabela particionada.

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a cláusula FROM ou redefina <functionName> como uma função escalar.

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da cláusula FROM ou redefina <functionName> como uma função de tabela.

NOT_ENOUGH_ARGS

SQLSTATE: 42605

A função <functionName> espera pelo menos <minNum> parâmetros, mas recebe <actualNum> (<actualArgs>).

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

NULL valor apareceu no campo não anulável: <walkedTypePath>Se o esquema for inferido a partir de um tuple/case class Scala ou de um bean Java, tente usar scala.Option[_] ou outros tipos anuláveis (como java.lang.Integer em vez de int/scala.Int).

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

A atribuição de um NULL não é permitida aqui.

Para mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN não é suportado para alterar a coluna <table><originName> com tipo <originType> para <newName> com tipo <newType>.

NOT_SUPPORTED_CHANGE_SAME_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN não é suportado para alterar a coluna <table> de <fieldName>, incluindo os seus campos aninhados várias vezes no mesmo comando.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> não é suportado para tabelas v2.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> não é suportado, se você quiser ativá-lo, defina "spark.sql.catalogImplementation" como "hive".

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Comando não suportado no catálogo JDBC:

Para mais detalhes, ver NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> não é suportado num <endpoint>SQL.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> não é suportado na computação sem servidor.

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

Esperava-se um codificador não resolvido, mas <attr> foi encontrado.

NO_ACTIVE_TRANSACTION

SQLSTATE: 25000

Não há nenhuma transação ativa para <action>.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

Não é possível determinar o valor padrão porque <colName> não é anulável e não tem valor por defeito.

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

Nenhum manipulador para UDAF '<functionName>'. Use sparkSession.udf.register(...) em vez disso.

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: 22KD1

Nenhum local externo pai foi encontrado para o caminho '<path>'. Crie uma localização externa num dos caminhos pai e depois tente novamente executar a consulta ou o comando.

NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

TABLE <table> não tem uma restrição de chave primária.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

Não é possível encontrar <catalystFieldPath> no esquema Protubuf.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: nenhum atribuído

Nenhum local de armazenamento foi encontrado para a tabela '<tableId>' ao gerar credenciais de tabela. Verifique o tipo de tabela e o URL do local da tabela e, em seguida, tente novamente a consulta ou o comando.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 42704

O catálogo '<catalog>' não foi encontrado. Verifique o nome do catálogo e tente novamente a consulta ou o comando.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: nenhum atribuído

A sala limpa '<cleanroom>' não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde ao nome de uma sala limpa existente válida e, em seguida, tente novamente a consulta ou o comando.

NO_SUCH_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

Restrição <constraint> não encontrada em <identifier>.

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE: KD000

A credencial '<credential>' não existe. Verifique se o nome da credencial está escrito corretamente e corresponde ao nome de uma credencial existente válida e, em seguida, tente novamente a consulta ou o comando.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: nenhum atribuído

A localização externa '<externalLocation>' não existe. Verifique se o nome do local externo está correto e tente novamente a consulta ou o comando.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: nenhum atribuído

O metastore não foi encontrado. Peça ao administrador da conta para atribuir um metastore ao espaço de trabalho atual e, em seguida, tente novamente a consulta ou o comando.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: nenhum atribuído

O provedor de compartilhamento '<providerName>' não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde ao nome de um nome de provedor existente válido e, em seguida, tente novamente a consulta ou o comando novamente.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: nenhum atribuído

O destinatário '<recipient>' não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde ao nome de um destinatário existente válido e, em seguida, tente novamente a consulta ou o comando novamente.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: nenhum atribuído

A partilha '<share>' não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde ao nome de um compartilhamento existente válido e, em seguida, tente novamente a consulta ou o comando novamente.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: nenhum atribuído

A credencial de armazenamento '<storageCredential>' não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde ao nome de uma credencial de armazenamento existente válida e, em seguida, tente novamente a consulta ou o comando.

NO_SUCH_USER_EXCEPTION

SQLSTATE: nenhum atribuído

O usuário '<userName>' não existe. Verifique se o usuário ao qual você concede permissão ou altera a propriedade está escrito corretamente e corresponde ao nome de um usuário existente válido e, em seguida, tente novamente a consulta ou o comando novamente.

NO_UDF_INTERFACE

SQLSTATE: 38000

A classe <className> UDF não implementa nenhuma interface UDF.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

A coluna ou campo <name> é anulável enquanto é necessário que não seja anulável.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

Os atributos de ID de linha não podem ser anuláveis: <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

A opção de leitura/gravação da fonte de dados <option> não pode ter valor nulo.

NULL_MAP_KEY

SQLSTATE: 2200E

Não é possível usar null como chave de mapa.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável fornecida <varName> é nula.

NULL_VALUE_SIGNAL_STATEMENT

SQLSTATE: 22004

Os argumentos da instrução de sinal exigem valores não nulos, mas <argument> receberam um valor nulo.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

O valor <value> não pode ser interpretado como numérico, pois tem mais de 38 dígitos.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

Para mais detalhes, consulte NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> só pode ser realizada em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns> colunas e a entrada <invalidOrdinalNum> tem <invalidNumColumns> colunas.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

O número de aliases fornecidos não corresponde ao número de colunas de saída.

Nome da função: <funcName>; número de pseudónimos: <aliasesNum>; Número de colunas de saída: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

Nenhuma declaração de identidade personalizada foi fornecida.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

A função de chamada <functionName> não é suportada neste <location>; <supportedFunctions> apoiados aqui.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

A operação SQL <operation> só é suportada em conectores Databricks SQL com suporte ao Unity Catalog.

OPERATION_CANCELED

SQLSTATE: HY008

A operação foi cancelada.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

A operação <operation> requer o Unity Catalog habilitado.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

No modo de sessão somente leitura, <plan> não é suportado.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

ORDER BY posição <index> não está na lista de seleção (intervalo válido é [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Não é possível criar um conversor Parquet para o tipo de dados <dataType> cujo tipo Parquet é <parquetType>.

Para mais detalhes, ver PARQUET_CONVERSION_FAILURE

PARQUET_TYPE_ILLEGAL

SQLSTATE: 42846

Tipo de Parquet ilegal: <parquetType>.

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE: 42846

Tipo de Parquet não reconhecido: <field>.

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE: 42846

Tipo de parquet ainda não suportado: <parquetType>.

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

Erro de sintaxe, instrução vazia inesperada.

PARSE_MODE_UNSUPPORTED

SQLSTATE: 42601

A função <funcName> não suporta o <mode> modo. Os modos aceitáveis são PERMISSIVE e FAILFAST.

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

Erro de sintaxe em ou perto de <error> <hint>.

PARTITIONS_ALREADY_EXIST

Estado SQL: 428FT

Não é possível ADICIONAR ou RENAME PARA partição(ões) <partitionList> na tabela <tableName> porque elas já existem.

Escolha um nome diferente, solte a partição existente ou adicione a cláusula IF NOT EXISTS para tolerar uma partição pré-existente.

PARTITIONS_NOT_FOUND

Estado SQL: 428FT

A(s) partição(ões) <partitionList> não pode ser encontrada na tabela <tableName>.

Verifique a especificação da partição e o nome da tabela.

Para tolerar o erro ao deixar cair, use ALTER TABLE... DROP IF EXISTS PARTITION.

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42000

A coluna de partição <column> não encontrada no esquema <schema>. Forneça a coluna existente para particionamento.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

A localização da partição <locationPath> já existe na tabela <tableName>.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

Falhou ao executar a instrução ALTER TABLE SET PARTITION LOCATION, porque o

local da partição <location> não está sob o diretório de tabela <table>.

Para corrigi-lo, defina o local da partição para um subdiretório de <table>.

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> não é permitido na tabela <tableName> , uma vez que o armazenamento de metadados de partição não é suportado no Unity Catalog.

PARTITION_NUMBER_MISMATCH

SQLSTATE: KD009

Número de valores (<partitionNumber>) não correspondeu ao tamanho do esquema (<partitionSchemaSize>): os valores são <partitionValues>, esquema é <partitionSchema>, caminho do arquivo é <urlEncodedPath>.

Por favor, rematerialize a mesa ou entre em contato com o proprietário.

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE: 42S23

A expressão <expression> deve estar dentro de 'partitionedBy'.

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

O caminho <outputPath> já existe. Defina o modo como "substituir" para substituir o caminho existente.

PATH_NOT_FOUND

SQLSTATE: 42K03

O caminho não existe: <path>.

PATH_RESOLUTION_ERROR

SQLSTATE: KD013

Não foi possível resolver o caminho <path>. Causado por: <causedBy>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

Deserializar o plano protobuf do Photon requer pelo menos <size> bytes, o que excede o limite permitido.

limite de <limit> bytes. Isto pode ser devido a um plano muito grande ou à presença de um plano muito grande

esquema amplo. Tente simplificar a consulta, remover colunas desnecessárias ou desativar o Photon.

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

O plano de protobuf de fóton serializado tem tamanho <size> bytes, o que excede o limite de

<limit> Bytes. O tamanho serializado dos tipos de dados no plano é de <dataTypeSize> bytes.

Isso pode ser devido a um plano muito grande ou à presença de um esquema muito amplo.

Considere reescrever a consulta para remover operações e colunas indesejadas ou desativar o Photon.

PIPELINE_DATASET_WITHOUT_FLOW

SQLSTATE: 0A000

O conjunto <identifier> de dados de pipeline não tem fluxos definidos. Anexe uma consulta com a definição do conjunto de dados ou defina explicitamente pelo menos um fluxo que grava no conjunto de dados.

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42K03

Pipeline '<pipelineId>' não existe

Para mais detalhes, ver PIPELINE_DOES_NOT_EXIST

PIPELINE_DUPLICATE_IDENTIFIERS

SQLSTATE: 42710

Um identificador duplicado foi encontrado para elementos registrados no gráfico de fluxo de dados do pipeline.

Para mais detalhes, ver PIPELINE_DUPLICATE_IDENTIFIERS

Erro de Registo de Elemento de Gráfico SQL de Pipeline

SQLSTATE: 42000

<message>

<offendingQuery>

<codeLocation>

PIPELINE_STORAGE_ROOT_INVALID

SQLSTATE: 42K03

A raiz de armazenamento de pipeline deve ser um caminho absoluto com um esquema de URI (por exemplo, file://, s3a://, hdfs://). Recebido: <storage_root>.

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE: 0A000

A expressão <expr> não agrupada é fornecida como um argumento para o operador |>AGGREGATE pipe, mas não contém nenhuma função agregada, atualize-a para incluir uma função agregada e, em seguida, tente novamente a consulta.

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

A função de agregação <expr> não é permitida ao utilizar a cláusula com o operador pipe |><clause>; por favor, utilize a cláusula com o operador pipe |>AGGREGATE.

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Valor de pivô inválido '<value>': o tipo de dados do valor <valueType> não corresponde ao tipo de dados da coluna de pivô <pivotType>.

POLICY_ALREADY_EXISTS

SQLSTATE: 42000

Não é possível criar política <policyName> porque ela já existe.

Escolha um nome diferente ou remova a política existente para tolerar conexões existentes.

POLICY_NOT_FOUND

SQLSTATE: 22023

Não é possível executar o <commandType> comando porque a política <policyName> em <securableFullname> não pode ser encontrada.

Verifique a ortografia e a correção.

POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Não é possível criar política para o tipo <securableType> seguro. Tipos protegíveis suportados: <allowedTypes>.

PREVIEW_FEATURE_NOT_ENABLED

SQLSTATE: 56038

A funcionalidade <featureName> de pré-visualização não está ativada. Por favor, contacte o administrador do seu espaço de trabalho para ativar esta funcionalidade através do portal de pré-visualização.

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

Procedimento <procedureName> requer <expected> argumentos, mas <actual> foram fornecidos.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE com uma definição de rotina vazia não é permitido.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

O parâmetro <parameterName> é definido com o modo de parâmetro <parameterMode>. OUT e INOUT o parâmetro não podem ser omitidos ao invocar uma rotina e, por isso, não suportam uma DEFAULT expressão. Para continuar, remova a cláusula DEFAULT ou altere o modo de parâmetro para IN.

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

O procedimento armazenado não é suportado

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

O procedimento armazenado não é suportado com o Hive Metastore. Em vez disso, use o Catálogo Unity.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

Não foi possível encontrar dependência: <dependencyName>.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Erro ao ler o arquivo descritor Protobuf no caminho: <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

Procurar <field> no esquema Protobuf em <protobufSchema> deu <matchSize> correspondências. Candidatos: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Encontrado <field> no esquema Protobuf, mas não há correspondência no esquema SQL.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Incompatibilidade de tipo encontrada para o campo: <field>.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

As classes Java não são suportadas para <protobufFunction>. Entre em contato com o Suporte da Databricks para obter informações sobre opções alternativas.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

Não é possível localizar o Message <messageName> no Descritor.

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Não é possível chamar a função <functionName> SQL porque a fonte de dados Protobuf não está carregada.

Reinicie seu trabalho ou sessão com o pacote 'spark-protobuf' carregado, como usando o argumento --packages na linha de comando e, em seguida, tente novamente sua consulta ou comando novamente.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Tipo de protobuf ainda não suportado: <protobufType>.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

A tarefa no estágio de busca pubsub não pode ser repetida. Partição <partitionInfo> no estágio <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> não pode ser uma cadeia de caracteres vazia.

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

Tipo de chave inválido para PubSub dedup: <key>.

PS_INVALID_OPTION

SQLSTATE: 42000

A opção <key> não é suportada pelo PubSub. Ele só pode ser usado em testes.

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

Tipo inválido para <key>. Tipo esperado de <key> ser do tipo <type>.

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

Limite de leitura inválido no fluxo PubSub: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

UnsafeRow inválido para decodificar em PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>. A entrada UnsafeRow pode estar corrompida: <unsafeRow>.

PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION

SQLSTATE: 42000

A consulta ou comando falhou devido a uma opção de leitura inválida: in spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Atualize <audience> para corresponder ao seguinte formato: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} e tente novamente a consulta ou o comando.

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

Falha ao encontrar informações completas de autenticação do PubSub.

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

Não foi possível encontrar a opção necessária: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

Não foi possível mover os arquivos de ponto de verificação de dados brutos do <src> para o diretório de destino: <dest>.

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE: 42000

Forneça sua credencial de serviço Databricks ou suas credenciais de conta de serviço GCP.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

O fluxo PubSub não pode ser iniciado, pois há mais do que uma tentativa de obtenção falhada: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> deve estar dentro dos seguintes limites (<min>, <max>) excluindo ambos os limites.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

Os clusters compartilhados não oferecem suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

O conector de origem PubSub só está disponível em cluster com spark.speculation desabilitado.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

Ocorreu um erro ao tentar criar a subscrição <subId> no tópico <topicId>. Verifique se existem permissões suficientes para criar uma subscrição e tente novamente.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

Não é possível analisar bytes serializados para gerar proto.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset não é suportado sem fornecer um limite.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

Falha ao <action> fonte de dados Python <type>: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 38000

Falhou quando a fonte de dados de streaming em Python processa <action>: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

Estado SQL: 428HD

Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é atualmente incompatível com o esquema da tabela; Para continuar, entre em contato com o proprietário da tabela para atualizar a política:

Para mais detalhes, veja QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

Estado SQL: 428HD

Não é possível acessar a tabela referenciada porque uma diretiva de segurança de nível de linha atribuída anteriormente é atualmente incompatível com o esquema da tabela; Para continuar, entre em contato com o proprietário da tabela para atualizar a política:

Para mais detalhes, ver QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE: 57KD0

A execução da consulta foi cancelada devido ao excesso do tempo limite (<timeoutSec>s). Você pode aumentar o limite em segundos definindo <config>.

QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY

SQLSTATE: 0AKUC

Veja go/rowcolumncontrols-allowlist. O LogicalPlan <unknownLogicalPlan> é incompatível com a política RLS/CM.

QUERY_REJECTED

SQLSTATE: 08004

A execução da consulta foi rejeitada.

QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR

SQLSTATE: 42501

A configuração de armazenamento interno do espaço de trabalho impede que o Databricks acesse o armazenamento em nuvem.

QUERY_TAGS_NOT_IMPLEMENTED_ERROR

SQLSTATE: 0A000

As etiquetas de consulta ainda não são suportadas em SQL.

QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

Formato inválido para SET QUERY_TAGS comando.

QUERY_TAG_KEY_INVALID

SQLSTATE: 42000

Chave da etiqueta de consulta '<key>' Validação falhada.

QUERY_TAG_KEY_MAY_NOT_BE_EMPTY

SQLSTATE: 2200E

A chave da etiqueta de consulta pode não ser nula ou vazia. Os espaços em branco à frente e à saída são cortados nas teclas e valores.

QUERY_TAG_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD1

O número de etiquetas de consulta ultrapassou o limite máximo por sessão de <tagLimit> tags.

QUERY_TAG_VALUE_INVALID

SQLSTATE: 42000

Valor da etiqueta de consulta '<value>' Validação falhada.

QUERY_WATCHDOG_CHECK_FAILED

SQLSTATE: 42000

Consulta ao verificação do watchdog falhou.

Para mais detalhes, veja QUERY_WATCHDOG_CHECK_FAILED

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

A chamada da função <functionName> tem <parameterName> e <alternativeName> definidos, que são pseudônimos um do outro. Por favor, defina apenas um deles.

READ_FILES_CREDENTIALS_PARSE_ERROR

SQLSTATE: 42000

Ocorreu um erro ao analisar as credenciais temporárias da função read_files().

Para mais detalhes, ver READ_FILES_CREDENTIALS_PARSE_ERROR

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

O parâmetro necessário <functionName> da função <parameterName> deve ser atribuído na posição <expectedPos> sem o nome.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

Apenas os tipos TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ são suportados para o carimbo de data e hora de expiração do destinatário.

RECURSION_LEVEL_LIMIT_EXCEEDED

SQLSTATE: 42836

Limite <levelLimit> de nível de recursão atingido, mas a consulta não se esgotou, tente aumentá-lo como 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.

RECURSION_ROW_LIMIT_EXCEEDED

SQLSTATE: 42836

Limite <rowLimit> de linha de recursão atingido, mas a consulta não se esgotou, tente definir um valor maior LIMIT ao consultar a relação CTE.

RECURSIVE_CTE_IN_LEGACY_MODE

SQLSTATE: 42836

As definições recursivas não podem ser usadas no modo de precedência CTE herdado (spark.sql.legacy.ctePrecedencePolicy=LEGACY).

RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG

SQLSTATE: 42836

As definições recursivas não podem ser usadas quando o indicador inline herdado está definido como true (spark.sql.legacy.inlineCTEInCommands=true).

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Referência recursiva encontrada no esquema Protobuf, que não pode ser processada pelo Spark por padrão: <fieldDescriptor>. Tente definir a opção recursive.fields.max.depth 1 a 10. Não é permitido ir além de 10 níveis de recursão.

RECURSIVE_VIEW

SQLSTATE: 42K0H

A visualização recursiva <viewIdent> detetada (ciclo: <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

Referências a valores de coluna DEFAULT não são permitidas na cláusula PARTITION.

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

Não é possível construir um <relationName> que seja maior que o 8G.

REMAINDER_BY_ZERO

SQLSTATE: 22012

O restante por zero. Use try_mod para tolerar que o divisor seja 0 e devolva NULL em vez disso. Se necessário, defina <config> como "false" para ignorar esse erro.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

A solicitação HTTP remota falhou com o código <errorCode>e a mensagem de erro <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

Falhou em avaliar a <functionName> função SQL devido à incapacidade de analisar o JSON resultado da resposta HTTP remota; a mensagem de erro é <errorMessage>. Verifique a documentação da API: <docUrl>. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

Falha ao avaliar a função <functionName> SQL devido à incapacidade de processar a resposta HTTP remota inesperada; A mensagem de erro é <errorMessage>. Verifique a documentação da API: <docUrl>. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

A solicitação remota falhou depois de tentar novamente <N> vezes; o último código de erro HTTP com falha foi <errorCode> e a mensagem foi <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

Não foi possível avaliar a função <functionName> SQL porque <errorMessage>. Verifique os requisitos em <docUrl>. Corrija o problema indicado na mensagem de erro e tente novamente a consulta.

FUNÇÃO_DE_CONSULTA_REMOTA_PARÂMETROS_DE_CONETOR_NÃO_SUPORTADOS

SQLSTATE: 4274K

Não são suportados parâmetros <parameterNames> para a função remote_query, que consulta uma ligação do tipo<connectionName> '<connectionType>'.

Para mais detalhes, consulte REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

A falha ocorreu porque <sourcePath> não foi encontrado.

REPEATED_CLAUSE

SQLSTATE: 42614

A cláusula <clause> pode ser utilizada uma vez, no máximo, por operação <operation>.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

O parâmetro necessário <routineName> da rotina <parameterName> foi atribuído na posição <positionalIndex> sem o nome.

Atualize a chamada de função para remover o argumento nomeado com <parameterName> para este parâmetro ou remover o argumento posicional.

argumento em <positionalIndex> e, em seguida, tente executar a consulta novamente.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

Não é possível invocar <routineName> de rotina porque o parâmetro chamado <parameterName> é necessário, mas a chamada de rotina não forneceu um valor. Atualize a chamada de rotina para fornecer um valor de argumento (posicionalmente no índice <index> ou pelo nome) e tente novamente a consulta.

REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

A cláusula de marca de água exige um nome explícito se a expressão for especificada, mas obteve <sqlExpr>.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> requer um namespace de parte única, mas tem <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

A opção 'rescuedDataColumn' do leitor da API de DataFrame é mutuamente exclusiva com a opção 'singleVariantColumn' da API de DataFrame.

Remova um deles e, em seguida, tente novamente a operação DataFrame novamente.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

A gravação contém as colunas reservadas <columnList> que são utilizadas.

internamente como metadados para o Change Data Feed. Para poder gravar na tabela, renomeie ou elimine.

estas colunas ou desative o Feed de Dados de Alteração na tabela, definindo

<config> para falsear.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

A opção <option> tem valores restritos em clusters compartilhados para a fonte <source>.

Para mais detalhes, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

Não é possível criar o <newRoutineType> <routineName> porque já existe um <existingRoutineType> desse nome.

Escolha um nome diferente, solte ou substitua o <existingRoutineType>existente ou adicione a cláusula IF NOT EXISTS para tolerar um <newRoutineType>pré-existente.

ROUTINE_NOT_FOUND

SQLSTATE: 42883

A rotina <routineName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.

Se você não qualificou o nome com um esquema e catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e catálogo corretos.

Para tolerar o erro na queda, use DROP...IF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

O rotina <routineName> não suporta o parâmetro <parameterName> especificado na posição <pos>.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

A função <routineName> não pode ser criada porque o nome de classe especificado '<className>' está reservado para uso do sistema. Renomeie a classe e tente novamente.

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE: 0A000

Os filtros de linha não puderam ser resolvidos em <tableName> porque havia uma incompatibilidade entre filtros de linha herdados de políticas e filtros de linha explicitamente definidos. Para continuar, desative o Controle de Acesso Baseado em Atributos (ABAC) e entre em contato com o suporte do Databricks.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

Não há suporte para a criação de restrição CHECK na tabela <tableName> com políticas de segurança em nível de linha.

ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN

SQLSTATE: 42703

Uma coluna com nome <objectName> referenciada em filtro de linhas ou parâmetro de função de máscara para coluna não pode ser resolvida.

Isso pode acontecer se o esquema da tabela subjacente tiver sido alterado e a coluna referenciada não existir mais.

Por exemplo, isso pode ocorrer se a coluna foi removida em um sistema externo (por exemplo, uma tabela federada) ou se uma REPLACE operação na tabela descartou a coluna.

Para resolver isto, os utilizadores com privilégios de gestão na tabela podem inspecionar os filtros de linha atuais e máscaras de coluna usando DESCRIBE TABLE EXTENDED, e eliminar ou recriar quaisquer que refiram colunas inexistentes usandoSET.../ALTER TABLEDROP ROW FILTER ou MASK.

Nota: Databricks introduziu uma melhoria de segurança para preservar as máscaras de coluna durante as operações REPLACE quando o novo esquema inclui a mesma coluna, ainda que a máscara não seja especificada. Isso evita a perda não intencional de políticas nas tabelas.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

Uma instrução <statementType> tentou atribuir uma diretiva de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>, o que é inválido.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Não há suporte para políticas de segurança em nível de linha para <tableName>:

Para mais detalhes, consulte ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

Não é possível fazer <statementType> <columnName> a partir da tabela <tableName> porque ela é referenciada numa diretiva de segurança ao nível de linha. O proprietário da tabela deve remover ou alterar esta política antes de prosseguir.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

As operações MERGE INTO não suportam políticas de segurança a nível de linha na tabela de origem <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO operação não suporta a escrita na tabela <tableName> com políticas de segurança ao nível de linha.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

Esta instrução tentou atribuir uma diretiva de segurança em nível de linha a uma tabela, mas a coluna referenciada <columnName> tinha várias partes de nome, o que é inválido.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

As políticas de segurança em nível de linha são suportadas apenas no Unity Catalog.

ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

Não é possível criar um índice ON TABLE <tableName> secundário porque a tabela tem uma política de segurança ao nível da linha definida.

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

O comando SHOW PARTITIONS não é suportado para tabelas<format> com diretiva de segurança em nível de linha.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> clone da tabela <tableName> com diretiva de segurança em nível de linha não é suportado.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Clonar a tabela <mode> para <tableName> com a política de segurança a nível de linha não é suportado.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

Não há suporte para o uso de uma constante como parâmetro em uma diretiva de segurança em nível de linha. Atualize o comando SQL para remover a constante da definição do filtro de linha e, em seguida, tente novamente o comando.

ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE

SQLSTATE: 0AKDC

Função <functionName> usada para a política de segurança de nível de linha tem parâmetro com tipo <dataType>de dados não suportado.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Não foi possível executar o comando <statementType> porque a atribuição da política de segurança ao nível da linha não é suportada para a fonte de dados de destino com um fornecedor de tabelas: "<provider>".

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Mais de uma linha retornada por uma subconsulta usada como uma linha.

ROW_VALUE_IS_NULL

SQLSTATE: 22023

Encontrou NULL numa sequência no índice <index>, esperava um valor diferente deNULL.

RULE_ID_NOT_FOUND

SQLSTATE: 22023

Não foi encontrado um id para o nome da regra "<ruleName>". Modifique RuleIdCollection.scala se estiver adicionando uma nova regra.

RUN_EMPTY_PIPELINE

SQLSTATE: 42617

Espera-se que os pipelines tenham pelo menos um conjunto de dados não temporário definido (tabelas, exibições persistentes), mas nenhum conjunto de dados não temporário foi encontrado em seu pipeline.

Por favor, verifique se incluiu os ficheiros fonte esperados e que o seu código-fonte inclui definições de tabelas (por exemplo, CREATE MATERIALIZED VIEW em código SQL, @dp.table em código Python).

SALESFORCE_DATA_SHARE_API_UNAUTHORIZED

SQLSTATE: 42505

Falha na autorização para a API de compartilhamento de dados do Salesforce. Verifique se os detalhes da conexão Databricks são fornecidos ao destino apropriado de compartilhamento de dados do Salesforce.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

Permissões não suportadas em bancos de dados/tabelas de exemplo.

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE: 42K0O

ScalarFunction <scalarFunc> não substitui o método 'produceResult(InternalRow)' com implementação personalizada.

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE: 42K0P

ScalarFunction <scalarFunc> não implementa ou substitui o método 'produceResult(InternalRow)'.

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

A subconsulta escalar correlacionada '<sqlExpr>' não está presente em GROUP BY, nem numa função agregada.

Adicione-o à GROUP BY na posição ordinal ou envolva-o em first() (ou first_value) se não importar qual valor obtém.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Mais de uma linha retornada por uma subconsulta usada como expressão.

SCDS_COMMIT_LOG_UNAVAILABLE

SQLSTATE: KD006

O registo de commit não existe com a localização do ponto de controlo=<checkpointLocation>.

SCDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Valor inválido para a opção de origem=<optionName> com errorMsg=<message>.

SCDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

O logaritmo de deslocamento não existe com localização do ponto de controlo=<checkpointLocation>.

SCDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

Falha ao especificar opção necessária=<optionName>.

SCHEDULE_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível adicionar <scheduleType> a uma tabela que já tenha <existingScheduleType>. Por favor, abandone o horário existente ou use ALTER TABLE...ALTER <scheduleType> ... para a alterar.

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

O período de agendamento para <timeUnit> deve ser um valor inteiro entre 1 e <upperBound> (inclusive). Recebido: <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

Não é possível criar o esquema <schemaName> porque já existe.

Escolha um nome diferente, solte o esquema existente ou adicione a cláusula IF NOT EXISTS para tolerar o esquema pré-existente.

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

Não é possível soltar um esquema <schemaName> porque ele contém objetos.

DROP SCHEMA ... CASCADE Use para eliminar o esquema e todos os seus objetos.

SCHEMA_NOT_FOUND

SQLSTATE: 42704

O esquema <schemaName> não pode ser encontrado. Verifique a ortografia e a correção do esquema e do catálogo.

Se não qualificaste o nome com um catálogo, verifica a saída do current_schema() ou qualifica o nome com o catálogo correto.

Para tolerar o erro na queda use DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

Não foi possível inicializar o esquema do registo de esquemas. <reason>.

SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH

SQLSTATE: 42000

Não é possível criar índice <indexName> de pesquisa no catálogo <indexCatalog> e no esquema <indexSchema>. O índice deve ser criado no mesmo catálogo e esquema da tabela <tableName> (<tableCatalog>base).<tableSchema>

SEARCH_INDEX_INVALID_PARAMETERS

SQLSTATE: 42K06

Não é possível criar um índice de pesquisa, é dado parâmetro inválido:

Para mais detalhes, veja SEARCH_INDEX_INVALID_PARAMETERS

SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE

SQLSTATE: 42P07

A tabela com o nome <indexName> do índice já existe. Por favor, forneça um nome de índice personalizado que não conflite com tabelas existentes.

SEARCH_INDEX_OUTDATED_SCHEMA

SQLSTATE: KD007

O índice <indexName> de pesquisa tem um esquema desatualizado. Recrie o índice usando:

DROP SEARCH INDEX <indexName>;

CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);

SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SQLSTATE: 42809

<context> requer colunas com tipos pesquisáveis (STRING COLLATE UTF8_BINARY, VARIANT, ou ARRAY).

Para mais detalhes, veja SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS

SQLSTATE: 42804

SEARCH requer <argument> que o argumento seja literais de cadeia, mas <actualExpr> foi dado. <possibleOptionsMessage>

SECONDARY_INDEX_REQUIRES_MANAGED_TABLE

SQLSTATE: 42809

Não é possível <operation> ON TABLE <tableName>. A operação só pode ser realizada em tabelas geridas.

Para converter uma tabela numa tabela gerida, use o ALTER TABLE <tableName> SET MANAGED comando.

Para obter mais informações, consulte https://docs.databricks.com/aws/en/tables/convert-external-managed

SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT

SQLSTATE: 42809

Não posso <operation> ON TABLE <tableName>

A operação só pode ser realizada em tabelas com os seguintes formatos: <supportedFormats>.

Verifique o formato da tabela com DESCRIBE DETAIL <tableName>.

Se o formato atual for Parquet ou Apache Iceberg, pode convertê-lo permanentemente com CONVERT TO DELTA <tableName>; https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta

Caso contrário, recrie a tabela num dos formatos suportados.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

O segundo argumento da função <functionName> precisa ser um inteiro.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

Não é possível executar <commandType> comando com uma ou mais referências não criptografadas à função SECRET; Por favor, criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente

SECURÁVEL_NÃO_EXISTE

SQLSTATE: 42P01

<securable> não existe.

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

A expressão semente <seedExpr> da expressão <exprWithSeed> deve ser dobrável.

SERVER_IS_BUSY

SQLSTATE: 08KD1

O servidor está ocupado e não pôde lidar com a solicitação. Aguarde um momento e tente novamente.

SET_QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

Falhei em executar o SET comando porque a sintaxe era inválida. A sintaxe esperada para este comando é SET QUERY_TAGS ou SET QUERY_TAGS['chave'] = 'valor'. Por favor, corrija o comando para se conformar a esta sintaxe e depois volta a executá-lo.

SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM

SQLSTATE: 08006

O servidor SFTP <host>:<port> está usando o algoritmo SSH RSA obsoleto para troca de chaves.

Considere atualizar o servidor SFTP para usar um algoritmo mais seguro, como ECDSA ou ED25519.

Como alternativa, ignore esse erro definindo <escapeHatchConf> como true

SFTP_UNABLE_TO_CONNECT

SQLSTATE: 08006

Falha ao conectar-se ao servidor SFTP <host> na porta <port> com o nome de utilizador <user>.

<error>

SFTP_UNKNOWN_HOST_KEY

SQLSTATE: 08006

A chave do host do servidor <host> SFTP é desconhecida ou mudou.

Por favor, verifique a mensagem de erro abaixo e depois forneça a impressão digital chave no Key fingerprint campo.

Por exemplo, se a mensagem disser 'ECDSA a impressão digital da chave é SHA256:XXX/YYY', submeta 'SHA256:XXX/YYY' como impressão digital da chave.

Mensagem de erro de ligação:

<error>

SFTP_USER_DOES_NOT_MATCH

SQLSTATE: 08006

O utilizador recuperado da credencial <credentialUser> não corresponde ao daquele especificado no caminho SFTP <path>.

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE: 42K05

SHOW COLUMNS com namespaces conflitantes: <namespaceA> != <namespaceB>.

SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

A validação da(s) opção(ões) de fonte de dados do Snowflake falhou.

Para mais detalhes, consulte SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy deve ser usado em conjunto com bucketBy.

SPARK_JOB_CANCELLED

SQLSTATE: HY008

Tarefa <jobId> cancelada <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

Um CREATE TABLE sem lista de colunas explícitas não pode especificar informações de bucketing.

Por favor, use o formulário com uma lista explícita de colunas e especifique as informações de bucketing.

Como alternativa, permita que as informações de segmentação sejam inferidas pela omissão da cláusula.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

Não é possível especificar CLUSTER BY e CLUSTERED BY INTO BUCKETS.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

Não é possível especificar CLUSTER BY e PARTITIONED BY.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

Um CREATE TABLE sem lista de colunas explícita não pode especificar PARTITIONED BY.

Por favor, use o formulário com lista de colunas explícitas e especifique PARTITIONED BY.

Alternativamente, permita que o particionamento seja inferido omitindo a cláusula PARTITION BY.

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

A configuração de SQL <sqlConf> não pode ser encontrada. Verifique se a configuração existe.

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE: 07501

Não são permitidos scripts SQL em comandos EXECUTE IMMEDIATE. Certifique-se de que a consulta SQL fornecida (<sqlString>) não é Script SQL. Certifique-se de que o sql_string é uma instrução SQL bem formada e não contém BEGIN e END.

SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED

SQLSTATE: 54000

O número máximo de caracteres em um script SQL (id: <scriptId>) foi excedido. O número máximo de caracteres permitido é <maxChars>, e o script tinha <chars> caracteres.

SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED

SQLSTATE: 54000

O número máximo de linhas em um script SQL (id: <scriptId>) foi excedido. O número máximo de linhas permitido é <maxLines>, e o script tinha <lines> linhas.

SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED

SQLSTATE: 54KD1

O número máximo de declarações de variáveis locais em um script SQL (id: <scriptId>) foi excedido. O número máximo de declarações permitido é <maxDeclarations>, e o script tinha <declarations>.

SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED

SQLSTATE: 54000

O número máximo de chamadas de procedimento aninhadas foi excedido com o procedimento (nome: <procedureName>, callId: <procedureCallId>). O número máximo permitido de chamadas de procedimento aninhadas é <limit>.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

Erro transitório ao aceder o caminho de preparação de destino <path>, por favor tente novamente daqui a alguns minutos.

STAR_GROUP_BY_POS

SQLSTATE: 0A000

O asterisco (*) não é permitido numa lista de seleção quando é usada a posição ordinal GROUP BY.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

Falha ao executar a operação do processador com estado=<operationType> com manipulador inválido=<handleState>.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

Falha ao executar a operação do processador com estado =<operationType> com modo de tempo inválido =<timeMode>

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

A variável de estado com nome <stateVarName> já foi definida no StatefulProcessor.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

Não é possível usar TTL para state=<stateName> em timeMode=<timeMode>, em vez disso, invoque TimeMode.ProcessingTime().

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

A duração do TTL deve ser maior que zero para State store operation=<operationType> on state=<stateName>.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

Modo de tempo desconhecido <timeMode>. Os modos do "timeMode" aceites são 'none', 'processingTime', 'eventTime'

STATE_REPARTITION_INVALID_CHECKPOINT

SQLSTATE: 55019

A localização do posto de controlo fornecida está<checkpointLocation> num estado inválido.

Para mais detalhes, veja STATE_REPARTITION_INVALID_CHECKPOINT

STATE_REPARTITION_INVALID_PARAMETER

SQLSTATE: 42616

O parâmetro <parameter> de repartição é inválido:

Para mais detalhes, veja STATE_REPARTITION_INVALID_PARAMETER

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

Falha ao criar família de colunas com caractere inicial sem suporte e nome=<colFamilyName>.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

Falha ao executar a operação de família de colunas=<operationName> com nome inválido=<colFamilyName>. O nome da família da coluna não pode estar vazio ou incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=default

STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED

SQLSTATE: KD002

<msg>

STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY

SQLSTATE: 42K03

A localização <checkpointLocation> do ponto de controlo deve estar vazia no lote 0

Por favor, utilize uma nova localização do ponto de controlo ou apague os dados existentes na localização do ponto de controlo.

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

Transformação de esquema incompatível com família de colunas=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE: 42K06

StateStore <inputClass> não suporta iterador reutilizável.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

O identificador não foi inicializado para este StatefulProcessor.

Use apenas o StatefulProcessor dentro do operador transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

Número incorreto de ordinais de ordenação,<numOrderingCols>, para o codificador de varredura de intervalos. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

Número incorreto de colunas de prefixo<numPrefixCols> para codificador de varredura de prefixo. As colunas de prefixo não podem ser zero nem ser maior ou igual ao número de colunas do esquema.

STATE_STORE_INVALID_AVRO_SCHEMA

SQLSTATE: 3F000

Foi detetado um esquema inválido para a codificação Avro.

Para mais detalhes, consulte STATE_STORE_INVALID_AVRO_SCHEMA

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

Não é possível alterar <configName> de <oldConfig> para <newConfig> entre reinicializações. Defina <configName> como <oldConfig>ou reinicie com um novo diretório de pontos de verificação.

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

O Fornecedor de Armazenamento de Estado <inputClass> fornecido não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

Não é possível alterar <stateVarName> para <newType> entre as reinicializações da consulta. Defina <stateVarName> como <oldType>ou reinicie com um novo diretório de pontos de verificação.

Esquema de chave de armazenamento de estado não compatível (STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE)

SQLSTATE: 42000

O esquema de chave fornecido não corresponde ao esquema existente no estado do operador.

Esquema existente=<storedKeySchema>; esquema fornecido=<newKeySchema>.

Para executar a consulta sem validação de esquema, defina spark.sql.streaming.stateStore.stateSchemaCheck como false.

Observe que a execução sem validação de esquema pode ter um comportamento não determinístico.

STATE_STORE_NATIVE_ROCKSDB_TIMEOUT

SQLSTATE: 58030

Ao aceder ao armazenamento de estado do RocksDB para operação de streaming com estado, a chamada à função <funcName> nativa do RocksDB atingiu o tempo limite após esperar <timeoutMs> ms. Tente novamente e reinicie o cluster se o erro persistir.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

A coluna de ordenação do tipo nulo com nome=<fieldName> e índice=<index> não é suportada para o codificador de pesquisa por intervalos.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

O Provedor de Armazenamento de Estado <inputClass> fornecido não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.

Portanto, ele não suporta a opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.

STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS

SQLSTATE: 42K04

O ficheiro <zipFilePath> zip snapshot do RocksDB já existe. Isto significa que o snapshot já foi carregado para DFS.

(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

O número de arquivos de esquema de estado <numStateSchemaFiles> excede o número máximo de arquivos de esquema de estado para esta consulta: <maxStateSchemaFiles>.

Adicionado: <addedColumnFamilies>, Removido: <removedColumnFamilies>

Defina 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' para um número maior ou reverta as alterações do esquema de estado

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

State store operation=<operationType> não suportado na família de colunas ausente=<colFamilyName>.

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

O número de evoluções de esquema de estado <numSchemaEvolutions> excede o número máximo de evoluções de esquema de estado, <maxSchemaEvolutions>, permitido para esta família de colunas.

Família de colunas ofensivas: <colFamilyName>

Defina 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' para um número maior ou reverta as modificações do esquema de estado

STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE

SQLSTATE: 42000

O esquema de valor fornecido não corresponde ao esquema existente no estado do operador.

Esquema existente=<storedValueSchema>; esquema fornecido=<newValueSchema>.

Para executar a consulta sem validação de esquema, defina spark.sql.streaming.stateStore.stateSchemaCheck como false.

Observe que a execução sem validação de esquema pode ter um comportamento não determinístico.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

A coluna de ordenação de tamanho variável com nome=<fieldName> no índice=<index> não é suportada para o codificador de varredura por intervalos.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

A coluna de partição estática <staticName> também está especificada na lista de colunas.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>. Certifique-se de que a consulta foi executada e que qualquer microlote foi confirmado antes de interromper.

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

As opções <options> não podem ser especificadas em conjunto. Por favor, especifique um.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation> e batchId=<batchId>.

O arquivo não existe ou o arquivo está corrompido.

Execute novamente a consulta de streaming para construir os metadados do operador e relatar para as comunidades ou fornecedores correspondentes se o erro persistir.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. Opções: <sourceOptions>.

Execute novamente a consulta de streaming para construir o esquema de estado e relatar para as comunidades ou fornecedores correspondentes se o erro persistir.

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Valor inválido para a opção de origem '<optionName>':

Para mais detalhes, ver STDS_INVALID_OPTION_VALUE

STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED

SQLSTATE: KD002

A leitura de estado em diferentes versões do formato checkpoint não é suportada.

startBatchId=<startBatchId>, endBatchId=<endBatchId>.

startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

O Estado não tem qualquer partição. Verifique se a consulta aponta para o estado válido. Opções: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

O registo de offset para <batchId> não existe, localização do ponto de verificação: <checkpointLocation>.

Especifique o ID do lote que está disponível para consulta - você pode consultar os IDs de lote disponíveis usando a fonte de metadados de estado.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

Os metadados não estão disponíveis para o registo de deslocamento para <batchId>, localização do ponto de verificação: <checkpointLocation>.

O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

'<optionName>' deve ser especificado.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

A Execução de Consultas Adaptativa não é suportada para operadores com estado no Streaming Estruturado.

STREAMING_CHECKPOINT_METADATA_ERROR

SQLSTATE: 42616

Erro com metadados de ponto de verificação de streaming.

Para mais detalhes, ver STREAMING_CHECKPOINT_METADATA_ERROR

STREAMING_CHECKPOINT_PIN_BATCH_ERROR

SQLSTATE: 42000

Falhou a operação de pin para a consulta de streaming com localização do checkpoint=<checkpointLocation> at batchId=<batchId>.

Para mais detalhes, veja STREAMING_CHECKPOINT_PIN_BATCH_ERROR

STREAMING_CHECKPOINT_REWIND_ERROR

SQLSTATE: 42000

Falhou a realização da operação de retrocesso para a consulta de streaming com localização do checkpoint=<checkpointLocation>.

Para mais detalhes, veja STREAMING_CHECKPOINT_REWIND_ERROR

STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

SQLSTATE: 42616

Erro durante a operação de retrocesso do ponto de verificação de streaming.

Para mais detalhes, ver STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

Não é possível transmitir da vista materializada <viewName>. Não há suporte para streaming de visualizações materializadas.

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

Modo de saída de streaming inválido: <outputMode>.

Para mais detalhes, consulte STREAMING_OUTPUT_MODE

STREAMING_QUERY_EVOLUTION_ERROR

SQLSTATE: 42000

Erro de evolução de consultas em streaming:

Para mais detalhes, veja STREAMING_QUERY_EVOLUTION_ERROR

STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH

SQLSTATE: KD002

Esperava o deslocamento da fonte de taxa da versão <expectedVersion>, mas recebeu a versão <actualVersion>. Para continuar, defina a opção "versão" para <expectedVersion> nas opções de fonte de taxa. Por exemplo, spark.readStream.format("rate").option("version", "<expectedVersion>").

ALTERAÇÃO NO NÚMERO DE PARTIÇÕES NÃO SUPORTADA PARA STREAMING_RATE_SOURCE_V2

SQLSTATE: 0A000

O número de partições (<prevNum>) usadas no microlote anterior é diferente do número atual de partições (<currNum>). Pode haver duas razões possíveis:

  1. A opção "numPartitions" da fonte da taxa é alterada durante a reinicialização da consulta.

  2. O tamanho do cluster pode mudar durante a reinicialização da consulta.

Defina explicitamente a opção "numPartitions" na fonte de taxa como <prevNum> para corrigir este problema.

STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED (Fonte de Taxa de Streaming V2, Tempo de Aceleramento Não Suportado)

SQLSTATE: 0A000

A opção "rampUpTime" não é suportada pela tarifa versão 2. Para usar essa opção, defina a opção "versão" como 1. Por exemplo, spark.readStream.format("rate").option("version", "1").

STREAMING_REAL_TIME_MODE

SQLSTATE: 0A000

O modo de streaming em tempo real tem a seguinte limitação:

Para mais detalhes, consulte STREAMING_REAL_TIME_MODE

Transmissão de Propagação de Marca d'Água em Tempo Real

SQLSTATE: 0A000

A propagação da marca d'água em tempo real tem a seguinte limitação:

Para mais detalhes, consulte STREAMING_REAL_TIME_WATERMARK_PROPAGATION

Streaming_Sink_Modo_Entrega

SQLSTATE: 42KDE

Modo de entrega do destino de streaming inválido: <deliveryMode>.

Para mais detalhes, consulte STREAMING_SINK_DELIVERY_MODE

STREAMING_SKIP_OFFSETS_INVALID_RANGE

SQLSTATE: 42616

Intervalo de deslocamento de salto inválido: o deslocamento <endOffset> final é menor do que o deslocamento <startOffset>inicial. Corrige este intervalo de deslocamento e tente novamente.

STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY

SQLSTATE: 42K03

Não é possível reiniciar a consulta de streaming com operadores com estado porque o diretório de estados está vazio ou em falta.

Isto ocorre tipicamente quando ficheiros de estado foram eliminados ou a consulta de streaming foi anteriormente executada sem operadores com estado, mas reiniciada com operadores com estado.

Por favor, remova os operadores com estado, use uma nova localização de ponto de controlo ou restaure os ficheiros de estado em falta.

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

O nome do operador com estado de streaming não corresponde ao operador nos metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador stateful da consulta de streaming existente.

Operadores com estado nos metadados: [<OpsInMetadataSeq>]; Operadores com estado no lote atual: [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

Streaming Table <tableName> precisa ser atualizada para executar <operation>.

Se a tabela for criada a partir de DBSQL, execute REFRESH STREAMING TABLE.

Se a tabela for criada por um pipeline no Lakeflow Spark Declarative Pipeliness, por favor execute uma atualização do pipeline.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

tabelas de streaming só podem ser criadas e atualizadas nos Lakeflow Spark Declarative Pipeliness e Databricks SQL Warehouses.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

A operação <operation> não é permitida:

Para mais detalhes, ver STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

A tabela de streaming <tableName> somente pode ser criada a partir de uma consulta de streaming. Adicione a palavra-chave STREAM à sua cláusula FROM para transformar essa relação em uma consulta de streaming.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

O fluxo Kinesis <streamName> em <region> não foi encontrado.

Inicie uma nova consulta apontando para o nome correto do fluxo.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

A linha de entrada não tem o número esperado de valores exigidos pelo esquema. Os <expected> campos são obrigatórios e os <actual> valores são fornecidos.

ST_INVALID_ALGORITHM_VALUE

SQLSTATE: 22023

Valor do algoritmo de interpolação de bordas inválido ou não suportado: '<alg>'.

ST_INVALID_CRS_VALUE

SQLSTATE: 22023

Valor CRS (sistema de referência de coordenadas) inválido ou não suportado: '<crs>'.

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

Valor do SRID (identificador de referência espacial) inválido ou não suportado: <srid>.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

A soma da cláusula LIMIT e da cláusula OFFSET não deve ser maior do que o valor inteiro máximo de 32 bits (2.147.483.647), mas encontrou limite = <limit>, offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

O comando Repair table sync metadata só é suportado para tabela delta.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

O nome da tabela de origem <srcTable> deve ser igual ao nome da tabela de destino <destTable>.

SYNTAX_DISCONTINUED

SQLSTATE: 42601

Suporte da cláusula ou palavra-chave: <clause> foi descontinuado neste contexto.

Para mais detalhes, ver SYNTAX_DISCONTINUED

TABLE_ARGUMENTS_NOT_ALLOWED (Argumentos na tabela não são permitidos)

SQLSTATE: 42601

TABLE parâmetros não são suportados em <routineType>.

TABLE_NOT_VALID_SECONDARY_INDEX

SQLSTATE: 42809

Falhou a execução do DESCRIBE SEARCH INDEX comando porque a tabela <tableName> não é um índice válido <indexType> . Por favor, atualize o comando para usar um índice válido e tente novamente.

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Não é possível criar a tabela ou vista <relationName>, pois ela já existe.

Escolha um nome diferente, solte o objeto existente, adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

A tabela ou vista <relationName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.

Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.

Para tolerar o erro na queda use DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.

Para mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND

TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY

SQLSTATE: 0AKUC

O tipo de tabela de <tableName>, <tableType>, não suporta políticas ABAC.

Remova as políticas e tente novamente.

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

Não é possível <action> função SQL definida pelo usuário <functionName> com TABLE argumentos porque esta funcionalidade ainda não foi implementada.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

Falha na avaliação da função de tabela <functionName> devido aos seus metadados de tabela <requestedMetadata>, embora a chamada de função <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

Falha ao avaliar a função de tabela <functionName> porque seus metadados de tabela eram inválidos; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Há muitos argumentos de tabela para a função com valor de tabela.

Ele permite um argumento de tabela, mas tem: <num>.

Se você quiser permiti-lo, defina "spark.sql.allowMultipleTableArguments.enabled" como "true"

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

Tabela com ID <tableId> não pode ser encontrada. Verifique a exatidão do UUID.

TASK_WRITE_FAILED

SQLSTATE: 58030

A tarefa falhou enquanto escrevia linhas para <path>.

TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED

SQLSTATE: 0A000

Locais implícitos de ponto de verificação temporária de streaming não são suportados no espaço de trabalho atual, por favor especifique um local de ponto de verificação explicitamente.

Para display(), defina o local do ponto de verificação usando:

display(df, checkpointLocation = "seu_caminho")

Para todas as outras consultas de streaming, use:

.option("checkpointLocation", "your_path").

TEMP_TABLE_CREATION_LEGACY_WITH_QUERY

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... AS ... não é suportado aqui, por favor use CREATE TEMPORARY VIEW em vez disso

TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE não suporta especificar <unsupportedSpec>.

Para mais detalhes, veja TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

TEMP_TABLE_CREATION_NAME_RESERVED

SQLSTATE: 42K05

Não é possível criar uma tabela <tableName> temporária porque começa com um prefixo <reservedPrefix>de nome reservado. Por favor, escolha um nome diferente e tente novamente.

TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE

SQLSTATE: 0A000

CREATE TEMPORARY TABLE [AS ... ] não é suportado com o tipo Compute atual. Por favor, use o Databricks SQL (DBSQL) para criar tabelas temporárias locais de sessão em vez disso.

TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

A criação de uma tabela temporária local de sessão exige um nome de tabela composto por uma única parte, no entanto, obteve <tableName>. Atualize o comando para usar um nome de tabela de uma única parte e tente novamente.

TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... USING ... AS ... não é suportado. Para criar uma tabela temporária, por favor remova a USING cláusula e tente novamente.

TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

DROP TEMPORARY TABLE não suporta a especificação de <unsupportedSpec>, remova esta especificação ou remova uma tabela permanente usando o comando DROP TABLE.

TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

Para eliminar uma tabela temporária criada apenas na sessão, é necessário um nome de tabela simples, mas obteve <tableName>. Atualize o comando DROP TEMPORARY TABLE para usar um nome de tabela com uma única parte para eliminar uma tabela temporária, ou use o comando DROP TABLE para eliminar uma tabela permanente.

TEMP_TABLE_NOT_FOUND

SQLSTATE: 42P01

A tabela <tableName> temporária não pode ser encontrada na sessão atual. Verifique a ortografia e a correção do nome da tabela e tente novamente a consulta ou o comando.

Para tolerar o erro ao soltar, use DROP TEMP TABLE IF EXISTS.

TABELA_TEMPORARIA_NAO_SUPORTADA_COM_TRABALHOS_DATABRICKS

SQLSTATE: 0A000

A tabela temporária ainda não é suportada no Databricks Jobs. Em vez disso, use o Databricks Notebooks e entre em contato com o Suporte Databricks para obter mais informações.

TEMP_TABLE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

A operação <operation> de tabela temporária não é suportada no Hive Metastore.

TEMP_TABLE_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Não há suporte para operações na tabela <tableName> temporária local de sessão:

Para mais detalhes, consulte TEMP_TABLE_OPERATION_NOT_SUPPORTED

TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND

SQLSTATE: 0A000

<operation> on temporary tables não é suportado com comandos V1. Por favor, defina o 'spark.sql.legacy.useV1Command' em false e tente novamente.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Não é possível criar a tabela ou exibição <relationName> temporária porque ela já existe.

Escolha um nome diferente, elimine ou substitua o objeto existente.

TEMP_TABLE_REPLACE_NOT_SUPPORTED

SQLSTATE: 0A000

[CREATE OR] REPLACE TEMPORARY TABLE não é suportado. Para substituir uma mesa temporária existente, retire-a usando DROP TEMPORARY TABLE ... [IF EXISTS] e recriá-lo usando CREATE TEMPORARY TABLE ... .

TEMP_TABLE_REQUIRES_DATABRICKS_ENV

SQLSTATE: 0AKDD

As operações em tabelas temporárias locais de sessão requerem o ambiente Databricks.

TEMP_TABLE_REQUIRES_DELTA

SQLSTATE: 0AKDD

As operações em tabelas temporárias locais de sessão exigem que o catálogo Delta esteja ativado. Ligue o catálogo Delta e tente novamente.

TEMP_TABLE_REQUIRES_UC

SQLSTATE: 0AKUD

As operações em tabelas temporárias locais de sessão requerem o Unity Catalog. Ative o Unity Catalog em seu ambiente de execução e tente novamente.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW ou as APIs de conjunto de dados correspondentes só aceitam nomes de exibição de parte única, mas obtiveram: <actualName>.

THETA_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Chamada inválida para <function>; apenas buffers de esboço Theta válidos são suportados como entradas (como os produzidos pela theta_sketch_agg função).

THETA_INVALID_LG_NOM_ENTRIES

SQLSTATE: 22546

Chamada inválida para <function>; O valor lgNomEntries deve estar entre <min> e <max>, inclusive: <value>.

THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Chamada inválida para <function>; o lgNomEntries valor deve ser um valor constante, mas obteve uma expressão não constante.

TRAILING_COMMA_IN_SELECT

SQLSTATE: 42601

Vírgula à direita detetada na cláusula SELECT. Remova a vírgula à direita antes da cláusula FROM.

TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME

SQLSTATE: 42939

O Change Data Feed não pode ser ativado numa transação porque uma tabela contém um nome de coluna reservado (<column_name>).

Para continuar, certifique-se de que a tabela usa apenas nomes de colunas não reservadas.

TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED

SQLSTATE: 25000

Não é permitido definir manualmente o ponto de referência elevado para o CDC Identities.

TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

SQLSTATE: 40000

Foi detetada uma alteração simultânea de metadados no objeto <table>. Execute ROLLBACK e tente novamente esta transação. Details:

Para mais detalhes, veja TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

TRANSACTION_CONTEXT_MISMATCH

SQLSTATE: 25000

Foi detetada inconsistência de contexto de transação entre o thread atual e a sessão do Spark. Isso normalmente ocorre quando uma sessão do Spark é compartilhada em vários threads. Use uma sessão dedicada e um thread para cada transação e confirme/reverta a transação em seu thread antes de reutilizar a sessão e o thread para uma nova transação. Details:

Para mais detalhes, veja TRANSACTION_CONTEXT_MISMATCH

TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED

SQLSTATE: 25000

A transação não pode ser executada, pois o carimbo de data/hora máximo de execução foi ultrapassado. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>

TRANSACTION_NOT_SUPPORTED

SQLSTATE: 0A000

Falha ao executar a instrução.

Para mais detalhes, veja TRANSACTION_NOT_SUPPORTED

TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

SQLSTATE: 40000

A transação atual foi abortada. Por favor, execute ROLLBACK TRANSACTION antes de continuar. Motivo do aborto:

Para mais detalhes, veja TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Ocorreu um erro na função <function> definida pelo usuário do StatefulProcessor. Motivo: <reason>.

TRANSPOSE_EXCEED_ROW_LIMIT

SQLSTATE: 54006

O número de linhas excede o limite permitido de <maxValues> para TRANSPOSE. Se isto foi pretendido, configure <config> para, pelo menos, corresponder à contagem atual de linhas.

TRANSPOSE_INVALID_INDEX_COLUMN

SQLSTATE: 42804

Coluna de índice inválida para TRANSPOSE porque: <reason>

TRANSPOSE_NO_LEAST_COMMON_TYPE

SQLSTATE: 42K09

A transposição requer que as colunas que não sejam de índice compartilhem um tipo comum mínimo, mas <dt1> e <dt2> não o fazem.

TRIGGER_INTERVAL_INVALID

SQLSTATE: 22003

O intervalo de gatilho deve ser uma duração positiva que possa ser convertida em segundos inteiros. Recebido: <actual> segundos.

TUPLE_IS_EMPTY

SQLSTATE: 22004

Devido ao suporte limitado do Scala para tuplas, a tupla vazia não é suportada.

TUPLE_SIZE_EXCEEDS_LIMIT

SQLSTATE: 54011

Devido ao suporte limitado do Scala para tuplas, uma tupla com mais de 22 elementos não é suportada.

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

Não há suporte para tabelas com buckets no Unity Catalog.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Para o Unity Catalog, especifique o nome do catálogo explicitamente. Por exemplo, SHOW GRANT your.address@email.com ON CATALOG principal.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

O(s) comando(s): <commandName> não são suportados no Unity Catalog.

Para mais detalhes, consulte UC_COMMAND_NOT_SUPPORTED

UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS

SQLSTATE: 0AKUC

O(s) comando(s): <commandName> não são suportados para clusters do Unity Catalog sem servidor. Em vez disso, use clusters compartilhados ou de usuário único.

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

O(s) comando(s): <commandName> não são suportados para clusters do Unity Catalog no modo de acesso compartilhado. Em vez disso, use o modo de acesso de usuário único.

UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS

SQLSTATE: 42704

Não foi possível encontrar uma conexão UC válida para acessar <path> depois de avaliar <connectionNames>.

Certifique-se de que pelo menos uma conexão UC válida esteja disponível para acessar o caminho de destino.

Erros detalhados para as conexões avaliadas:

<connectionErrors>

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

O tipo de credencial especificado não é suportado.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

O formato de fonte de dados <dataSourceFormatName> não é suportado no Catálogo Unity.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

As opções de fonte de dados não são suportadas no Unity Catalog.

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42P01

A dependência não existe no Unity Catalog:

<errorMessage>

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

A cláusula LOCATION deve estar presente para o volume externo. Por favor, verifique a sintaxe 'CREATE EXTERNAL VOLUME...LOCATION ...' para criar um volume externo.

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

A consulta falhou porque tentou fazer referência à tabela <tableName> mas não conseguiu fazê-lo: <failureReason>. Atualize o <tableName> da tabela para garantir que ele esteja em um estado de provisionamento ativo e, em seguida, tente novamente a consulta.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Não é suportada a criação de uma tabela no Unity Catalog com o esquema de ficheiro <schemeName>.

Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION para o mesmo provedor de tabela e, em seguida, crie um catálogo com base na conexão com um comando CREATE FOREIGN CATALOG para fazer referência às tabelas nela.

Exceção_metastore_do_Hive_desativada

SQLSTATE: 0A000

A operação tentou usar a Hive Metastore<identifier>, que está desativada devido ao acesso legado estar desligado na sua conta ou espaço de trabalho. Verifique novamente o catálogo padrão na sessão atual e na configuração de namespace padrão. Se você precisar acessar o Hive Metastore, peça ao seu administrador para configurar a federação do Hive Metastore através do Unity Catalog.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

O modo de exibição Federação do Hive Metastore não oferece suporte a dependências em vários catálogos. Exibir a vista <view> no catálogo da federação do Hive Metastore deve usar uma dependência do catálogo hive_metastore ou spark_catalog, mas a dependência <dependency> está em outro catálogo <referencedCatalog>. Atualize as dependências para satisfazer essa restrição e, em seguida, tente novamente sua consulta ou comando novamente.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

A federação do Hive Metastore não está habilitada neste cluster.

O acesso ao catálogo <catalogName> não é suportado neste cluster

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

As dependências de <securable> são registradas como <storedDeps> enquanto são analisadas como <parsedDeps>. Isso provavelmente ocorreu por meio do uso indevido de uma API não SQL.

Para mais detalhes, veja UC_INVALID_DEPENDENCIES

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Não há suporte para namespaces aninhados ou vazios no Unity Catalog.

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Objetos que não sãoUnity-Catalog <name> não podem ser referenciados em objetos do Unity Catalog.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

O suporte de escrita do Unity Catalog Lakehouse Federation não está habilitado para o provedor <provider> neste cluster.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

O volume gerenciado não aceita LOCATION cláusula. Por favor, verifique a sintaxe 'CREATE VOLUME ...' para criar um volume gerenciado.

UC_NOT_ENABLED

SQLSTATE: 56038

O Catálogo Unity não está habilitado neste cluster.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

A Federação de Consultas do Catálogo Unity não está habilitada neste cluster.

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE: 0AKUC

A consulta falhou porque tentou fazer referência a <objectType> <name>, mas não foi possível fazê-lo: O caminho DBFS resolvido <resolvedHmsPath> não corresponde ao local de armazenamento do Unity Catalog <ucStorageLocation>.

UC_SEGREDOS_NÃO_HABILITADO

SQLSTATE: 56038

O suporte para Unity Catalog Secrets não está ativado.

UC_SECRET_ALREADY_EXISTS

SQLSTATE: 42713

Não é possível criar segredo <name> porque ele já existe.

Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.

UC_SECRET_NOT_FOUND

SQLSTATE: 42704

Segredo <name> não existe. Use 'SHOW SECRETS' para listar os segredos disponíveis.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

As credenciais de serviço não estão habilitadas neste cluster.

UC_TABLE_METADATA_OUT_OF_SYNC

SQLSTATE: 55019

Não é possível consultar a tabela <tableName> porque os metadados da tabela estão fora de sincronia no catálogo. Repare a tabela executando 'MSK REPAIR TABLE <tableName> SYNC METADATA' para sincronizar primeiro os metadados.

UC_UNCAUGHT_CLIENT_EXCEPTION

SQLSTATE: KCUC4

Encontrei um erro HTTP inesperado enquanto comunicava com o backend do Databricks Unity Catalog. Código de erro: <errCode>. Mensagem: <message>

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

O suporte para Unity Catalog Volumes não está habilitado nesta instância.

UC_VOLUMES_NOT_SUPPORTED

SQLSTATE: 0A000

Os volumes não são suportados para esta operação. O caminho especificado era '<path>'.

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

O suporte para Compartilhamento de Volume não está habilitado nesta instância.

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

O volume <name> não existe. Por favor, use 'SHOW VOLUMES' para listar os volumes disponíveis.

UDF_ENVIRONMENT_ERROR

SQLSTATE: 39000

Falha ao instalar dependências UDF para <udfName>, devido a um erro do sistema.

Para mais detalhes, ver UDF_ENVIRONMENT_ERROR

UDF_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

Falha ao instalar dependências UDF para <udfName>.

Para mais detalhes, consulte UDF_ENVIRONMENT_USER_ERROR

UDF_ERROR

SQLSTATE: nenhum atribuído

Falha na execução da função <fn>

Para mais detalhes, ver UDF_ERROR

UDF_LIMITS

SQLSTATE: 54KD0

Um ou mais limites da UDF foram violados.

Para mais detalhes, ver UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

Excedeu o limite UDF de toda a consulta de <maxNumUdfs> UDFs (limitado durante a visualização pública). Encontrado <numUdfs>. As UDF eram: <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE: 39000

O trabalhador Python saiu inesperadamente

Para mais detalhes, ver UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

O PySpark UDF <udf> (<eval-type>) não é suportado em clusters em modo de acesso partilhado.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

Falha na execução.

Para mais detalhes, ver UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

O valor padrão do parâmetro não é suportado para a função <functionType> definida pelo usuário.

UDF_USER_CODE_ERROR

SQLSTATE: 39000

A execução da função <fn> falhou.

Para mais detalhes, ver UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

O número de pseudónimos fornecidos na AS cláusula não corresponde ao número de colunas produzidas pela UDTF.

Esperava <aliasesSize> pseudônimos, mas consegui <aliasesNames>.

Certifique-se de que o número de aliases fornecidos corresponde ao número de colunas produzidas pela UDTF.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma OrderingColumn solicitada cuja expressão de nome de coluna incluía um alias <aliasName>desnecessário, remova esse alias e tente a consulta novamente.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' solicitada (<expression>) que não inclui um alias correspondente, atualize o UDTF para especificar um alias lá e tente a consulta novamente.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Não é possível converter o tipo SQL <toType> para o tipo Protobuf <protobufType>.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Não é possível buscar tabelas do banco de dados Hive: <dbName>. Nome da classe de erro: <className>.

UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA

SQLSTATE: 42KD9

Falha ao inferir o esquema para a tabela <tableName> a partir dos seus fluxos a montante.

Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.

Esquema inferido até agora:

<inferredDataSchema>

Esquema incompatível:

<incompatibleDataSchema>

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

Não é possível inferir esquema para <format>. Deve ser especificado manualmente.

NÃO AUTENTICADO

SQLSTATE: 08000

A solicitação não tem credenciais de autenticação válidas para a operação.

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

Acesso não autorizado:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

Encontrado o parâmetro não vinculado: <name>. Por favor, corrija args e forneça um mapeamento do parâmetro para um literal SQL ou para funções construtoras de colecção, como map(), array(), struct().

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

Encontrado um comentário entre parênteses não fechado. Por favor, anexe */ no final do comentário.

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

Parâmetro <paramIndex> de função <functionName> requer o tipo <requiredType>, no entanto, <inputSql> tem o tipo <inputType>.

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE: 42K09

O parâmetro <namedParamKey> de função <functionName> requer o tipo <requiredType>, no entanto, <inputSql> tem o tipo <inputType>.<hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

Operador inesperado <op> na declaração CREATE VIEW como uma fonte de streaming.

Uma consulta de visualização em streaming deve consistir apenas em SELECT, WHERE, e UNION ALL operações.

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Não é possível invocar <routineName> de rotina porque contém argumento(s) posicional(is) após o argumento nomeado atribuído a <parameterName>; reorganize-os para que os argumentos posicionais venham primeiro e, em seguida, tente novamente a consulta.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

A classe <className> tem um serializador de expressão inesperado. Espera "STRUCT" ou "IF", o qual retorna "STRUCT", mas encontrou <expr>.

UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE

SQLSTATE: 42836

O UNION operador ainda não é suportado dentro de expressões de tabela comuns recursivas (WITH cláusulas que se referem a si mesmas, direta ou indiretamente). Por favor, use UNION ALL em vez disso.

CONSTRAINTE_ÚNICA_DESATIVADA

SQLSTATE: 0A000

O recurso de restrição exclusivo está desativado. Para ativá-lo, defina "spark.databricks.sql.dsv2.unique.enabled" como verdadeiro.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

Foi encontrado <changeType> durante a análise: <unknownFieldBlob>, que pode ser corrigido por uma nova tentativa automática: <isRetryable>.

Para mais detalhes, ver UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

A invocação da rotina <routineName> contém um argumento posicional desconhecido <sqlExpr> na posição <pos>. Isto é inválido.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

Tipo primitivo desconhecido com id <id> foi encontrado num valor variante.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

A tentativa de tratar <descriptorName> como uma mensagem, mas era <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT exige que todas as expressões de <given> dadas sejam colunas quando nenhuma expressão <empty> é dada. Estas não são colunas: [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

Pelo menos uma coluna de valor precisa ser especificada para UNPIVOT, onde todas as colunas são especificadas como IDs.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

As colunas de valor a desagregar devem ter um tipo comum mínimo, alguns tipos não o têm: [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

Todas as colunas de valor não dinâmico devem ter o mesmo tamanho que há nomes de colunas de valor (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

Não é possível invocar a rotina <routineName>, pois a chamada de rotina incluiu uma referência a um argumento nomeado chamado <argumentName>, mas essa rotina não inclui nenhuma assinatura com esse nome. Referiu-se a um dos seguintes? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

Tipo SQL não reconhecido - nome: <typeName>, id: <jdbcType>.

UNRECOGNIZED_STATISTIC

SQLSTATE: 42704

A estatística <stats> não é reconhecida. Estatísticas válidas incluem count, count_distinct, approx_count_distinct, mean, stddev, min, max, e valores percentuais. O percentil deve ser um valor numérico seguido de '%', dentro do intervalo de 0% a 100%.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

Não foi possível resolver <name> para uma função com valor de tabela.

Certifique-se de que <name> é definida como uma função com valor de tabela e que todos os parâmetros necessários são fornecidos corretamente.

Se <name> não estiver definido, crie a função com valor de tabela antes de usá-la.

Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

Não é possível inferir o agrupamento de colunas para GROUP BY ALL com base na cláusula select. Especifique explicitamente as colunas de agrupamento.

UNRESOLVED_COLUMN

SQLSTATE: 42703

Uma coluna, variável ou parâmetro de função com nome <objectName> não pode ser resolvido.

Para mais detalhes, consulte COLUNA_NÃO_RESOLVIDA

UNRESOLVED_COLUMN_AMONG_FIELD_NAMES

SQLSTATE: 42703

Não é possível resolver o nome da coluna "<colName>" entre (<fieldNames>).

UNRESOLVED_FIELD

SQLSTATE: 42703

Um campo com nome <fieldName> não pode ser resolvido com a coluna struct-type <columnPath>.

Para mais detalhes, ver UNRESOLVED_FIELD

UNRESOLVED_INSERT_REPLACE_USING_COLUMN

SQLSTATE: 42703

REPLACE USING coluna <colName> não pode ser resolvida no <relationType>.

Referiu-se a uma das seguintes colunas? [<suggestion>].

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

Não é possível resolver a coluna <objectName> como uma chave de mapa. Se a chave for um literal de cadeia de caracteres, adicione as aspas simples '' em torno dela.

Para mais detalhes, consulte UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE: 42883

Não é possível resolver a rotina <routineName> no caminho de pesquisa <searchPath>.

Verifique a ortografia de <routineName>, certifique-se de que a rotina existe e confirme se tem o privilégio USE no catálogo e no esquema, e o privilégio EXECUTE na rotina.

Para mais detalhes, consulte UNRESOLVED_ROUTINE

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

O caminho de armazenamento para a tabela <identifier> não pode ser resolvido.

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING coluna <colName> não pode ser resolvida no lado <side> da junção. As colunas do lado <side>: [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE: 42883

Não é possível resolver a variável <variableName> no caminho de busca <searchPath>.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE: 0A000

O formato de arquivo não estruturado <format> não é suportado. Os formatos de ficheiro suportados são <supportedFormats>.

Atualize o format da sua expressão <expr> para um dos formatos suportados e, em seguida, tente novamente a consulta.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION

SQLSTATE: 0A000

A opção de modelo não estruturado ('<option>' -> ''<value>) não é suportada. Os valores suportados são: <supportedValues>.

Mude para um dos valores suportados e, em seguida, tente novamente a consulta.

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE: 42000

O parâmetro de função 'ocrText' deve ser NULL ou omitido quando a opção 'metadataModel' é especificada. Uma opção especificada 'metadataModel' aciona a extração de metadados, onde um 'ocrText' fornecido é proibido.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

Não suporta adicionar ficheiro.

Para mais detalhes, ver UNSUPPORTED_ADD_FILE

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE: 0A000

Não há suporte para a especificação de <parameter> com ALTER <commandTableType>.

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Tipo de seta não suportado <typeName>.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

A função <funcName> não suporta consultas em lote.

UNSUPPORTED_CALL

SQLSTATE: 0A000

Não é possível chamar o método "<methodName>" da classe "<className>".

Para mais detalhes, veja UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

O tipo char/varchar não pode ser usado no esquema da tabela.

Se você quiser que o Spark os trate como tipo de string igual ao Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".

UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION

SQLSTATE: 0A000

O tipo <type> char/varchar não pode ter agrupamento especificado.

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

O <clause> não é suportado para <operation>.

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

A Ordenação <collationName> não é suportada para:

Para mais detalhes, consulte UNSUPPORTED_COLLATION

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

O ancestral comum do caminho de origem e sourceArchiveDir deve ser registrado com UC.

Se vires esta mensagem de erro, é provável que tenhas registado o caminho de origem e o diretório de arquivamento de origem em diferentes locais externos.

Por favor, coloque-os em um único local externo.

UNSUPPORTED_CONNECT_FEATURE

SQLSTATE: 0A000

O recurso não é suportado no Spark Connect:

Para mais detalhes, consulte UNSUPPORTED_CONNECT_FEATURE

UNSUPPORTED_CONSTRAINT_CHARACTERISTIC

SQLSTATE: 0A000

A característica de restrição '<characteristic>' não é suportada para o tipo de restrição '<constraintType>'.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

As cláusulas de restrição <clauses> não são suportadas.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

Tipo de restrição sem suporte. Apenas <supportedConstraintTypes> são suportados

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

Tipo de fonte de dados sem suporte para consulta direta em arquivos: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

Tipo de dados não suportado <typeName>.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

A fonte de dados "<source>" não pode ser gravada no modo <createMode>. Em vez disso, use o modo "Acrescentar" ou "Substituir".

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

A <format> fonte de dados não suporta a coluna <columnName> do tipo <columnType>.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

Não é possível criar codificador para <dataType>. Use um tipo de dados de saída diferente para seu UDF ou DataFrame.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

Os valores da coluna DEFAULT não são suportados.

Para mais detalhes, veja UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

O desserializador não tem suporte.

Para mais detalhes, consulte UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

Não é possível criar a coluna gerada <fieldName> com a expressão de geração <expressionStr> por causa de <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Um operador de consulta contém uma ou mais expressões sem suporte.

Considere reescrevê-lo para evitar funções de janela, funções agregadas e funções geradoras na cláusula WHERE.

Expressões inválidas: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

Um parâmetro de consulta contém expressão sem suporte.

Os parâmetros podem ser variáveis ou literais.

Expressão inválida: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

A expressão <sqlExpr> não é suportada numa função de janela.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

O recurso não é suportado:

Para mais detalhes, veja UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Tipo de função definido pelo usuário não suportado: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

O gerador não é suportado:

Para mais detalhes, consulte UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> com posição inicial <initialPosition> não é suportado pela fonte Kinesis

UNSUPPORTED_INSERT

SQLSTATE: 42809

Não é possível inserir no destino.

Para mais detalhes, consultar UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

Tipo de junção não suportado '<typ>'. Os tipos de junção suportados incluem: <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

Não há suporte para a criação de uma tabela gerenciada <tableName> usando <dataSource> de fonte de dados. Precisa de usar a fonte DELTA de dados ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

MERGE operação contém condição <condName> não suportada.

Para mais detalhes, consulte UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_METADATA_KEY

SQLSTATE: 42K0E

Chave de metadados não suportada: <key>. Teclas suportadas: <supportedKeys>.

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

A Tabela <tableName> tem uma política de segurança de nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança de nível de linha ou máscara de coluna; isso não é suportado. Sequência de chamadas: <callSequence>

OPERAÇÃO_NÃO_SUPORTADA_PARA_DISTRIBUIDOR_DE_MEMÓRIA_CONTÍNUA

SQLSTATE: 0A000

A operação <operation> não é suportada para acumulador de memória contínua. Caso esteja a escrever um teste para o Modo de Transmissão Contínua em Tempo Real, considere usar CheckAnswerWithTimeout em detrimento de outras verificações.

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

Não é possível substituir o destino que também está sendo lido.

Para mais detalhes, ver UNSUPPORTED_OVERWRITE

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE: 0A000

Transformação de partição não suportada: <transform>. As transformadas suportadas são identity, bucket, e clusterBy. Certifique-se de que sua expressão de transformação use um desses.

UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' não é suportado na API spark.sql("...") no Spark Declarative Pipeline.

Agrupamento_de_Procedimento_Não_Suportado

SQLSTATE: 0A000

O procedimento <procedureName> deve especificar ou herdar DEFAULT COLLATION UTF8_BINARY. Utilize CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

O modo de gravação <saveMode> não é suportado para:

Para mais detalhes, ver UNSUPPORTED_SAVE_MODE

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE: 0A000

O comando SHOW CREATE TABLE não é suportado.

Para mais detalhes, consulte UNSUPPORTED_SHOW_CREATE_TABLE

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE: 0A000

O analisador de passagem única não pode processar essa consulta ou comando porque ainda não oferece suporte a <feature>.

UNSUPPORTED_SQL_UDF_USAGE

SQLSTATE: 0A000

Não há suporte para o uso da função <functionName> SQL em <nodeName> .

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode> modo de saída não suportado para <statefulOperator> no streaming de DataFrames/DataSets sem marca d'água.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

Sem suporte para streaming de uma visualização. Reason:

Para mais detalhes, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

Não há suporte para opções <options> de streaming para fonte <source> de dados em um cluster compartilhado. Por favor, confirme que as opções estão especificadas e escritas corretamente<prefixHint> e verifique https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode as limitações.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

A fonte <sink> de dados não é suportada como um coletor de streaming em um cluster compartilhado.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

A fonte <source> de dados não é suportada como uma fonte de streaming em um cluster compartilhado.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

A função <funcName> não suporta streaming. Remova a palavra-chave STREAM

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> não é suportado como fonte na Kinesis

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Expressão de subconsulta não suportada:

Para mais detalhes, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION

SQLSTATE: 42000

As alterações <changes> na tabela não são suportadas pelo catálogo na tabela <tableName>.

UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

SQLSTATE: 42000

A alteração <change> de tabela não é suportada para o catálogo JDBC na tabela <tableName>. As alterações suportadas incluem: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

Não há suporte para a criação de chave primária com colunas de séries cronológicas

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

Não há suporte para a criação de chave primária com mais de uma coluna de série cronológica <colSeq>

UNSUPPORTED_TIME_PRECISION

SQLSTATE: 0A001

A precisão <precision> de segundos do tipo de dados TIME está fora do intervalo suportado [0, 6].

UNSUPPORTED_TIME_TYPE

SQLSTATE: 0A000

O tipo de dados TIME não é suportado.

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> não é suportado como fonte na Kinesis

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

Literais do tipo <unsupportedType> não são suportados. Os tipos suportados são <supportedTypes>.

UNSUPPORTED_UDF_FEATURE

SQLSTATE: 0A000

A função <function> usa o(s) seguinte(s) recurso(s) que exigem uma versão mais recente do tempo de execução do Databricks: <features>. Por favor, consulte<docLink> para mais detalhes.

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE: 0A000

Os tipos UDF não podem ser usados juntos: <types>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Está a utilizar um UDF de Scala não tipado, que não tem informações sobre o tipo de entrada.

O Spark pode passar cegamente um valor null para o closure do Scala com um argumento de tipo primitivo, e o closure receberá o valor padrão do tipo Java para o argumento null. Por exemplo, udf((x: Int) => x, IntegerType), o resultado será 0 caso a entrada seja nula. Para se livrar desse erro, você pode:

  1. use APIs UDF de Scala tipadas (sem parâmetro de tipo de retorno), por exemplo, udf((x: Int) => x).

  2. use APIs UDF Java, por exemplo, udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), se os tipos de entrada forem todos não primitivos.

  3. defina "spark.sql.legacy.allowUntypedScalaUDF" como "true" e use essa API com cuidado.

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

A tabela não é qualificada para atualização do Hive Metastore para o Unity Catalog. Reason:

Para mais detalhes, veja UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

A função definida pelo usuário é inválida:

Para mais detalhes, consulte USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

A função raise_error() foi usada para aumentar a classe de erro: <errorClass> que espera parâmetros: <expectedParms>.

Os parâmetros fornecidos <providedParms> não correspondem aos parâmetros esperados.

Por favor, certifique-se de fornecer todos os parâmetros esperados.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

A função raise_error() foi usada para gerar uma classe de erro desconhecida: <errorClass>

USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH

SQLSTATE: 42K03

O esquema especificado pelo utilizador não corresponde ao esquema real:

Especificado pelo utilizador: <schema>, atual: <actualSchema>. Se estiveres a usar

API DataFrameReader.schema ou criação de uma tabela, não especifiquem o esquema.

Ou, se estiveres a digitalizar uma tabela existente, retira-a e recria-a.

ESQUEMA_ESPECIFICADO_PELO_USUÁRIO_E_INFERIDO_NÃO_COMPATÍVEL

SQLSTATE: 42000

A tabela '<tableName>' tem um esquema especificado pelo usuário que é incompatível com o esquema

inferido da sua consulta de dados.

<streamingTableHint>

Esquema declarado:

<specifiedSchema>

Esquema inferido:

<inferredDataSchema>

USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

A definição de catálogo ou esquema dentro do procedimento armazenado SQL SECURITY DEFINER não é suportada.

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

Não é possível criar a variável <variableName> porque ela já existe.

Escolha um nome diferente ou solte ou substitua a variável existente.

VARIABLE_NOT_FOUND

SQLSTATE: 42883

A variável <variableName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.

Se você não qualificou o nome com um esquema e catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e catálogo corretos.

Para tolerar o erro na queda use DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

Não é possível construir uma Variante maior que 16 MiB. O tamanho máximo permitido de um valor de Variante é de 16 MiB.

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

Falha ao criar variante devido a uma chave de objeto duplicada <key>.

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

Não é possível construir variante maior do que <sizeLimit> em <functionName>.

Evite cadeias de caracteres de entrada grandes para esta expressão (por exemplo, adicione chamada(s) de função para verificar o tamanho da expressão e convertê-la em NULL primeiro se for muito grande).

VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE

SQLSTATE: 56038

O histórico da tabela de origem contém recurso(s) de tabela não suportado(s) pelo clone versionado nesta versão DBR: <unsupportedFeatureNames>.

Atualize para uma versão mais recente do DBR.

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Não é possível criar a vista <relationName> porque já existe.

Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

A profundidade de visão <viewName> excede a profundidade máxima de resolução de visão (<maxNestedDepth>).

A análise é abortada para evitar erros. Se você quiser contornar isso, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".

VIEW_NOT_FOUND

SQLSTATE: 42P01

A vista <relationName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.

Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.

Para tolerar o erro na queda use DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

Não é possível criar volume <relationName> porque ele já existe.

Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.

WATERMARK_ADVANCEMENT_STRATEGY

SQLSTATE: 0A000

A estratégia de avanço da marca d'água no streaming tem a seguinte limitação:

Para mais detalhes, consulte WATERMARK_ADVANCEMENT_STRATEGY

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

<funcName> função só pode ser avaliada em um quadro de janela ordenado baseado em linha com um único deslocamento: <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

A função de janela <funcName> requer uma cláusula OVER.

WITH_CREDENTIAL

SQLSTATE: 42601

A sintaxe WITH CREDENTIAL não é suportada para <type>.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream pode ser chamado apenas em Dataset/DataFrame de streaming.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

Falha ao executar o comando porque DEFAULT valores não são suportados ao adicionar novos

colunas para tabelas Delta previamente existentes; Por favor, adicione a coluna sem um padrão

primeiro, atribua o valor, e, em seguida, execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para efetuar a aplicação

para futuras linhas inseridas, em vez disso.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

Falha ao executar o comando <commandType> porque atribuiu um valor à coluna DEFAULT.

mas o recurso de tabela correspondente não estava habilitado. Tente novamente o comando

depois de executar ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'suportado').

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

A operação <operation> requer um <requiredType>. Mas <objectName> é um <foundType>. Use <alternative> em vez disso.

WRONG_NUM_ARGS

SQLSTATE: 42605

O <functionName> requer <expectedNum> parâmetros, mas o número real é <actualNum>.

Para mais detalhes, ver WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> opção é necessária para ler / gravar arquivos em formato XML.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML não suporta <innerDataType> como tipo interno de <dataType>. Por favor, envolva <innerDataType> num campo StructType, ao usá-lo dentro de <dataType>.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

Os dados recuperados e a coluna curinga não podem ser ativados simultaneamente. Remova a opção wildcardColumnName.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

A coluna <columnName> ZOrderBy não existe.

Lago Delta

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

Não foi possível encontrar o SparkSession ativo.

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

Não é possível definir um novo txn como ativo quando um já está ativo.

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

Falhou ao tentar adicionar a coluna <colName> porque o nome está reservado.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Por favor, envie um relatório de bug.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Por favor, envie um relatório de bug.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

O índice <columnIndex> para adicionar coluna <columnName> é inferior a 0.

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

Não é possível adicionar <columnName> porque seu pai não é um StructType. Encontrado <other>.

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

Struct não encontrado na posição <position>.

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Por favor, use ALTER TABLE ADD CONSTRAINT para adicionar restrições CHECK.

DELTA_AGGREGATE_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

Encontrado <sqlExpr> numa CHECK restrição. Expressões agregadas não são permitidas em CHECK restrições.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

Encontrado <sqlExpr>. Uma coluna gerada não pode usar uma expressão agregada.

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

Não há suporte para funções agregadas no <operation> <predicate>.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

Falha ao alterar o agrupamento da coluna <column> porque ela tem um índice de filtro Bloom. Mantenha o agrupamento existente ou remova o índice do filtro bloom e tente novamente o comando para alterar o agrupamento.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

Falha ao alterar a ordenação da coluna <column> porque é uma coluna de clusterização. Mantenha o agrupamento existente ou altere a coluna para uma coluna sem agrupamento com um comando ALTER TABLE e, em seguida, tente novamente o comando para alterar o agrupamento.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN não é suportado para alterar a coluna <currentType> para <newType>.

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY é suportado apenas para tabela Delta com agrupamento Liquid.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY não pode ser aplicado a uma tabela particionada.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

Operação não permitida: ALTER TABLE RENAME TO não é permitida para tabelas Delta gerenciadas no S3, pois uma eventual consistência no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName> antes, você pode habilitar isso definindo <key> como verdadeiro.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Não é possível ativar o recurso de tabela <tableFeature> usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OU REPLACE TABLE CLUSTER BY para criar uma tabela Delta com aglomeração.

DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED requer COPY ou MOVE para ser especificado para tabela <table>estrangeira .

DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG

SQLSTATE: 0A000

ALTER TABLE ... SET MANAGED não suporta a tabela Uniform Apache Iceberg. Desative Uniform ou use SET MANAGED TRUNCATE UNIFORM HISTORY.

DELTA_ALTER_TABLE_SET_MANAGED_FAILED

SQLSTATE: 42809

ALTER TABLE <table> SET MANAGED falhou.

Para mais detalhes, consulte DELTA_ALTER_TABLE_SET_MANAGED_FAILED

DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... SET MANAGED Comando não está ativado. Entre em contato com sua equipe de suporte Databricks para obter assistência.

DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

SQLSTATE: 55019

ALTER TABLE <table> SET MANAGED não consegue migrar a tabela dada.

Certifica-te de que a tabela está num estado válido e tenta novamente o comando. Se o problema persistir, contacte o suporte da Databricks.

Para mais detalhes, veja DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED [COPY | MOVE] A sintaxe não é suportada para a tabela <table>. Use ALTER TABLE ... SET MANAGED em vez disso.

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE

SQLSTATE: 42809

Não há suporte para tabela <table> estrangeira para migração para tabela gerenciada por UC: <errorMessage>.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED Não suporta tabela com modo de compatibilidade ativado.

Desative o modo de compatibilidade na tabela antes de executar este comando.

DELTA_ALTER_TABLE_UNSET_MANAGED_NÃO_SUPORTA_UNIFORME

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED não suporta o uniforme. Desative Uniform ou use UNSET MANAGED TRUNCATE UNIFORM HISTORY.

DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

SQLSTATE: 42809

<table> não pode ser revertido da tabela gerenciada para a tabela externa.

Para mais detalhes, consulte DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED Comando não está ativado. Entre em contato com sua equipe de suporte Databricks para obter assistência.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

Não é possível alterar o tipo de dados do <column> de <from> para <to>. Esta alteração contém remoções e adições de colunas, pelo que são ambíguas. Por favor, faça essas alterações individualmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

A coluna de partição ambígua <column> pode ser <colMatches>.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE contém dois locais diferentes: <identifier> e <location>.

Você pode remover a cláusula LOCATION da instrução CREATE TABLE ou definir

<config> verdadeiro para ignorar esta verificação.

DELTA_ARCHIVED_FILES_IN_LIMIT

Estado SQL: 42KDC

A Tabela <table> não contém registos suficientes em arquivos não arquivados para satisfazer LIMIT de registos <limit> especificados.

DELTA_ARCHIVED_FILES_IN_SCAN

Estado SQL: 42KDC

Encontrado <numArchivedFiles> arquivo(s) potencialmente arquivado(s) na tabela <table> que precisam ser verificados como parte desta consulta.

Os ficheiros arquivados não podem ser acedidos. O tempo atual até o arquivamento está configurado como <archivalTime>.

Ajuste os filtros de consulta para excluir quaisquer ficheiros arquivados.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

A operação "<opName>" não é permitida quando a tabela habilitou o feed de dados de alteração (CDF) e sofreu alterações de esquema usando DROP COLUMN ou RENAME COLUMN.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

Não é possível remover índices de filtros de Bloom para a(s) seguinte(s) coluna(s) inexistente(s): <unknownColumns>.

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

Ocorreu um erro de falta de memória ao escrever os índices de filtros Bloom para as seguintes colunas: <columnsWithBloomFilterIndices>.

Você pode reduzir o espaço ocupado pela memória dos índices de filtro bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

Não é possível alterar o tipo de dados: <dataType>.

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

Não é possível alterar a 'localização' da tabela Delta usando SET TBLPROPERTIES. Por favor, use ALTER TABLE SET LOCATION em vez disso.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

'Provedor' é uma propriedade de tabela reservada e não pode ser alterada.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

Não é possível criar índices de filtro bloom para a(s) seguinte(s) coluna(s) inexistente(s): <unknownCols>.

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

Não é possível criar <path>.

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

Não é possível descrever o histórico de uma exibição.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

Não é possível remover o índice de filtro Bloom em uma coluna não indexada: <columnName>.

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

Não é possível descartar o recurso de tabela de restrições de CHECK.

As seguintes restrições devem ser eliminadas primeiro: <constraints>.

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE: 0AKDE

Não é possível remover a funcionalidade da tabela de intercalações.

As colunas com agrupamentos não padrão devem ser alteradas para usar UTF8_BINARY primeiro: <colNames>.

DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE

SQLSTATE: 0AKDE

Não é possível descartar o recurso de tabela domainMetadata. A mesa <name> é uma mesa Apache Iceberg gerida. DomainMetadata não pode ser eliminado das tabelas Apache Iceberg geridas.

DELTA_NÃO_PODE_REMOVER_CARACTERÍSTICA_GEOSPATIAL

SQLSTATE: 0AKDE

Não é possível descartar o recurso de tabela geoespacial. Recrie a tabela ou solte colunas com tipos de geometria/geografia: <colNames> e tente novamente.

DELTA_CANNOT_DROP_VARIANT_FEATURE

SQLSTATE: 55000

DROP FEATURE <feature> não teve sucesso. Não é possível eliminar a funcionalidade de tabela variante. Colunas variantes devem ser eliminadas primeiro: <colNames>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

Não é possível avaliar a expressão: <expression>.

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

Expectativa de uma tabela Delta com classificação em blocos, mas não consegue encontrar a especificação de bloco na tabela.

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

Não é possível gerar código para expressão: <expression>.

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

Esta tabela está configurada para permitir apenas acréscimos. Se quiser permitir atualizações ou eliminações, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.

DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES

SQLSTATE: 42616

Não é possível substituir ou remover as propriedades de tabela relacionadas com o carimbo de data/hora de confirmação porque esta tabela é de propriedade do catálogo. Remova "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" e "delta.inCommitTimestampEnablementTimestamp" da TBLPROPERTIES cláusula e tente novamente o comando.

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> não pode substituir ou desdefinir as propriedades da tabela de carimbo de data/hora de confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os da cláusula TBLPROPERTIES ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") e, em seguida, tente o comando novamente.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

A configuração <prop> da tabela Delta não pode ser especificada pelo usuário.

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> não pode substituir as configurações de confirmações coordenadas de uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e, em seguida, tente executar o comando novamente.

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

Um uri (<uri>) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

Um caminho (<path>) que não pode ser relativizado com a entrada atual encontrada no

log de transações. Por favor, execute novamente isso como:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", verdadeiro)

e, em seguida, também executar:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

Não é possível renomear <currentPath> para <newPath>.

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

A Tabela <tableName> não pode ser substituída, pois não existe. Use CREATE OU REPLACE TABLE para criar a tabela.

DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN

SQLSTATE: 42703

Não é possível resolver a coluna de agrupamento <columnName> em <schema> devido a um erro inesperado. Corre ALTER TABLE...CLUSTER BY ... para reparar metadados do clustering Delta.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

Não é possível resolver a coluna <columnName> em <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

Não é possível restaurar a tabela para a versão <version>. Versões disponíveis: [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

Não é possível restaurar a tabela para o carimbo de data e hora (<requestedTimestamp>) pois é anterior à versão mais antiga disponível. Por favor, use um timestamp após: (<earliestTimestamp>).

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

Não é possível restaurar a tabela para a data e hora (<requestedTimestamp>) pois é posterior à versão mais recente disponível. Por favor, use uma marca temporal antes de (<latestTimestamp>).

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> não pode definir propriedades da tabela de carimbo de data/hora de confirmação juntamente com confirmações coordenadas, porque a última depende da primeira e define a primeira internamente. Remova-os da cláusula TBLPROPERTIES ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") e, em seguida, tente o comando novamente.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

Não é possível alterar o local de uma tabela baseada em caminho.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

Não é possível definir delta.managedDataSkippingStatsColumns numa tabela de Pipelines Declarativos Spark que não seja do Lakeflow.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE: 42616

Ao habilitar 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>" não pode ser definida a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE: 42616

Ao habilitar 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>" não pode ser definida a partir das configurações do SparkSession. Desconfigure-o executando spark.conf.unset("<configuration>") e, em seguida, tente novamente o comando.

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER não pode remover as configurações de confirmações coordenadas. Para downgrade de uma tabela a partir de commits coordenados, por favor tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

Não é possível atualizar <tableName> o tipo de campo <fieldName> : atualizar o elemento atualizando <fieldName>.element.

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

Não é possível atualizar <tableName> o tipo de campo <fieldName> : atualizar um mapa atualizando <fieldName>.key ou <fieldName>.value.

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

Não é possível atualizar <tableName> o campo do tipo <typeName>.

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

Não é possível atualizar o campo <tableName> de tipo <fieldName>: atualize a estrutura adicionando, eliminando ou atualizando os seus campos.

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

Estado SQL: 428FT

Não é possível usar todas as colunas como colunas de partição.

DELTA_CANNOT_VACUUM_LITE

SQLSTATE: 55000

VACUUM LITE não pode excluir todos os arquivos elegíveis, pois alguns arquivos não são referenciados pelo log Delta. Por favor, execute VACUUM FULL.

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> é uma visualização. Não é permitido fazer gravações numa vista.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

Falha ao gravar um valor do tipo <sourceType> na coluna do tipo <targetType><columnName> devido a uma sobrecarga.

Use try_cast no valor de entrada para tolerar sobrecarga e retornar NULL em vez disso.

Se necessário, defina <storeAssignmentPolicyFlag> como "LEGACY" para ignorar esse erro ou defina <updateAndMergeCastingFollowsAnsiEnabledFlag> como true para reverter ao comportamento antigo e siga <ansiEnabledFlag> e UPDATEMERGE.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

A atualização ou downgrade de uma tabela gerida por catálogo não é suportada. Crie uma nova tabela com as características desejadas em vez disso.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES

SQLSTATE: 429BQ

Não é possível combinar a atualização da tabela <tableName> com a gestão de catálogo com outras alterações de propriedade.

Propriedades fornecidas: <properties>.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

Configuração delta.enableChangeDataFeed não pode ser definida. O feed de dados de mudança da Delta ainda não está disponível.

DELTA_CDC_READ_NULL_RANGE_BOUNDARY

SQLSTATE: 22004

Os parâmetros de início/fim de leitura CDC não podem ser nulos. Forneça uma versão válida ou um carimbo de data/hora.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

A recuperação de alterações de tabela entre a versão <start> e a <end> falhou devido a um esquema de dados incompatível.

Seu esquema de leitura é <readSchema> na versão <readVersion>, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>.

Se possível, recupere as alterações da tabela usando o esquema da versão final definindo <config> como endVersion, ou entre em contato com o suporte.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

A recuperação de alterações de tabela entre a versão <start> e a <end> falhou devido a uma alteração de esquema incompatível.

Seu esquema de leitura é <readSchema> na versão <readVersion>, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>.

Se possível, consulte as alterações da tabela separadamente da versão <start> para <incompatibleVersion> - 1 e da versão <incompatibleVersion> para <end>.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE. Esta solicitação parece ter como alvo o Change Data Feed, se esse for o caso, esse erro pode ocorrer quando o arquivo de dados de alteração está fora do período de retenção e foi excluído pela instrução VACUUM. Para obter mais informações, consulte <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

Não é possível gravar na tabela com delta.enableChangeDataFeed ativo. O feed de dados de alteração da Delta não está disponível.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

Não é possível verificar uma tabela não existente <path>. Você excluiu manualmente os arquivos no diretório _delta_log?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

Dois caminhos foram fornecidos como o alvo CLONE por isso é ambíguo qual usar. Um externo

A localização para CLONE foi fornecida em <externalLocation> ao mesmo tempo que o caminho.

<targetIdentifier>.

DELTA_CLONE_INCOMPATIBLE_SOURCE

SQLSTATE: 0AKDC

A origem do clone tem formato válido, mas não tem suporte para o recurso Delta.

Para mais detalhes, consulte DELTA_CLONE_INCOMPATIBLE_SOURCE

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

Arquivo (<fileName>) não copiado completamente. Tamanho esperado do arquivo: <expectedSize>, encontrado: <actualSize>. Para continuar com a operação, ignorando a verificação de tamanho do arquivo, defina <config> como false.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Fonte de clone não suportada <mode> '<name>', cujo formato é <format>.

Os formatos suportados são 'delta', 'Apache Iceberg' e 'parquet'.

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Tabela de origem não suportada:

Para informações adicionais, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

SQLSTATE: 0AKDC

Tabela de destino não suportada:

Para mais informações, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

DELTA_CLONE_COM RASTREAMENTO DE LINHAS_SEM ESTATÍSTICAS

SQLSTATE: 22000

Não é possível clonar superficialmente uma tabela sem estatísticas e com o rastreamento de linha habilitado.

Se você quiser habilitar o rastreamento de linhas, primeiro precisará coletar estatísticas na tabela de origem executando:

ANALYZE TABLE table_name COMPUTE DELTA STATISTICS

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE não é suportado para tabela Delta com clustering Liquid para DBR versão < 14.0.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY não é suportado porque a(s) seguinte(s) coluna(s): <columnsWithDataTypes> não suporta(m) o salto de dados.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

As colunas de agrupamento fornecidas não correspondem às da tabela existente.

  • fornecido: <providedClusteringColumns>

  • existente: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

O agrupamento líquido requer que as colunas de agrupamento tenham estatísticas. Não foi possível encontrar coluna(s) de agrupamento '<columns>' no esquema de estatísticas:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

Não é permitida a criação de uma tabela externa sem agrupamento líquido a partir de um diretório de tabelas que têm agrupamento líquido; caminho: <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' não suporta clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

Não é possível concluir o <phaseOutType> da tabela com a funcionalidade de tabela <tableFeatureToAdd> (motivo: <reason>). Tente o comando OPTIMIZE novamente.

== Erro ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

REPLACE uma tabela Delta com agrupamento Liquid numa tabela particionada não é permitida.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE não é suportado para a tabela Delta com Liquid clustering, se não houver colunas de clustering.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

A transição de uma tabela Delta com clustering Liquid para uma tabela particionada não é permitida para operação: <operation>, quando a tabela existente tiver colunas de clustering não vazias.

Execute ALTER TABLE CLUSTER BY NONE para remover primeiro as colunas de agrupamento.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

O modo de sobrescrita de partições dinâmicas não é permitido para tabela Delta com Liquid clustering.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

O comando OPTIMIZE para a tabela Delta com clustering Liquid não suporta predicados de partição. Por favor, remova os predicados: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

OPTIMIZE comando para tabela Delta com clustering Líquido não pode especificar ZORDER BY. Por favor, remova ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_AUTO_MISMATCH

SQLSTATE: 42000

O valor clusterByAuto fornecido não corresponde ao da tabela existente.

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

CLUSTER BY para clustering de Liquid suporta até <numColumnsLimit> colunas de clusterização, mas a tabela tem <actualNumColumns> colunas de clusterização. Remova as colunas de clustering extras.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Não é permitido especificar CLUSTER BY quando o esquema não está definido. Defina o esquema para a tabela <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

Clustering e bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS / bucketBy se quiser criar uma tabela Delta com clustering.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

O clustering e o particionamento não podem ser especificados. Remova PARTITIONED BY / partitionBy / partitionedBy se quiser criar uma tabela Delta com clustering.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

As colações não são suportadas no Delta Lake.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

O salto de dados não é suportado para a coluna de partição '<column>'.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

O salto de dados não é suportado para a coluna '<column>' do tipo <type>.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

A propriedade max column id (<prop>) não está definida em uma tabela habilitada para mapeamento de coluna.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

A propriedade ID máxima da coluna (<prop>) em uma tabela com mapeamento de coluna ativado é <tableMax>, o que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>).

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

O tipo de dados da coluna <colName> não foi fornecido.

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

Não foi possível encontrar a coluna <columnName> fornecida [<columnList>].

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

Não é possível encontrar a coluna '<targetCol>' da tabela de destino a partir das colunas INSERT: <colNames>. INSERT cláusula deve especificar o valor para todas as colunas da tabela de destino.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

Não foi possível encontrar a coluna <columnName> em:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

Espera-se que <columnPath> seja um tipo de dados aninhado, mas foi encontrado <other>. Estava à procura do

índice de <column> num campo aninhado.

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

A coluna Struct <source> não pode ser inserida em um campo <targetType><targetField> em <targetTable>.

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE: 42P01

Não é possível manipular a confirmação da tabela dentro do estado da tabela de redirecionamento '<state>'.

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

A validação da compactação do caminho <compactedPath> para <newPath> falhou: Por favor, registre um relatório de bug.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

Foi encontrado NullType aninhado na coluna <columName> que é de <dataType>. Delta não suporta a escrita NullType em tipos complexos.

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: Os arquivos foram adicionados ao <partition> por uma atualização simultânea. <retryMsg> <conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: Esta transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo, <file>) por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: Esta transação tentou ler um ou mais arquivos que foram excluídos (por exemplo, <file>) por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: Este erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: Uma transação concorrente escreveu novos dados desde que a transação atual leu a tabela. Por favor, tente a operação novamente.<conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

Há um conflito a partir destas SET colunas: <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Durante <command>, a configuração "<configuration>" não pode ser feita a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Durante <command>, a configuração "<configuration>" não pode ser definida através das configurações do SparkSession. Desconfigure-o executando spark.conf.unset("<configuration>") e, em seguida, tente novamente o comando.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

A restrição '<constraintName>' já existe. Por favor, exclua a restrição antiga primeiro.

Antiga restrição:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

A coluna <columnName> tem o tipo de dados <columnType> e não pode ser alterada para o tipo de dados <dataType> porque esta coluna é referenciada pela(s) seguinte(s) restrição(ões) de verificação:

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Não é possível alterar a coluna <columnName> porque esta coluna é referenciada pela(s) seguinte(s) restrição(ões) de verificação:

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

Não é possível remover a restrição inexistente <constraintName> da tabela <tableName>. Para evitar o lançamento de um erro, forneça o parâmetro IF EXISTS ou defina a configuração da sessão SQL <config> para <confValue>.

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE: 0AKDC

A conversão da tabela Merge-on-Read <format> não é suportada: <path>, <hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

Não foram encontradas informações de partição no catálogo da tabela <tableName>. Você já executou "MSCK REPAIR TABLE" em sua mesa para descobrir partições?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

Não é possível converter a tabela Parquet com a coluna de partição agrupada <colName> em Delta.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

A configuração '<config>' não pode ser definida como <mode> ao usar CONVERT TO DELTA.

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Alterações de esquema não suportadas encontradas para <format> a tabela: <path>, <hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA suporta apenas tabelas de parquet, mas você está tentando converter uma <sourceName> fonte: <tableId>.

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

Não é possível ativar o rastreamento de linhas sem coletar estatísticas.

Se quiser habilitar o rastreamento de linhas, faça o seguinte:

  1. Habilitar a coleta de estatísticas executando o comando

SET <statisticsCollectionPropertyKey> = verdadeiro

  1. Execute CONVERT TO DELTA sem a opção NO STATISTICS.

Se você não quiser coletar estatísticas, desative o rastreamento de linhas:

  1. Desative a ativação do recurso de tabela por padrão executando o comando:

RESET <rowTrackingTableFeatureDefaultKey>

  1. Desative a propriedade tabela por padrão executando:

SET <rowTrackingDefaultPropertyKey> = falso

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO alvo deve ser uma tabela Delta.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Você está tentando criar uma tabela externa <tableName>

de <path> usando Delta, mas o esquema não é especificado quando o

O caminho de entrada está vazio.

Para saber mais sobre a Delta, consulte <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Você está tentando criar uma tabela externa <tableName> de <path> usando Delta, mas não há nenhum log de transações presente em <logPath>. Verifique o trabalho upstream para certificar-se de que ele está escrevendo usando format("delta") e que o caminho é a raiz da tabela.

Para saber mais sobre a Delta, consulte <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

Não é suportada a criação de uma tabela Delta baseada em caminho com uma localização diferente. Identificador: <identifier>, Localização: <location>.

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

O nome ou a localização da tabela têm de ser especificados.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

O esquema especificado não corresponde ao esquema existente em <path>.

== Especificado ==

<specifiedSchema>

== Existente ==

<existingSchema>

== Diferenças ==

<schemaDifferences>

Se sua intenção é manter o esquema existente, você pode omitir o

esquema do comando create table. Caso contrário, certifique-se de que

o esquema corresponde.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Não é possível ativar o recurso de tabela <tableFeature> usando TBLPROPERTIES. Use CREATE OU REPLACE TABLE CLUSTER BY para criar uma tabela Delta com aglomeração.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

As colunas de agrupamento especificadas não correspondem às colunas de agrupamento existentes em <path>.

== Especificado ==

<specifiedColumns>

== Existente ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

O particionamento especificado não corresponde ao particionamento existente em <path>.

== Especificado ==

<specifiedColumns>

== Existente ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

As propriedades especificadas não correspondem às propriedades existentes em <path>.

== Especificado ==

<specifiedProperties>

== Existente ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

Não é possível criar tabela ('<tableId>'). O local associado ('<tableLocation>') não está vazio e também não é uma tabela Delta.

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: '<op>'.

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Este arquivo parquet pode ser excluído de acordo com a política de retenção de dados da Delta.

Duração padrão de retenção de dados do Delta: <logRetentionPeriod>. Tempo de modificação do arquivo parquet: <modificationTime>. Tempo de eliminação do ficheiro parquet: <deletionTime>. Excluído na versão Delta: <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

É inválido encaminhar ficheiros com vetores de eliminação sem a estatística de numRecords.

DESATIVAR_MATERIALIZAÇÃO_DE_FONTE_EM_INSERIR_SUBSTITUIR_COM_ON_OU_USANDO_NÃO_PERMITIDO

SQLSTATE: 0AKDC

Não é permitido desativar a materialização de origem no INSERT REPLACE ON/USING ao definir 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' para 'none'.

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED

SQLSTATE: 0AKDC

Não é permitido desativar a materialização de origem definindo MERGE 'spark.databricks.delta.merge.materializeSource' como 'none'.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

Ação(ões) DomainMetadata detetada(s) para domínios <domainNames>, mas DomainMetadataTableFeature não está ativado.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

Índice <columnIndex> para remover coluna é inferior a 0.

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

Não é possível remover uma coluna de um esquema com uma única coluna. Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

A operação de arquivo '<actionType>' para o caminho <path> foi especificada várias vezes.

Entra em conflito com <conflictingPath>.

Não é válido que existam várias operações de arquivo com o mesmo caminho em uma única confirmação.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

Coluna(s) duplicada(s) encontrada(s) <coltype>: <duplicateCols>.

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

Nomes de coluna duplicados na cláusula INSERT.

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

Remova as colunas duplicadas antes de atualizar a tabela.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

Dados duplicados ignorando colunas encontradas: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

Erro interno: duas ações DomainMetadata dentro da mesma transação têm o mesmo domínio <domainName>.

ENTRADAS_DE_LOG_DUPLICADAS_DELTA_ENCONTRADAS

SQLSTATE: 55019

O log Delta está em um estado ilegal: <numDuplicates> os caminhos têm entradas duplicadas na versão <version>. RESTORE para uma versão anterior à confirmação que introduziu a duplicação ou entre em contato com o suporte para obter assistência.

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

O modo de substituição de partição dinâmica é especificado pelas opções de configuração de sessão ou gravação, mas é desabilitado pelo spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Os dados usados na criação da tabela Delta não têm colunas.

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

Nenhum arquivo encontrado no diretório: <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

O valor "<value>" excede a limitação de comprimento do tipo char/varchar. Falha na verificação: <expr>.

METADADOS_EXTERNOS_DELTA_PROJECAO_NAO_RESOLVIDA

SQLSTATE: 42703

A consulta de projeção '<query>' não pode ser resolvida no esquema: <schemaTreeString>

DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Os metadados externos não suportam a fonte.

Para mais detalhes, ver DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

Falha ao converter o valor <value> da partição para <dataType>.

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

Não foi possível encontrar <newAttributeName> entre a saída existente de destino <targetOutputColumns>.

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

Falha ao inferir esquema a partir da lista fornecida de arquivos.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

Falha ao mesclar esquema de arquivo <file>:

<schema>

DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE

SQLSTATE: 42893

Falha ao executar a operação na tabela <sourceTable> de origem porque o clone <targetTable> superficial ainda existe e ocorreu o seguinte erro no clone superficial: <message>

SQLSTATE: KD001

Não foi possível ler o rodapé do arquivo: <currentFile>.

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

Não é possível reconhecer o predicado '<predicate>'.

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Era esperada uma verificação completa da versão mais recente do código-fonte Delta; no entanto, foi encontrada uma verificação histórica da versão <historicalVersion>.

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

Falha ao mesclar campos '<currentField>' e '<updateField>'.

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: KD004

Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não listados no protocolo: <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 42000

Seu esquema de tabela requer a ativação manual do(s) seguinte(s) recurso(s) de tabela: <unsupportedFeatures>.

Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'suportado')

Substitua "table_name" e "feature_name" por valores reais.

Funcionalidade(s) suportada(s) atual(is): <supportedFeatures>.

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE: 55000

Não foi possível descartar o recurso Proteção de ponto de verificação.

Esse recurso só pode ser descartado truncando o histórico.

Por favor, tente novamente com a TRUNCATE HISTORY opção:

ALTER TABLE table_name DROP FEATURE proteção de ponto de verificação TRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE: 22KD0

A remoção de <featureName> falhou devido a uma falha na criação do ponto de verificação.

Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte da Databricks.

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

A operação não teve sucesso porque ainda há vestígios de funcionalidades removidas

no histórico da tabela. CheckpointProtection não pode ser descartado até que estes históricos sejam resolvidos

as versões expiraram.

Para desativar o CheckpointProtection, por favor aguarde até que as versões históricas estejam completas.

expirar e, em seguida, repita este comando. O período de retenção para versões históricas é

atualmente configurado para <truncateHistoryLogRetentionPeriod>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 40000

Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.

Por favor, tente a operação novamente.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 55000

Não é possível eliminar a funcionalidade da tabela <feature> porque algumas outras funcionalidades (<dependentFeatures>) nesta tabela dependem de <feature>.

Considere descartá-los primeiro antes de descartar esse recurso.

DELTA_CARACTERÍSTICA_REMOVA_CARACTERÍSTICA_É_PROPRIEDADE_DELTA

SQLSTATE: 42000

Não é possível soltar <property> desta tabela porque esta é uma propriedade de tabela delta e não um recurso de tabela.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 55000

Não é possível remover <feature> desta tabela porque não está presente no protocolo da tabela.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 22KD0

Não é possível eliminar <feature> porque o log Delta contém versões históricas que usam a funcionalidade.

Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>=<logRetentionPeriod>)

já passou desde a última vez que a funcionalidade esteve ativa.

Ou então, aguarde até que o período de retenção de TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>)

e, em seguida, execute:

ALTER TABLE nome_da_tabela DROP FEATURE nome_da_característica TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 42000

O recurso específico não requer truncamento do histórico.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDC

Não é possível descartar <feature> porque não há suporte para descartar esse recurso.

Entre em contato com o suporte da Databricks.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDC

Não é possível remover <feature> porque não é suportado por esta versão do Databricks.

Considere o uso do Databricks com uma versão superior.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

O lançamento do <feature> foi parcialmente bem-sucedido.

O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso

ainda está presente em versões históricas da tabela. O recurso de tabela não pode ser descartado

do protocolo de tabela até que essas versões históricas tenham expirado.

Para remover o recurso de tabela do protocolo, aguarde que as versões históricas sejam carregadas.

expirar e, em seguida, repita este comando. O período de retenção para versões históricas é

atualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>.

Ou então, aguarde até que o período de retenção de TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>)

e, em seguida, execute:

ALTER TABLE nome_da_tabela DROP FEATURE nome_da_característica TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 55000

Não é possível ativar o recurso de tabela <feature> porque requer uma versão de protocolo de leitor superior (<current>atual). Considere atualizar a versão do protocolo de leitura da tabela para <required>, ou para uma versão que ofereça suporte aos recursos da tabela do leitor. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 55000

Não é possível habilitar o recurso de tabela <feature> porque ele requer uma versão superior do protocolo de gravador (<current>atual). Considere atualizar a versão do protocolo de gravador da tabela para <required>, ou para uma versão que ofereça suporte aos recursos da tabela do gravador. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

Caminho do arquivo existente <path>.

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

Não é possível especificar a lista de arquivos e a cadeia de caracteres de padrão.

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

Caminho do arquivo <path>.

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Isso ocorre quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE. Para obter mais informações, consulte <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

Nenhum arquivo ou diretório desse tipo: <path>.

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

Arquivo (<path>) a ser reescrito não encontrado entre os arquivos candidatos:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

Foi encontrado um tipo de mapa (MapType). Para acessar a chave ou o valor de um MapType, especifique um

of:

<key> ou

<value>

seguido do nome da coluna (apenas se essa coluna for do tipo struct).

por exemplo, mymap.key.mykey

Se a coluna for de um tipo básico, basta utilizar mymap.key ou mymap.value.

Schema:

<schema>

DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG

SQLSTATE: 55000

A FSCK não consegue reparar a mesa. A tabela não tem um checkpoint válido para iniciar a repetição do log, e não há histórico suficiente para repetir a primeira versão.

DELTA_FSCK_CONCURRENT_MODIFICATION

SQLSTATE: 2D521

Modificação simultânea da tabela detetada durante a execução do FSCK. Por favor, tente novamente o comando FSCK e certifique-se de que nenhuma outra operação está a escrever na tabela durante o processo de reparação.

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS

SQLSTATE: 55000

O ENSAIO FSCK não pode avançar porque foram detetados pontos de controlo inválidos. Por favor, execute primeiro 'SÓ MESA METADATA FSCHKREPAIR TABLE' para reparar os pontos de controlo.

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES

SQLSTATE: 55000

FSCK DRY RUN não pode avançar porque foram detetados ficheiros em falta ou com valores de partição inválidos. Por favor, faça primeiro a 'mesa FSCK REPAIR TABLE ' para reparar a mesa.

DELTA_FSCK_INVALID_BARRIER_CHECKPOINT

SQLSTATE: 55000

A FSCK não consegue reparar a mesa. Alguns dos postos de controlo inválidos estão protegidos e não podem ser removidos. Entre em contato com o suporte da Databricks.

DELTA_FSCK_NO_VALID_CHECKPOINT

SQLSTATE: 55000

A FSCK não consegue reparar a mesa. Todos os checkpoints desta tabela são inválidos. Entre em contato com o suporte da Databricks.

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

A coluna <columnName> tem o tipo de dados <columnType> e não pode ser alterada para o tipo de dados <dataType> porque esta coluna é referenciada pela(s) seguinte(s) coluna(s) gerada(s):

<generatedColumns>.

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Não é possível alterar a coluna <columnName> porque esta coluna é referenciada pela(s) seguinte(s) coluna(s) gerada(s):

<generatedColumns>.

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

O tipo de expressão da coluna <columnName> gerada é <expressionType>, mas o tipo de coluna é <columnType>.

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

A coluna <currentName> é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType> e não pode ser convertido em tipo <updateDataType>de dados .

DELTA_GEOSPATIAL_NOT_SUPPORTED

SQLSTATE: 0AKDC

Os tipos geoespaciais não são suportados nesta versão do Delta Lake.

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE: 0AKDC

O tipo geoespacial tem um SRID não suportado: <srid>. As tabelas delta suportam apenas valores srid não negativos.

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

A validação do IcebergCompatV<version> falhou.

Para mais detalhes, veja DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

SQLSTATE: KD00E

A validação do IcebergWriterCompatV<version> falhou.

Para mais detalhes, consulte DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN não é suportado para colunas IDENTITY.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY só é suportado pela Delta.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY não pode ser chamado em colunas não IDENTITY.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

Não é suportado fornecer valores para GENERATED ALWAYS AS IDENTITY a coluna <colName> .

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY passo da coluna não pode ser 0.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

IDENTITY colunas são suportadas apenas pelo Delta.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY coluna <colName> não é suportada.

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS não é suportado para tabelas com colunas IDENTITY.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> não é suportado para colunas IDENTITY.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

A coluna UPDATE em IDENTITY<colName> não é suportada.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

IDENTITY coluna não pode ser especificada com uma expressão de coluna gerada.

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

Valor inválido '<input>' para a opção '<name>', <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

O uso de <option> não é permitido quando <operation> uma tabela Delta.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

A especificação de compartimentos na tabela Delta compartimentada não corresponde à especificação de compartimentos dos metadados. Esperado: <expected>. Real: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) não pode ser definido com valores diferentes. Por favor, defina apenas um deles, ou defina-os com o mesmo valor.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

Acessando incorretamente um ArrayType. Use a posição de arrayname.element.elementname para

adicionar a uma matriz.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

Foi encontrado um ArrayType. Para acessar elementos de um ArrayType, especifique

<rightName> em vez de <wrongName>.

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

Use getConf() em vez de conf.getConf().

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

O erro normalmente ocorre quando a implementação padrão do LogStore, que

is, HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não-HDFS.

A fim de obter as garantias transacionais ACID em atualizações de tabela, terás de usar o

implementação correta do LogStore apropriada para seu sistema de armazenamento.

Consulte <docLink> para obter detalhes.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

Índice <index> para soltar coluna igual ou maior que o comprimento estrutural: <length>.

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

O índice <index> para adicionar a coluna <columnName> é maior que o comprimento da estrutura: <length>.

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

Não é possível gravar em '<tableName>', <columnName>; embora a tabela de destino tenha <numColumns> coluna(s), os dados inseridos contêm <insertColumns> coluna(s).

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

A coluna <columnName> não é especificada em INSERT.

DELTA_INSERIR_SUBSTITUIR_EM_COLUNAS_AMBÍGUAS_NA_CONDIÇÃO

SQLSTATE: 42702

A(s) coluna(s) são(são) ambígua(s) <columnNames> na condição de INSERT REPLACE ON. Considere especificar um alias para essas colunas.

DELTA_INSERT_REPLACE_ON_NOT_ENABLED

SQLSTATE: 0A000

Por favor, contacte o seu representante Databricks para ativar o INSERT INTO...REPLACE ON ... APIs SQL e DataFrame.

DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION

SQLSTATE: 42703

A(s) coluna(s) <columnNames> não pode(m) ser resolvida(s) na condição de INSERT REPLACE ON.

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

Tipo de compactação automática inválido: <value>. Os valores permitidos são: <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

Contagem de bucket inválida: <invalidBucketCount>. A contagem de balde deve ser um numérico positivo que seja potência de 2 e pelo menos 8. Você pode usá<validBucketCount> em vez disso.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

Não é possível localizar a coluna bucket nas colunas de partição.

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

O intervalo não pode ser nulo ou em branco.

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

O intervalo do CDC do início <start> ao fim <end> é inválido. O fim não pode ser antes do início.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

O nome do atributo "<columnName>" contém caracteres inválidos entre " ,;{}()\n\t=". Por favor, use o pseudónimo para renomeá-lo.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

Foram encontrados caracteres inválidos entre ' ,;{}()\n\t=' nos nomes das colunas do seu esquema.

Nomes de colunas inválidos: <invalidColumnNames>.

Use outros caracteres e tente novamente.

Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.

DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES

SQLSTATE: 42621

Encontrado <colName> em CHECK restrição. Uma restrição de verificação não pode usar uma coluna inexistente.

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

O local de destino para CLONE precisa ser um caminho absoluto ou nome de tabela. Utilize uma seringa

caminho absoluto em vez de <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

Foram encontrados caracteres inválidos entre ' ,;{}()\n\t=' nos nomes das colunas do seu esquema.

Nomes de colunas inválidos: <invalidColumnNames>.

O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.

Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.

DELTA_INVALID_FORMAT

SQLSTATE: 22000

Formato incompatível detetado.

Um log de transações para Delta foi encontrado em <deltaRootPath>/_delta_log,

mas você está tentando <operation> <path> usar format("<format>"). Deve utilizar

'format("delta")' ao ler e escrever numa tabela delta.

Para saber mais sobre a Delta, consulte <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada.

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

Opções inválidas para escritas idempotentes de Dataframe: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> não é um INTERVALválido.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

O esquema para o INVENTORY especificado não contém todos os campos obrigatórios. Os campos obrigatórios são: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

nível de isolamento inválido '<isolationLevel>'.

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) e (<schemeConfig>) não podem ser definidos ao mesmo tempo. Por favor, defina apenas um grupo deles.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

Você está tentando criar uma tabela gerenciada <tableName>

usando Delta, mas o esquema não é especificado.

Para saber mais sobre a Delta, consulte <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> não é uma coluna de partição válida na tabela <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

Encontrei colunas de partição com caracteres inválidos entre " ,;{}()\n\t=". Por favor, altere o nome para as suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

Não há suporte para usar a coluna <name> do tipo <dataType> como coluna de partição.

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

Um fragmento de caminho de partição deve ter a forma de part1=foo/part2=bar. O caminho da partição: <path>.

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

A versão do protocolo não pode ser rebaixada de (<oldProtocol>) para (<newProtocol>).

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

Versão do protocolo Delta não suportada: a tabela "<tableNameOrPath>" requer a versão <readerRequired> do leitor e a versão <writerRequired>do gravador, mas esta versão do Databricks suporta as versões <supportedReaders> do leitor e do <supportedWriters>gravador. Atualize para uma versão mais recente.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

A função <function> é uma função com valor de tabela não suportada para leituras do CDC.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

O carimbo de data/hora <timestamp> fornecido não corresponde à sintaxe esperada <format>.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Já existe um log Delta em <path>.

DELTA_LOG_FILE_NOT_FOUND

SQLSTATE: 42K03

Não é possível recuperar os arquivos de log delta para construir a versão <version> da tabela a partir da versão <checkpointVersion> do ponto de verificação em <logPath>.

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

Se você nunca o excluiu, é provável que sua consulta esteja atrasada. Por favor, exclua seu ponto de verificação para reiniciar do zero. Para evitar que isso aconteça novamente, você pode atualizar sua política de retenção da tabela Delta.

DELTA_LOG_JSON_FILE_ACCESS_DENIED

SQLSTATE: 58000

Acesso negado ao ler o ficheiro de registo JSON Delta: <filePath>. Verifica se tens permissões de leitura para a localização da tabela Delta.

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

Nome da coluna materializada <rowTrackingColumn> ausente para <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Por favor, use um limite inferior a Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

Este compromisso fracassou, pois foi tentado <numAttempts> vezes, mas não teve sucesso.

Isso pode ser causado pela tabela Delta ser comprometida continuamente por muitos concorrentes

commits.

Confirmação iniciada na versão: <startVersion>

A confirmação falhou na versão: <failVersion>

Número de ações que se tentou cometer: <numActions>

Tempo total gasto na tentativa de confirmação: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

Lista de arquivos deve ter no máximo <maxFileListSize> entradas, teve <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

Não é possível adicionar a coluna <newColumn> com o tipo VOID. Especifique explicitamente um tipo não nulo.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

Falha ao mesclar tipos de dados incompatíveis <currentDataType> e <updateDataType>.

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

Falha ao mesclar tipos decimais com incompatíveis <decimalRanges>.

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

Manter materializada a fonte da declaração MERGE falhou repetidamente.

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

Deve haver pelo menos uma cláusula WHEN numa declaração MERGE.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

Atributo(s) resolvido(s) ausente(s) do <missingAttributes> no operador <input>.

DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION

SQLSTATE: 25000

A MERGE operação falhou porque (parte do) plano de origem foi armazenado em cache enquanto a MERGE operação estava em execução.

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

Chave de atribuição inesperada: <unexpectedKeyClass> - <unexpectedKeyObject>.

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

Não é possível resolver <sqlExpr> em <clause> determinadas colunas <cols>.

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: Os metadados da tabela Delta foram alterados por uma atualização simultânea. Por favor, tente a operação novamente.<conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

Erro ao obter dados de alteração para o intervalo [<startVersion> , <endVersion>] pois os dados de alteração não foram

gravado para a versão [<version>]. Se tiver ativado o feed de dados de alteração nesta tabela,

Use DESCRIBE HISTORY para ver quando ele foi habilitado pela primeira vez.

Caso contrário, para começar a gravar dados de alteração, use ALTER TABLE table_name SET TBLPROPERTIES

(<key>=verdade).

DELTA_MISSING_COLUMN

SQLSTATE: 42703

Não é possível encontrar <columnName> nas colunas da tabela: <columnList>.

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

Esta tabela tem o recurso <featureName> habilitado, que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de commit <version>.

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

Esta tabela tem o recurso <featureName> habilitado, que requer a presença de commitTimestamp na ação CommitInfo. No entanto, este campo não foi definido na versão commit <version>.

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> não é uma tabela Delta.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

Tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

A classe Apache Iceberg não foi encontrada. Certifique-se de que o suporte Delta Apache Iceberg está instalado.

Consulte <docLink> para obter mais detalhes.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

A coluna <columnName>, que tem uma restrição de NOT NULL, está ausente dos dados que estão sendo gravados na tabela.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

A coluna de partição <columnName> não encontrada no esquema <columnList>.

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

Não foi possível encontrar todos os ficheiros de partes da versão de ponto de verificação: <version>.

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA só suporta mesas de parquet. Por favor, reescreva seu alvo como parquet. <path> se for um diretório parquet.

DELTA_MISSING_ROW_TRACKING_FOR_CDC

SQLSTATE: 0AKDE

O erro ao obter dados de alteração como <tableName> rastreio de linhas não estava ativado. Para ativar o rastreamento de linhas, use ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET coluna não <columnName> encontrada determinadas colunas: <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

Formato incompatível detetado.

Você está tentando <operation> <path> usando o Delta, mas não há

log de transações presente. Verifique o trabalho upstream para se certificar de que está a escrever

usando format("delta") e que você está tentando %1$s o caminho base da tabela.

Para saber mais sobre a Delta, consulte <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

O modo especificado '<mode>' não é suportado. Os modos suportados são: <supportedModes>.

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

Vários argumentos de <startingOrEnding> fornecidos para leitura do CDC. Por favor, forneça um dos <startingOrEnding>Timestamp ou <startingOrEnding>Version.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

Várias configurações de índice de filtro bloom passadas para o comando da coluna: <columnName>.

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

Não é possível realizar a Merge porque várias linhas de origem coincidiram e tentaram modificá-las iguais

linha de alvos na tabela Delta de formas possivelmente contraditórias. Pela semântica SQL do Merge,

Quando várias linhas de origem coincidem na mesma linha-alvo, o resultado pode ser ambíguo

pois não está claro qual a linha de origem que deve ser usada para atualizar ou eliminar a correspondência

Linha de alvos. Pode pré-processar a tabela de origem para eliminar a possibilidade de

Múltiplas correspondências. Por favor, consulte

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

Durante <command>, ambas as configurações de commits coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são configuradas no comando ou nenhuma delas. Falta: "<configuration>". Especifique essa configuração na cláusula TBLPROPERTIES ou remova a outra configuração e tente novamente o comando.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

Durante <command>, ou ambas as configurações de commits coordenadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession, ou nenhuma delas. Falta: "<configuration>". Defina essa configuração no SparkSession ou desdefina a outra configuração e tente novamente o comando.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

O(s) seguinte(s) nome(s) de coluna são reservados apenas para uso interno da tabela de buckets Delta: <names>.

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

O esquema de entrada contém campos aninhados que são capitalizados de forma diferente da tabela de destino.

Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.

Fields:

<fields>.

Esquema original:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

O tipo <nestType> do campo <parent> contém uma restrição NOT NULL. O Delta não suporta restrições de NOT NULL aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey> = true.

Tipo de <nestType> analisado:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

A subconsulta aninhada não é suportada na condição <operation>.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> linhas em <tableName> violam a nova restrição CHECK (<checkConstraint>).

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> linhas em <tableName> violam a nova NOT NULL restrição em <colName>.

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK restrição '<name>' (<expr>) deve ser uma expressão booleana.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

Encontrado <expr> numa CHECK restrição. Uma CHECK restrição não pode usar uma expressão não determinística.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

Encontrado <expr>. Uma coluna gerada não pode usar uma expressão não determinística.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Funções não determinísticas não são suportadas no <operation> <expression>.

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Quando há mais de uma cláusula MATCHED em uma declaração MERGE, apenas a última cláusula MATCHED pode omitir a condição.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma declaração MERGE, apenas a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Quando há mais de uma cláusula NOT MATCHED em uma declaração MERGE, apenas a última cláusula NOT MATCHED pode omitir a condição.

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

Não foi possível analisar a tag <tag>.

As tags de arquivo são: <tagList>.

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

Os dados gravados no Delta precisam conter pelo menos uma coluna não particionada.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

O predicado faz referência à coluna não particionada '<columnName>'. Apenas as colunas de partição podem ser referenciadas: [<columnList>].

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

Colunas não-particionadas <columnList> foram especificadas, onde apenas colunas de particionamento são esperadas: <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

O catálogo delta requer um namespace de parte única, mas <identifier> é de várias partes.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Não é suportada a configuração do coordenador de confirmação como '<nonUcCoordinatorName>' a partir do comando, porque as tabelas geridas pelo UC só podem ter 'unity-catalog' como coordenador de confirmação. Altere-o para 'unity-catalog' ou remova todas as propriedades da tabela Commits Coordenados da TBLPROPERTIES cláusula e tente novamente o comando.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Não há suporte para a configuração do coordenador de confirmação como '<nonUcCoordinatorName>' das configurações do SparkSession, porque as tabelas gerenciadas por UC só podem ter 'unity-catalog' como coordenador de confirmação. Por favor, altere para 'unity-catalog' executando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog"), ou remova todas as propriedades da tabela de Commits Coordenados das configurações do SparkSession executando spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), e depois tente novamente o comando.

DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

A tabela <tableName> não é gerenciada por UC. Apenas tabelas geridas por UC podem ser atualizadas ou rebaixadas para tabelas geridas por catálogo.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> não é uma tabela Delta. Por favor, elimine esta tabela primeiro se pretende criá-la com o Databricks Delta.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> não é uma tabela Delta. Por favor, elimina esta tabela primeiro se pretender recriá-la com o Delta Lake.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

Coluna não anulável não encontrada na struct: <struct>.

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

NOT NULL restrição violada para coluna: <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

Um campo aninhado não anulável não pode ser adicionado a um campo pai anulável. Defina a anulabilidade da coluna pai de forma adequada.

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

Nenhum compromisso encontrado em <logPath>.

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

Nenhum commit recriável encontrado em <logPath>.

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE: 42P01

Operação não permitida: <operation> não pode ser executada em uma tabela com recurso de redirecionamento.

As regras de não redirecionamento não são satisfeitas <noRedirectRules>.

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

Tabela <tableIdent> não encontrada.

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

Nenhum "startingVersion" ou "startingTimestamp" foi fornecido para a leitura CDC.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta não aceita NullTypes no esquema para gravações de streaming.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

Por favor, forneça 'timestampAsOf' ou 'versionAsOf' para viagens no tempo.

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> só é suportado para tabelas Delta.

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

Forneça o caminho ou identificador de tabela para <operation>.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

Operação não permitida: <operation> não é suportada para tabelas Delta.

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

Operação não permitida: <operation> não é suportada para tabelas Delta: <tableName>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> não é suportado para coluna <colName> com agrupamento <collation>não padrão.

DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES

SQLSTATE: 0AKDC

<operation> não é suportado para tipos de dados: <dataTypeList>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> não é suportado para a expressão <exprText> porque utiliza agrupamento não padrão.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

<operation> comando em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é suportado. Execute o <operation> comando diretamente na tabela Delta.

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

Operação não permitida: <operation> não pode ser executada em uma exibição.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL só é suportado para tabelas clusterizadas com colunas de clustering não vazias.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

A opção de cópia overwriteSchema não pode ser especificada sem a definição OVERWRITE = 'true'.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' não pode ser utilizado em modo de substituição dinâmica de partição.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

Falha ao lançar valor <value> para <dataType> na coluna de partição <columnName>.

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

Coluna <columnName> de partição não encontrada no esquema [<schemaMap>].

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

O esquema de partição não pode ser especificado ao converter tabelas Apache Iceberg. Infere-se automaticamente.

DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED

SQLSTATE: KD00G

O acesso baseado em caminho não é permitido para Catalog-Managed tabela: <path>. Por favor, aceda à tabela através do seu nome e tente novamente.

O ACESSO BASEADO EM CAMINHO DELTA À TABELA ESTÁ BLOQUEADO

SQLSTATE: 42P01

A tabela at <path> foi migrada para uma tabela gerenciada pelo Unity Catalog e não pode mais ser acessada pelo caminho. Atualize o cliente para acessar a tabela pelo nome.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> não existe, ou não é uma tabela Delta.

DELTA_PATH_EXISTS

SQLSTATE: 42K04

Não é possível gravar no caminho <path> já existente sem definir OVERWRITE = 'true'.

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

A confirmação da versão <version> da tabela Delta foi bem-sucedida, mas ocorreu um erro ao executar o gancho pós-confirmação <name> <message>.

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: A versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo> <conflictingCommit>

Consulte <docLink> para obter mais detalhes.

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

A propriedade de protocolo <key> precisa ser um inteiro. Encontrado <value>.

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

Não é possível atualizar apenas a versão do protocolo leitor para usar recursos de tabela. A versão do protocolo do gravador deve ser pelo menos <writerVersion> para prosseguir. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

Você está tentando ler uma tabela Delta <tableName> que não tem colunas.

Escreva alguns dados novos com a opção mergeSchema = true para poder ler a tabela.

DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES

SQLSTATE: 56038

Está a tentar calcular o Change Data Feed em <tableName> que tem políticas de acesso definidas. O Feed de Dados de Mudança de Hora de Leitura está atualmente em pré-visualização e não suporta CDF em tabelas com políticas de acesso. Ative o CDF otimizado para leitura definindo a propriedade da tabela '<cdfTableProperty>' para 'true' na sua tabela.

DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED

SQLSTATE: 0AKDC

Redirecionar para uma tabela com filtro de linha ou máscara de coluna não é suportado. Atualiza o teu código para referenciar diretamente a tabela <tableIdent> de destino.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

Por favor, verifique novamente a sintaxe para '<regExpOption>'.

DELTA_RELATION_PATH_MISMATCH

SQLSTATE: 2201B

O caminho de relação '<relation>' não corresponde ao caminho de <targetType> '<targetPath>'.

DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE

SQLSTATE: 22000

A Conversão Líquida usando o comando reorg não é suportada numa tabela não particionada.

DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT

SQLSTATE: 22000

Não é possível <action> particionar colunas. <instruction> Materialização da coluna de partição definindo a propriedade da tabela '<tableProperty>' para <value> ou a configuração SQL '<sqlConfig>' para <value>.

DELTA_REORG_UNKNOWN_MODE

SQLSTATE: 0AKDC

Modo desconhecido REORG TABLE : <mode>.

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

Não é possível usar replaceWhere em conjunto com uma substituição por filtro.

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

Os dados gravados não estão em conformidade com a condição ou restrição de substituição parcial da tabela '<replaceWhere>'.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

Uma expressão 'replaceWhere' e 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'replaceWhere' não pode ser usado com filtros de dados quando 'dataChange' está definido como false. Filtros: <dataFilters>.

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.

Colete estatísticas para a tabela executando o ANALYZE TABLE comando:

ANALYZE TABLE nome_da_tabela COMPUTE DELTA STATISTICS

RASTREAMENTO_DE_LINHA_DELTA_PREENCHIMENTO_EXECUTANDO_CONCORRENTEMENTE_COM_NÃO_PREENCHIDO

SQLSTATE: 22KD0

Uma operação de ativação de rastreamento de linha foi detetada em execução simultânea com uma desativação de rastreamento de linha. Anular a operação de desativação. Tente novamente a operação de desativação, se necessário, quando a operação de ativação estiver concluída.

DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION

SQLSTATE: 55000

Foi detetado um estado de tabela ilegal. As propriedades <property1> e <property2> da tabela estão ambas definidas como true. O problema pode ser resolvido desativando qualquer uma das duas propriedades da tabela.

Entre em contato com o suporte da Databricks para obter mais assistência.

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

Alteração de esquema detetada:

Esquema de origem de streaming: <readSchema>

Esquema do arquivo de dados: <dataSchema>

Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem

progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu

consulta do zero usando um novo diretório de ponto de verificação.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

Alteração de esquema detetada na versão <version>:

Esquema de origem de streaming: <readSchema>

Esquema do arquivo de dados: <dataSchema>

Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem

progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu

consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após

mudando para um novo diretório de ponto de verificação, talvez seja necessário alterar o

Opção 'startingVersion' ou 'startingTimestamp' para iniciar a partir de uma versão mais recente do que a especificada anteriormente.

<version> com um novo diretório de pontos de verificação.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

Alteração de esquema detetada na versão <version>:

Esquema de origem de streaming: <readSchema>

Esquema do arquivo de dados: <dataSchema>

Tente reiniciar a consulta. Se esse problema se repetir entre as reinicializações da consulta sem

progredindo, você fez uma alteração de esquema incompatível e precisa iniciar seu

consulta do zero usando um novo diretório de ponto de verificação.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

O esquema da tua tabela Delta mudou de forma incompatível desde o teu DataFrame

ou o objeto DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.

Changes:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

O esquema de tabela não é fornecido. Por favor, forneça o esquema (definição de coluna) da tabela ao usar REPLACE a tabela e não for fornecida uma AS SELECT consulta.

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

O esquema de tabela não está definido. Grave dados nele ou use CREATE TABLE para definir o esquema.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

O esquema do novo local Delta é diferente do esquema de tabela atual.

Esquema original:

<original>

Esquema de destino:

<destination>

Se esta for uma alteração pretendida, pode desativar esta verificação executando:

%%sql definir <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

Não foi encontrado o arquivo <filePath> referenciado no registo de transações. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE. Esta tabela parece ser um clone superficial, se esse for o caso, esse erro pode ocorrer quando a tabela original da qual esta tabela foi clonada excluiu um arquivo que o clone ainda está usando. Se desejar que algum clone seja independente da tabela original, utilize um clone PROFUNDO em seu lugar.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

As propriedades predefinidas que começam com <prefix> não podem ser modificadas.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

Os dados estão restritos pela propriedade <property> do destinatário, que não se aplica ao destinatário atual na sessão.

Para mais detalhes, consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> não pode ser usado em exibições do Delta Sharing que são compartilhadas entre contas.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

O tipo de autenticação ilegal <authenticationType> para o provedor <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

Tipo de autenticação ilegal <authenticationType> para destinatário <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Nome inválido para referenciar um <type> num Share. Você pode usar o nome do <type> dentro da partilha seguindo o formato [schema].[<type>], ou também pode usar o nome completo original da tabela seguindo o formato [catalog].[schema].[>tipo>].

Se não tiveres a certeza sobre que nome usar, podes executar "SHOW ALL IN SHARE [partilhar]" e encontrar o nome do <type> para remover: a coluna "nome" é o nome do <type> dentro da partilha e a coluna "objeto_partilhado" é o nome completo original do <type>.

DELTA_PARTILHA_MÁXIMA_RECIPIENT_TOKENS_EXCEDIDA

SQLSTATE: 54000

Há mais de dois tokens para o destinatário <recipient>.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

A propriedade <property> do destinatário não existe.

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE: 42704

Os tokens de destinatário estão ausentes para o destinatário <recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

As colunas não de partição <badCols> são especificadas para SHOW PARTITIONS.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS não é permitido em uma tabela que não está particionada: <tableName>.

DELTA_SHREDDED_WRITES_DISABLED

SQLSTATE: 55000

Não é possível executar REORG APPLY(SHRED) a operação porque as escritas trituradas estão desativadas.

DELTA_SHREDDING_TABLE_PROPERTY_DISABLED

SQLSTATE: 0A000

Tentei escrever variantes trituradas, mas a tabela não suporta escritas trituradas. Considere definir a propriedade de tabela enableVariantShredding como verdadeira.

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Dados excluídos detetados (por exemplo, <removedFile>) da fonte de streaming na versão <version>. No momento, isso não é suportado. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

Detetada uma atualização de dados (por exemplo, <file>) na tabela de origem na versão <version>. No momento, isso não é suportado. Se isso vai acontecer regularmente e você não tem problema em pular alterações, defina a opção 'skipChangeCommits' como 'true'. Se você quiser que a atualização de dados seja refletida, reinicie esta consulta com um novo diretório de ponto de verificação ou faça uma atualização completa se estiver usando o Lakeflow Spark Declarative Pipelines. Se você precisar lidar com essas alterações, mude para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

Queira indicar «<version>» ou «<timestamp>».

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

<statsType> estatísticas não encontradas para coluna nos metadados do Parquet: <columnPath>.

DELTA_STATS_NOT_FOUND_IN_FILE

SQLSTATE: 22000

Estatísticas não encontradas no ficheiro: <filePath>. Executa 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' para calcular estatísticas.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Detetamos uma ou mais alterações de esquema não aditivas (<opType>) entre a versão <previousSchemaChangeVersion> Delta e <currentSchemaChangeVersion> na fonte de streaming Delta.

Changes:

<columnChangeDetails>

Verifique se deseja propagar manualmente a(s) alteração(ões) de esquema para a tabela de coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado na versão <currentSchemaChangeVersion>.

Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir a(s) seguinte(s) configuração(ões) para desbloquear a(s) alteração(ões) de esquema não aditiva e continuar o processamento de fluxo.

Usando a(s) opção(ões) do leitor de dataframe:

Para desbloquear este fluxo específico apenas para esta série de alterações de esquema:

<unblockChangeOptions>

Para desbloquear este fluxo específico:

<unblockStreamOptions>

Usando a(s) configuração(ões) SQL:

Para desbloquear este fluxo específico apenas para esta série de alterações de esquema:

<unblockChangeConfs>

Para desbloquear este fluxo específico:

<unblockStreamConfs>

Para desbloquear todos os fluxos:

<unblockAllConfs>

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

Falha ao obter instantâneo de log Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou force a ativação da leitura de streaming por sua conta e risco, definindo '<config>' como 'true'.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

A leitura em streaming não é suportada em tabelas com alterações de esquema incompatíveis com leitura (por exemplo, renomear ou excluir ou alterações de tipo de dados).

Para obter mais informações e possíveis próximas etapas para resolver esse problema, consulte a documentação em <docLink>

Leia o esquema: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

A leitura em streaming não é suportada em tabelas com alterações de esquema incompatíveis com leitura (por exemplo, renomear ou excluir ou alterações de tipo de dados).

Forneça um 'schemaTrackingLocation' para habilitar a evolução do esquema não aditivo para o processamento de fluxo Delta.

Consulte <docLink> para obter mais detalhes.

Leia o esquema: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

O esquema, a configuração da tabela ou o protocolo da sua tabela Delta foi alterado durante o streaming.

O esquema ou o registo de rastreamento de metadados foi atualizado.

Reinicie o fluxo para continuar o processamento usando os metadados atualizados.

Esquema atualizado: <schema>.

Configurações de tabela atualizadas: <config>.

Protocolo de tabela atualizado: <protocol>

DELTA_STREAMING_EVOLUÇÃO_DO_ESQUEMA_FILTRO_DE_LINHA_NÃO_SUPORTADO_COLUMN_MASKS

SQLSTATE: 22000

O streaming a partir da tabela de origem <tableId> com acompanhamento de esquema não suporta filtros de linha ou máscaras de coluna.

Solte os filtros de linha ou máscaras de coluna ou desative o rastreamento de esquema.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

Detetada a localização conflitante do esquema '<loc>' durante o streaming da tabela ou tabela localizada em '<table>'.

Outro fluxo pode estar reutilizando o mesmo local do esquema, o que não é permitido.

Por favor, forneça um novo caminho único de schemaTrackingLocation ou streamingSourceTrackingId como uma opção de leitor para um dos fluxos apresentados nesta tabela.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

O local do esquema '<schemaTrackingLocation>' deve ser colocado sob o local do ponto de verificação '<checkpointLocation>'.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Arquivo de log incompleto no log do esquema de origem de streaming Delta em '<location>'.

O log de esquema pode ter sido corrompido. Escolha uma nova localização do esquema.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Detetado ID de tabela Delta incompatível ao tentar ler o fluxo Delta.

ID da tabela persistente: <persistedId>, ID da tabela: <tableId>

O log de esquema pode ter sido reutilizado. Escolha uma nova localização do esquema.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Detetado esquema de partição incompatível ao tentar ler o fluxo Delta.

Esquema persistente: <persistedSchema>, Esquema de partição Delta: <partitionSchema>

Escolha um novo local de esquema para reinicializar o log de esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Não foi possível inicializar o log do esquema de origem de streaming Delta porque

Detetamos uma alteração de esquema ou protocolo incompatível ao servir um lote de streaming da versão de tabela <a> para <b>.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Falha ao analisar o esquema a partir do registo de esquemas da origem de streaming Delta.

O log de esquema pode ter sido corrompido. Escolha uma nova localização do esquema.

DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND

SQLSTATE: 56000

Nenhuma transação encontrada para lote <batchId> no streaming do Delta sink nas versões anteriores <versionLimit> .

DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

SQLSTATE: 42616

Intervalo de deslocamento de salto inválido para o intervalo da fonte Delta=[<startOffset>, <endOffset>). Corrige este intervalo de deslocamento e tente novamente.

Para mais detalhes, veja DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

Não é possível ativar a Captura de Dados de Alteração na tabela. A tabela já contém

colunas reservadas <columnList> que serão

ser usado internamente como metadados para o Feed de Dados de Alteração da tabela. Para ativar

Alterar Fluxo de Dados na tabela para renomear/eliminar estas colunas.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

A tabela <tableName> já existe.

DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS

SQLSTATE: 42939

Não é possível calcular o Change Data Feed na tabela. A tabela contém nomes <columnList> de colunas reservados que são usados como colunas de saída para o Feed de Dados de Alteração da tabela. Para calcular o Feed de Alterações de Dados na tabela, renomeie/elimina estas colunas.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

Atualmente, o DeltaTable.forPath suporta apenas chaves de configuração hadoop começando com <allowedPrefixes>, mas recebeu <unsupportedOptions>.

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

A tabela Delta em <tableLocation> foi substituída enquanto este comando estava usando a tabela.

O ID da tabela foi <oldId> mas agora está <newId>.

Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE: 22023

Não é possível atualizar o estado de redirecionamento da tabela: Tentativa de transição de estado inválida.

A tabela Delta '<table>' não pode mudar de '<oldState>' para '<newState>'.

DELTA_TABLE_INVALID_SET_UNSET_REDIRECT

SQLSTATE: 22023

Não é possível SET ou UNSET redirecionar a propriedade em <table>: a propriedade atual '<currentProperty>' está em incompatibilidade com a nova propriedade '<newProperty>'.

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

A localização da tabela existente <tableName> é <existingTableLocation>. Ele não corresponde ao local <tableLocation>especificado.

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

A tabela <tableName> delta não existe.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

A tabela não é suportada em <operation>. Em vez disso, use um caminho.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> não é uma tabela Delta. <operation> só é suportado para tabelas Delta.

DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC

SQLSTATE: 42704

O log Delta contém uma especificação de redirecionamento de tabela não reconhecida '<spec>'.

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

O esquema final da tabela de destino está vazio.

DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION

SQLSTATE: 42816

O carimbo temporal fornecido (<userTimestamp>) é anterior à versão mais antiga disponível para

esta tabela (<commitTs>). Por favor, use um carimbo temporal após <timestampString>.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

O carimbo de data/hora fornecido (<providedTimestamp>) é posterior à última versão disponível para este sistema

tabela (<tableName>). Por favor, use uma marca temporal antes ou em <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

O carimbo de data/hora fornecido (<expr>) não pode ser convertido em um carimbo de data/hora válido.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> precisa ser um valor inicial válido.

DELTA_TOO_MUCH_LISTING_MEMORY

SQLSTATE: 53000

Falha ao listar arquivos (<numFiles>) na tabela Delta devido à memória insuficiente. Memória necessária: <estimatedMemory>, memória disponível: <maxMemory>.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: Não é possível reconstruir o estado na versão <version> , pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>=<logRetention>) e à política de retenção de pontos de verificação (<checkpointRetentionKey>=<checkpointRetention>).

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Operação não permitida: TRUNCATE TABLE em tabelas Delta não suporta predicados de partição; Use DELETE para excluir partições ou linhas específicas.

DELTA_UDF_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

Encontrado <expr> numa CHECK restrição. Uma CHECK restrição não pode usar uma função definida pelo utilizador.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

Encontrado <udfExpr>. Uma coluna gerada não pode usar uma função definida pelo usuário.

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

Expressão de ação inesperada <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

Esperando <expectedColsSize> coluna(s) de partição: <expectedCols>, mas encontrou <parsedColsSize> coluna(s) de partição: <parsedCols> ao analisar o nome do ficheiro: <path>.

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Era esperado uma verificação completa das fontes Delta, mas foi encontrada uma verificação parcial. Caminho: <path>.

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

Esperava coluna de partição <expectedCol>, mas encontrou coluna de partição <parsedCol> ao analisar o nome do ficheiro: <path>.

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT TO DELTA foi chamado com um esquema de partição diferente do que foi inferido do catálogo; evite fornecê-lo para que o esquema de partição possa ser escolhido a partir do catálogo.

esquema de partição de catálogo:

<catalogPartitionSchema>

esquema de partição fornecido:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE: 0AKDC

delta.universalFormat.compatibility.location não pode ser alterado.

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE: 42K0I

delta.universalFormat.compatibility.location não está registrado no catálogo.

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE: 42601

Local ausente ou inválido para o formato de compatibilidade uniforme. Defina um diretório vazio para delta.universalFormat.compatibility.location.

Motivo da falha

Para mais detalhes, consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

Leia Apache Iceberg com Delta Uniform falhou.

Para mais detalhes, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT

SQLSTATE: KD00E

Vários formatos de entrada Delta Uniform (<formats>) são encontrados, no máximo um pode ser definido.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

Criar ou atualizar tabela de entrada uniforme não é suportado.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

O formato <fileFormat> não é suportado. Apenas o Apache Iceberg e o hudi como formato de ficheiro original são suportados.

DELTA_UNIFORM_INGRESS_VIOLATION

SQLSTATE: KD00E

Falhas na leitura do Delta Uniform:

Para mais detalhes, consulte DELTA_UNIFORM_INGRESS_VIOLATION

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

O Formato Universal só é suportado em tabelas do Catálogo Unity.

DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

SQLSTATE: 42616

REFRESH TABLE com argumento inválido:

Para mais detalhes, ver DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE: 0AKDC

REFRESH identificador SYNC UNIFORM não é suportado por este motivo:

Para mais detalhes, ver DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE: 0AKDC

REFRESH TABLE com METADATA_PATH não é suportado para tabelas geridas do Apache Iceberg.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

Falha ao converter a versão da tabela <version> para o formato universal <format>. <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

A validação do Formato Universal (<format>) falhou: <violation>.

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

Configuração desconhecida foi especificada: <config>.

Para desativar essa verificação, defina <disableCheckConfig>=true na configuração da sessão do Spark.

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

Privilégio desconhecido: <privilege>.

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

Limite de Leitura desconhecido: <limit>.

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

Alteração de coluna não reconhecida <otherClass>. Você pode estar executando uma versão desatualizada do Delta Lake.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

Invariante não reconhecido. Por favor, atualize sua versão do Spark.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

Arquivo de log <filename> não reconhecido.

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

Tentar remover a propriedade inexistente '<property>' na tabela <tableName>.

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> não suporta a adição de arquivos com um caminho absoluto.

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN não é suportado para alterar a coluna <fieldPath> de <oldField> para <newField>.

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

Operação ALTER TABLE REPLACE COLUMNS sem suporte. Motivo: <details>

Falha ao alterar o esquema de:

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

Você tentou REPLACE uma tabela existente (<tableName>) com CLONE. Esta operação é

unsupported. Tente um destino diferente para CLONE ou exclua a tabela no destino atual.

DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

SQLSTATE: 0A000

OPTIMIZE ... FULL WHERE comando para tabelas líquidas não suporta os predicados fornecidos:

Para mais detalhes, veja DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

Não há suporte para alterar o modo de mapeamento de coluna de '<oldMode>' para '<newMode>'.

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

Falha ao executar a operação de mapeamento de coluna <opName> na(s) coluna(s) <quotedColumnNames>

porque esta(s) coluna(s) têm Índice de Filtro Bloom.

Se você quiser executar a operação de mapeamento de coluna na(s) coluna(s)

com índice(s) de filtro Bloom

remova o(s) índice(s) do filtro Bloom primeiro:

DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela FOR COLUMNS(<columnNames>)

Se, em vez disso, quiser remover todos os índices de filtro Bloom na tabela, use:

DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

Sua versão atual do protocolo de tabela não suporta a alteração dos modos de mapeamento de coluna

usando <config>.

Versão do protocolo Delta necessária para mapeamento de colunas:

<requiredVersion>

Versão atual do protocolo Delta da sua tabela:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

A alteração de esquema é detetada:

esquema antigo:

<oldTableSchema>

Novo esquema:

<newTableSchema>

Não são permitidas alterações de esquema durante a alteração do modo de mapeamento de coluna.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

Não há suporte para gravação de dados com o modo de mapeamento de coluna.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Não há suporte para a criação de um índice de filtro bloom em uma coluna com tipo <dataType> : <columnName>.

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

Não é possível adicionar um comentário ao <fieldPath>. Não há suporte para adicionar um comentário a uma chave/valor de mapa ou elemento de matriz.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

Colunas encontradas usando tipos de dados sem suporte: <dataTypeList>. Você pode definir '<config>' como 'false' para desativar a verificação de tipo. A desativação dessa verificação de tipo pode permitir que os usuários criem tabelas Delta sem suporte e só deve ser usada ao tentar ler/gravar tabelas herdadas.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> não pode ser o resultado de uma coluna gerada.

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

O clone profundo não é suportado por esta versão Delta.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> é uma visualização. DESCRIBE DETAIL só é suportado para tabelas.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

Não é permitido remover colunas de agrupamento (<columnList>).

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN não é suportado para a sua Tabela Delta. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

Só pode remover colunas aninhadas de StructType. Encontrado <struct>.

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

Não é permitido eliminar colunas de partição (<columnList>).

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Tipo de expressão não suportado (<expType>) para <causedBy>. Os tipos suportados são [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT

SQLSTATE: 42621

Encontrado <expression> numa CHECK restrição. <expression> não pode ser usado numa CHECK restrição.

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> não pode ser usado em uma coluna gerada.

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Recurso de leitura Delta não suportado: a tabela "<tableNameOrPath>" requer recurso(s) de tabela de leitura que não são suportados por esta versão do Databricks: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Funcionalidade de gravação Delta não suportada: a tabela "<tableNameOrPath>" requer funcionalidades de tabela de escrita que esta versão do Databricks não suporta: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

O(s) recurso(s) de tabela configurado(s) nas seguintes configurações do Spark ou propriedades de tabela Delta não são reconhecidos por esta versão do Databricks: <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

Esperando que o estado do recurso <feature> de tabela seja "suportado", mas recebeu "<status>".

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

A atualização de campos aninhados só é suportada para StructType, mas você está tentando atualizar um campo de <columnName>, que é do tipo: <dataType>.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

O comando 'FSCK REPAIR TABLE' não é suportado em versões de tabela com arquivos vetoriais de exclusão ausentes.

Entre em contato com o suporte.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

O comando 'GENERATE symlink_format_manifest' não é suportado em versões de tabela com vetores de exclusão.

Para produzir uma versão da tabela sem vetores de eliminação, execute 'REORG TABLE table APPLY (PURGE)'. Em seguida, execute novamente o comando 'GENERATE'.

Certifique-se de que nenhuma transação simultânea esteja adicionando vetores de exclusão novamente entre REORG e GENERATE.

Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere desabilitar vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

Não há suporte para invariantes em campos aninhados diferentes de StructTypes.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

A subconsulta não é suportada na condição <operation>.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix não disponível.

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

A geração de manifesto não é suportada para tabelas que utilizam mapeamento de colunas, uma vez que os leitores externos não conseguem ler essas tabelas Delta. Consulte a documentação do Delta para obter mais detalhes.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

MERGE INTO operações com evolução de esquema atualmente não suportam a gravação de saída CDC.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

Os predicados In de várias colunas não são suportados na condição <operation>.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

No momento, não há suporte para a criação de um índice de arquivo bloom em uma coluna aninhada: <columnName>.

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

O campo aninhado não é suportado no <operation> (campo = <fieldName>).

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

A tabela de destino do clone não está vazia. Por favor, TRUNCATE ou DELETE FROM a tabela antes de executar CLONE.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

A fonte <dataSource> de dados não suporta o <mode> modo de saída.

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

A criação de um índice de filtro bloom numa coluna de particionamento não é suportada: <columnName>.

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

A renomeação de coluna não é suportada para a tabela Delta. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

A Delta não permite especificar o esquema no momento da leitura.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY não é suportado para tabelas com buckets Delta.

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

<operation> destino suporta apenas fontes Delta.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

Atualmente, não há suporte para especificar partições estáticas na especificação de partição durante as inserções.

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

Nome da estratégia sem suporte: <strategy>.

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

Não há suporte para subconsultas no <operation> (condição = <cond>).

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

A subconsulta não é suportada em predicados de partição.

VIAGEM_NO_TEMPO_NÃO_SUPORTADA_ALÉM_DA_DURAÇÃO_DE_RETENÇÃO_DE_FICHEIROS_ELIMINADOS

SQLSTATE: 0AKDC

Não é possível viajar no tempo além de delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) definido na tabela.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

Não é possível definir viagens no tempo em vários formatos.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

Não é possível viajar no tempo visualizações, subconsultas, fluxos ou alterar consultas de feed de dados.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

Não há suporte para truncar tabelas de exemplo.

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName> foi alterado de <fromType> para <toType>.

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

Não foi possível alterar o tipo de dados da(s) coluna(s) <quotedColumnNames>

porque essas colunas têm Bloom Filter Index(es).

Se você quiser alterar o tipo de dados da(s) coluna(s) com o(s) índice(s) de filtro Bloom,

remova o(s) índice(s) do filtro Bloom primeiro:

DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela FOR COLUMNS(<columnNames>)

Se, em vez disso, quiser remover todos os índices de filtro Bloom na tabela, use:

DROP BLOOMFILTER INDEX ON TABLE nome_da_tabela

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Por favor, forneça o caminho base (<baseDeltaPath>) ao aspirar tabelas delta. Atualmente, não há suporte para a funcionalidade de aspirar partições específicas.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

A implementação da tabela não suporta gravações: <tableName>.

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

Você está tentando executar gravações em uma tabela que foi registrada com o coordenador de confirmação <coordinatorName>. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e, assim, escritas sem coordenadores não são permitidas.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

Não há suporte para gravação em tabelas de exemplo.

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

Não é possível converter <fromCatalog> para <toCatalog>. Todas as colunas aninhadas devem corresponder.

DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION

SQLSTATE: 55019

CHECKPOINT A operação requer que os pontos de verificação V2 estejam ativados na tabela.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

VACUUM em arquivos de dados foi bem-sucedida, mas COPY INTO coleta de lixo de estado falhou.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

As versões (<versionList>) não são contíguas.

Uma lacuna no log delta entre as versões <startVersion> e <endVersion> foi detetada ao tentar carregar a versão <versionToLoad>.

Para mais detalhes, ver DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VERSION_INVALID

SQLSTATE: 42815

A versão fornecida (<version>) não é uma versão válida.

DELTA_VERSION_NOT_FOUND

SQLSTATE: 22003

Não é possível viajar no tempo na tabela Delta para a versão <userVersion>. Versões disponíveis: [<earliest>, <latest>].

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

CHECK restrição <constraintName> <expression> violada pela linha com valores:

<values>.

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

A validação das propriedades da tabela <table> foi violada:

Para mais detalhes, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> é uma visualização. Você não pode gravar dados em uma exibição.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

A coluna Z-Ordering <columnName> não existe no esquema de dados.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

Z-Ordering on <cols> será ineficaz, porque atualmente não coletamos estatísticas para essas colunas. Consulte <link> para obter mais informações sobre pulo de dados e z-ordering. Você pode desativar essa verificação definindo

SET <zorderColStatKey> = falso

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> é uma coluna de partição. A ordenação Z só pode ser realizada em colunas de dados.

Compartilhamento Delta

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

Ativação nonce não encontrado. O link de ativação usado é inválido ou expirou. Regenere o link de ativação e tente novamente.

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE: nenhum atribuído

Não há suporte para partilha entre as regiões <regionHint> e as regiões fora delas.

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE: nenhum atribuído

A exibição definida com a função current_recipient é apenas para compartilhamento e só pode ser consultada do lado do destinatário dos dados. O recurso seguro fornecido com id <securableId> não é uma Visão Delta Sharing.

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

O tipo segurável fornecido <securableKind> não suporta mutabilidade no Delta Sharing.

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: nenhum atribuído

O tipo protegível fornecido <securableKind> não suporta a ação de rotação de token iniciada pelo serviço Marketplace.

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE: nenhum atribuído

<dsError>: Tipo de autenticação não disponível na entidade do provedor <providerEntity>.

DS_CDF_NOT_ENABLED

SQLSTATE: nenhum atribuído

<dsError>: Não é possível aceder ao feed de dados de alteração para <tableName>. CDF não está habilitado na tabela delta original para a versão <version>. Contacte o seu fornecedor de dados.

DS_CDF_NOT_SHARED

SQLSTATE: nenhum atribuído

<dsError>: Não é possível aceder ao feed de dados de alteração para <tableName>. CDF não é compartilhado na mesa. Contacte o seu fornecedor de dados.

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE: nenhum atribuído

<dsError>: O fornecedor de nuvem está temporariamente indisponível para <rpcName>, tente novamente.<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE: nenhum atribuído

<dsError>: Tarefa de materialização de dados executada <runId> da organização <orgId> falhou no comando <command>

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

<dsError>: A tarefa de materialização de dados em execução <runId> da organização <orgId> não suporta o comando <command>

DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS

SQLSTATE: nenhum atribuído

<dsError>: <featureName> não é suportado porque serverless não é suportado ou ativado no espaço de trabalho do provedor. Entre em contato com seu provedor de dados para habilitar o serverless.

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE: nenhum atribuído

<dsError>: Não foi possível encontrar namespace válido para criar materialização para <tableName>. Entre em contato com seu provedor de dados para corrigir isso.

DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID

SQLSTATE: nenhum atribuído

<dsError>: Não foi encontrado espaço de trabalho adequado para materializar o ativo partilhado. Por favor, contacte o seu fornecedor de dados para recriar o destinatário num espaço de trabalho onde seja permitido o acesso por escrita ao catálogo do ativo partilhado.

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

<dsError>: Tarefa de materialização de dados executada <runId> a partir da organização <orgId> não existe

DS_DELTA_ILLEGAL_STATE

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE: nenhum atribuído

<dsError>: Não foi possível encontrar todos os ficheiros de peças do ponto de verificação na versão: <version>. <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: nenhum atribuído

<dsError>: O tipo securável <securableKind> fornecido não suporta a ação de expiração do token iniciada pelo serviço Marketplace.

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_FAILED_REQUEST_TO_SAP_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE: nenhum atribuído

<dsError>: <feature> só está habilitado para compartilhamento Delta de Databricks para Databricks.

DS_FILE_LISTING_EXCEPTION

SQLSTATE: nenhum atribuído

<dsError>: <storage>: <message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_GATEKEEPER_DISABLED

SQLSTATE: nenhum atribuído

<dsError>: Este recurso está desativado para a conta. Contacte o seu fornecedor de dados.

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE: nenhum atribuído

<dsError>: <key> não é definido pelo chamador.

DS_ILLEGAL_STATE

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE: nenhum atribuído

<dsError>: Caminho do Azure inválido: <path>.

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_INVALID_PARAMETER_VALUE

SQLSTATE: nenhum atribuído

<dsError>: Parâmetro inválido para <rpcName> devido a <cause>.

DS_INVALID_PARTITION_SPEC

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE: nenhum atribuído

<dsError>: Falha na consulta para <schema>. <table> de Compartilhar <share>.

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE: nenhum atribuído

<dsError>: Tempo limite de consulta esgotado para <schema>. <table> a partir do Share <share> após <timeoutInSec> segundos.

DS_MIGRATED_MANAGEMENT_API_CHAMADO

SQLSTATE: nenhum atribuído

<dsError>: O RPC <rpcName> da UC falhou.

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE: nenhum atribuído

<dsError>: A chave de idempotência é requerida quando a consulta <schema>. <table> de Compartilhar <share> de forma assíncrona.

DS_MISSING_SERVERLESS_BUDGET_POLICY (Política de Orçamento Serverless em falta)

SQLSTATE: nenhum atribuído

<dsError>: A operação usa serverless no Databricks do fornecedor, mas falta uma política de orçamento serverless para a partilha. Entre em contato com o provedor de dados para adicionar uma política de orçamento sem servidor para compartilhar.

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE: nenhum atribuído

<dsError>: Por favor, forneça apenas um de: <parameters>.

DS_NETWORK_CONNECTION_CLOSED

SQLSTATE: nenhum atribuído

<dsError>: Conexão de rede fechada para <rpcName> devido a <errorCause>, por favor, tente novamente.<traceId>

DS_NETWORK_CONNECTION_TIMEOUT

SQLSTATE: nenhum atribuído

<dsError>: Tempo limite da conexão de rede para <rpcName> devido a <errorCause>, por favor, tente novamente.<traceId>

DS_NETWORK_ERROR

SQLSTATE: nenhum atribuído

<dsError>: Erro de rede devido <rpcName> a <errorCause>, tente novamente.<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE: nenhum atribuído

<dsError>: Nenhum metastore atribuído para o espaço de trabalho atual (workspaceId: <workspaceId>).

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE: nenhum atribuído

<dsError>: Falha na geração do token de identidade de carga de trabalho para o provedor O2D OIDC: <message>.

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: nenhum atribuído

<dsError>: Incompatibilidade de argumentos de paginação ou consulta.

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE: nenhum atribuído

<dsError>: Coluna de partição [<renamedColumns>] renomeada na tabela compartilhada. Entre em contato com seu provedor de dados para corrigir isso.

DS_QUERY_BEFORE_START_VERSION

SQLSTATE: nenhum atribuído

<dsError>: Só é possível consultar dados da tabela desde a versão <startVersion>.

DS_QUERY_END_VERSION_AFTER_LATEST_VERSION

SQLSTATE: nenhum atribuído

<dsError>: A versão final(<endVersion>) fornecida para leitura de dados é inválida. A versão final não pode ser maior do que a versão mais recente da tabela(<latestVersion>).

DS_QUERY_START_VERSION_AFTER_LATEST_VERSION

SQLSTATE: nenhum atribuído

<dsError>: A versão inicial fornecida (<startVersion>) para leitura de dados é inválida. A versão inicial não pode ser maior do que a versão mais recente da tabela(<latestVersion>).

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE: nenhum atribuído

<dsError>: Ocorreu um timeout ao processar <queryType> no <tableName> após <numActions> atualizações em <numIter> iterações.<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_RECON_FAILED_ON_UC_WRITE_RPC

SQLSTATE: nenhum atribuído

<dsError>: UC RPC <rpcName> falhou, convertendo para INTERNAL_ERROR.

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE: nenhum atribuído

<dsError>: O <resource> excedeu o limite: [<limitSize>]<suggestion>.<traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_SAP_UNSUPPORTED_DBR_VERSION (Versão de DBR não suportada pelo SAP)

SQLSTATE: nenhum atribuído

<dsError>: O conector SAP Delta Sharing não é suportado no DBR <dbrVersion>. As versões mínimas suportadas são: <supportedVersions>.

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE: nenhum atribuído

<dsError>: O catálogo <catalogName> já contém nomes de esquema encontrados no compartilhamento <shareName>. <description> de nomes de esquemas conflitantes: <schemaNamesInCommon>.

DS_SERVER_TIMEOUT

SQLSTATE: nenhum atribuído

<dsError>: Tempo limite do servidor para <rpcName> devido a <errorCause>, tente novamente.<traceId>

DS_SERVIÇO_NEGADO

SQLSTATE: nenhum atribuído

<dsError>: O pedido foi negado porque o serviço está sob muita carga. Por favor, tente novamente mais tarde depois de um tempo.

DS_SHARE_ALREADY_MOUNTED_TO_CATALOG

SQLSTATE: nenhum atribuído

<dsError>: O compartilhamento <shareName> do provedor <providerName> já está montado no catálogo <catalogName>.

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: nenhum atribuído

Não é possível conceder privilégios em <securableType> ao grupo gerado pelo sistema <principal>.

DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE

SQLSTATE: nenhum atribuído

<dsError>: Os metadados da tabela não estão disponíveis. Por favor, tente novamente daqui a pouco.

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE: nenhum atribuído

<dsError>: Consultas sobre viagens no tempo não são permitidas, a menos que o histórico seja partilhado em <tableName>. Contacte o seu fornecedor de dados.

DS_UNAUTHORIZED

SQLSTATE: nenhum atribuído

<dsError>: Não autorizado.

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE: nenhum atribuído

<dsError>: Destinatário OIDC D2O não autorizado: <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE: nenhum atribuído

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE: nenhum atribuído

<dsError>: ID de consulta desconhecido <queryID> para <schema>. <table> de Compartilhar <share>.

DS_UNKNOWN_QUERY_STATUS

SQLSTATE: nenhum atribuído

<dsError>: Status de consulta desconhecido para ID de consulta <queryID> para <schema>. <table> de Compartilhar <share>.

DS_UNKNOWN_RPC

SQLSTATE: nenhum atribuído

<dsError>: rpc Desconhecido <rpcName>.

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE: nenhum atribuído

<dsError>: A versão <tableReaderVersion> do leitor de protocolo delta é superior à <supportedReaderVersion> e não pode ser suportada no servidor de partilha delta.

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE: nenhum atribuído

<dsError>: Características da tabela <tableFeatures> são encontradas na tabela<versionStr> <historySharingStatusStr> <optionStr>

DS_UNSUPPORTED_OPERATION

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE: nenhum atribuído

<dsError>: Regime de armazenagem sem suporte: <scheme>.

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE: nenhum atribuído

<dsError>: Não foi possível recuperar <schema>. <table> de Partilhar <share> porque a tabela com o tipo [<tableType>] não é suportada atualmente em <queryType> consultas.

DS_UNSUPPORTED_TABLE_TYPE_IN_MST

SQLSTATE: nenhum atribuído

<dsError>: O tipo de tabela de consulta [<tableType>] não é suportado na consulta de transações de múltiplas instruções (MST).

DS_USER_CONTEXT_ERROR

SQLSTATE: nenhum atribuído

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE: nenhum atribuído

<dsError>: A(s) seguinte(s) função(ões): <functions> não são permitidos na consulta de compartilhamento de exibição.

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE: nenhum atribuído

<dsError>: Espaço de trabalho <workspaceId> domínio não está definido.

DS_WORKSPACE_NOT_FOUND

SQLSTATE: nenhum atribuído

<dsError>: Espaço de trabalho <workspaceId> não foi encontrado.

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

O modo de evolução do esquema <addNewColumnsMode> não é suportado quando o esquema é especificado. Para usar esse modo, você pode fornecer o esquema por meio cloudFiles.schemaHints em vez disso.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

Encontradas opções de autenticação da configuração de notificação para o diretório (padrão)

Modo de listagem:

<options>

Se você deseja usar o modo de notificação de arquivo, defina explicitamente:

.option("cloudFiles.<useNotificationsKey>", "verdadeiro")

Alternativamente, se você quiser pular a validação de suas opções e ignorá-las

opções de autenticação, você pode definir:

.option("cloudFiles.ValidateOptionsKey>", "falso")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

Modo de listagem contínua (cloudFiles.<useIncrementalListingKey>)

e notificação de ficheiros (cloudFiles<useNotificationsKey>)

foram ativados ao mesmo tempo.

Por favor, certifique-se de selecionar apenas um.

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE: 42000

Forneça uma credencial de serviço Databricks ou um clientId e clientSecret para autenticação com o Azure.

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE: 42000

Quando uma credencial de serviço Databricks é fornecida, nenhuma outra opção de credencial (por exemplo, clientId, clientSecret ou connectionString) deve ser fornecida.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Exigir adlsBlobSuffix e adlsDfsSuffix para Azure

CF_BUCKET_MISMATCH

SQLSTATE: 22000

O <storeType> no evento de arquivo <fileEvent> é diferente do esperado pela fonte: <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

Não é possível evoluir o esquema quando o log do esquema está vazio. Local do log de esquema: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

Não é possível analisar a seguinte mensagem de fila: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

Não é possível resolver o nome do contentor do caminho: <path>, URI resolvido: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

Não é possível executar a listagem de diretórios quando há um thread de preenchimento assíncrono em execução

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.

CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH

SQLSTATE: 42000

Não é suportado mover ficheiros para um diretório no caminho a partir do qual estão a ser ingeridos.

CF_CLEAN_SOURCE_NOT_ENABLED

SQLSTATE: 0A000

CleanSource não foi habilitado para este espaço de trabalho. Entre em contato com o suporte da Databricks para obter assistência.

CF_CLEAN_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

CleanSource não é suportado para <op>.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

O Auto Loader não pode arquivar arquivos processados porque não tem permissões de gravação no diretório de origem ou no destino de movimentação.

Para mais detalhes, veja CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

Ocorreu um erro ao tentar inferir o esquema de partição da sua tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, por favor forneça explicitamente as colunas da partição usando: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

Não é possível inferir esquema quando o caminho de entrada <path> está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Falha ao criar uma subscrição do Event Grid. Por favor, certifique-se de que o seu serviço

O principal tem <permissionType> Assinaturas de Event Grid. Veja mais detalhes em:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Não foi possível criar a assinatura da grade de eventos. Certifique-se de que Microsoft.EventGrid está configurado/ativado/instalado.

registrado como provedor de recursos na sua subscrição. Veja mais detalhes em:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Falha ao criar uma subscrição do Event Grid. Por favor, certifique-se de que o seu armazenamento

conta (<storageAccount>) está no seu grupo de recursos (<resourceGroup>) e que

a conta de armazenamento é uma conta "StorageV2 (uso geral v2)". Veja mais detalhes em:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

O modo de notificação de eventos Auto Loader não é suportado para <cloudStore>.

CF_EVENT_NOTIFICATION_SETUP_FAILED

SQLSTATE: 22000

Falhou a configuração dos recursos de notificação de ficheiros para o Auto Loader.

Para mais detalhes, veja CF_EVENT_NOTIFICATION_SETUP_FAILED

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

Falha ao verificar se o fluxo é novo

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

Falha ao criar assinatura: <subscriptionName>. Já existe uma subscrição com o mesmo nome que está associada a outro tópico: <otherTopicName>. O tópico desejado é "<proposedTopicName>". Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

Falha ao criar tópico: <topicName>. Já existe um tópico com o mesmo nome. <reason> Remova o tópico existente ou tente novamente com outro sufixo de recurso

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

Não conseguiu apagar a notificação com id <notificationId> no bucket <bucketName> relativamente ao tópico <topicName>. Tente novamente ou remova manualmente a notificação através do console do GCP.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

Falha ao desserializar o esquema persistente da cadeia de caracteres: '<jsonSchema>'

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

Não é possível evoluir o esquema sem um log de esquema.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

Falha ao encontrar provedor para <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

Falha ao inferir o esquema para o formato <fileFormatInput> a partir de arquivos existentes no caminho de entrada <path>.

Para mais detalhes, consulte CF_FAILED_TO_INFER_SCHEMA

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

Falha ao gravar no log de esquema no local <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

Não foi possível encontrar a opção necessária: cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

Encontradas várias (<num>) subscrições com o prefixo Auto Loader para o tópico <topicName>:

<subscriptionList>

Deve haver apenas uma assinatura por tópico. Certifique-se manualmente de que o seu tópico não tem várias subscrições.

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

Por favor, forneça todos os seguintes: <clientEmail>, <client>,

<privateKey>e <privateKeyId> ou fornecer <serviceCredential> para usar a sua credencial de serviço Databricks.

Como alternativa, não forneça nenhum deles para usar a cadeia de provedores de credenciais padrão do GCP para autenticação com recursos do GCP.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

Recebeu um número excessivo de rótulos (<num>) para o recurso GCP. A contagem máxima de rótulos por recurso é <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

Recebeu muitas tags de recurso (<num>) para o recurso GCP. A contagem máxima de tags de recursos por recurso é <maxNum>, pois as tags de recursos são armazenadas como rótulos GCP em recursos e as tags específicas do Databricks consomem parte dessa cota de rótulo.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

Arquivo de log de esquema incompleto no caminho <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

Arquivo de metadados incompleto no ponto de verificação do Auto Loader

CF_INCORRECT_BATCH_USAGE

SQLSTATE: 42887

CloudFiles é uma fonte de streaming. Use spark.readStream em vez de spark.read. Para desativar essa verificação, defina <cloudFilesFormatValidationEnabled> como false.

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

O método cloud_files aceita dois parâmetros de cadeia de caracteres necessários: o caminho para carregar e o formato de arquivo. As opções do leitor de ficheiros devem ser fornecidas num mapa chave-valor de texto. por exemplo, cloud_files("caminho", "json", mapa("opção1", "valor1")). Recebido: <params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE: 42887

Para usar 'cloudFiles' como uma fonte de streaming, forneça o formato de arquivo com a opção 'cloudFiles.format' e use .load() para criar seu DataFrame. Para desativar essa verificação, defina <cloudFilesFormatValidationEnabled> como false.

CF_INTERNAL_ERROR

SQLSTATE: 42000

Auto Loader encontrou um erro interno. Entre em contato com o suporte da Databricks para obter assistência.

Para mais detalhes, ver CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE: 42000

ARN inválido: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Por favor, forneça uma chave pública válida em formato PEM.

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Por favor, forneça uma chave privada válida em formato PEM.

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

Este ponto de verificação não é uma fonte válida do CloudFiles

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

Modo inválido para a opção de fonte limpa <value>.

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

Chave de etiqueta de recurso inválida para recurso do GCP: <key>. As teclas devem começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hífenes (-).

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

Valor da tag de recurso inválido para o recurso GCP: <value>. Os valores devem ter entre 0 e 63 caracteres e devem conter apenas letras minúsculas, números, sublinhados (_) e hífenes (-).

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

O Auto Loader não suporta as seguintes opções quando usado com eventos de arquivos gerenciados:

<optionList>

Recomendamos que você remova essas opções e reinicie o fluxo.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Resposta inválida do serviço de eventos de arquivo gerenciado. Entre em contato com o suporte da Databricks para obter assistência.

Para mais detalhes, ver CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles. <schemaEvolutionModeKey> deve ser um dos {

<addNewColumnsWithTypeWidening>

<addNewColumns>

<failOnNewColumns>

<rescue>

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

As dicas de esquema só podem especificar uma coluna específica uma vez.

Neste caso, redefinindo coluna: <columnName>

várias vezes em schemaHints:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

As sugestões de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.

Coluna em conflito: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset deve ser chamado com um limite de leitura nesta fonte.

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

O ficheiro de log foi malformado: falha em ler a versão de log correta do <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

Você solicitou ao Auto Loader para ignorar os arquivos existentes em seu local externo, definindo includeExistingFiles como false. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em seu local externo. Tente novamente depois que os eventos de arquivos gerenciados tiverem concluído a descoberta de todos os arquivos em seu local externo.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

Você está usando o Auto Loader com eventos de arquivo gerenciados, mas parece que o local externo para o caminho de entrada '<path>' não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao seu administrador do Databricks que habilite eventos de arquivo no local externo para seu caminho de entrada.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

Você está usando o Auto Loader com eventos de arquivo gerenciados, mas não tem acesso ao local externo ou volume para o caminho de entrada '<path>' ou o caminho de entrada é inválido. Solicite ao seu Administrador do Databricks que conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido dentro de um local ou volume externo existente.

CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN

SQLSTATE: 42000

A posição de leitura do teu stream na cache de eventos do ficheiro foi invalidada. Isto pode acontecer porque a configuração dos eventos do ficheiro foi atualizada (por exemplo, a URL da fila fornecida foi alterada, ou os eventos do ficheiro foram desativados e reativados). Entre em contato com o suporte da Databricks para obter assistência.

CF_MANAGED_FILE_EVENTS_IS_PREVIEW

SQLSTATE: 56038

Auto Loader com eventos de ficheiros geridos é uma funcionalidade de pré-visualização. Para continuar, entre em contato com o Suporte do Databricks ou desative a opção cloudFiles.useManagedFileEvents.

CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED

SQLSTATE: 53000

Demasiados fluxos de Auto Loader em simultâneo estão a correr. Para resolver, reduza a concorrência do fluxo se possível, ou crie volumes separados para cada subdiretório ao carregar a partir de múltiplos subdiretórios numa localização externa. Contacte o seu representante da Databricks se o problema persistir.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max deve ser positivo

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

Várias consultas de streaming estão usando simultaneamente <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

O arquivo de metadados no diretório de ponto de verificação de origem de streaming está ausente. Este metadado

contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado

Agora. Entre em contato com o suporte da Databricks para obter assistência.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

O <columnName> da coluna de partição não existe no esquema fornecido:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

Especifique um esquema usando .schema() se um caminho não for fornecido para a fonte do CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para que o Auto Loader possa inferir o esquema, forneça um caminho base em .load().

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

Notificações existentes encontradas para o tópico <topicName> no bucket <bucketName>.

notification,id

<notificationList>

Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

Novas colunas de partição foram inferidas a partir dos seus ficheiros: [<filesList>]. Por favor, forneça todas as colunas de partição no seu esquema ou forneça uma lista de colunas de partição para as quais gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

Houve um erro ao tentar inferir o esquema de partição do lote atual de arquivos. Por favor, forneça explicitamente as colunas da partição usando: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

Não é possível ler arquivos quando o caminho de entrada <path> não existe. Certifique-se de que o caminho de entrada existe e tente novamente.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

O preenchimento periódico não é suportado se o preenchimento assíncrono estiver desativado. Você pode habilitar a listagem assíncrona de backfill/diretório definindo spark.databricks.cloudFiles.asyncDirListing como true

CF_PREFIX_MISMATCH

SQLSTATE: 22000

Evento incompatível encontrado: a chave <key> não tem o prefixo: <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

Se você não precisar fazer nenhuma outra alteração no seu código, defina o SQL

configuração: '<sourceProtocolVersionKey> = <value>'

para retomar a transmissão. Por favor, consulte:

<docLink>

para mais detalhes.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

Não foi possível obter a região padrão da AWS. Especifique uma região usando a opção cloudFiles.region.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

Falha ao criar serviços de notificação: o sufixo de recurso não pode estar vazio.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hífenes (-) e sublinhados (_).

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

Falha ao criar serviços de notificação: o sufixo de recurso só pode ter letra minúscula, número e traço (-).

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hífenes (-), sublinhados (_), pontos (.), tildes (~) mais sinais (+) e sinais de porcentagem (<percentSign>).

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

Falha ao criar serviços de notificação: o sufixo de recurso não pode ter mais de <limit> caracteres.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

Falha ao criar serviços de notificação: o sufixo de recurso deve estar entre os caracteres <lowerLimit> e <upperLimit>.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

Encontrada chave de tag de recurso GCP restrita (<key>). As seguintes chaves de tag de recurso GCP são restritas para o Auto Loader: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

Falha ao criar notificação para o tópico: <topic> com prefixo: <prefix>. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>. Tente usar um sufixo de recurso diferente para a instalação ou exclua a configuração existente.

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE: 42000

Não foi possível clonar nem migrar entradas do log do esquema de origem.

CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE

SQLSTATE: 42000

A senha ou o arquivo de chave devem ser especificados para SFTP.

Por favor, especifique a senha no uri de origem ou via <passwordOption>, ou especifique o conteúdo do arquivo de chave via <keyFileOption>.

CF_SFTP_NOT_ENABLED

SQLSTATE: 0A000

O acesso a arquivos SFTP não está habilitado. Entre em contato com o suporte da Databricks para obter assistência.

CF_SFTP_REQUIRE_FULL_PATH

SQLSTATE: 0A000

Especifique os componentes do caminho completo para uma fonte SFTP na forma de sftp://$user@$host:$port/$path para garantir uma consulta precisa da conexão UC.

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE: 0A000

Um cluster habilitado para UC é necessário para acessar arquivos SFTP. Entre em contato com o suporte da Databricks para obter assistência.

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE: 42000

O nome de usuário deve ser especificado para SFTP.

Por favor, forneça o nome de utilizador na URL de origem ou via <option>.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

Forneça o caminho do diretório de origem com a opção path

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

A origem dos ficheiros na nuvem suporta apenas os caminhos S3, Azure Blob Storage (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) neste momento. caminho: '<path>', uri resolvido: '<uri>'

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

A função cloud_files_state aceita um parâmetro string que representa o diretório de ponto de verificação de um fluxo cloudFiles ou um tableName de várias partes que identifica uma tabela de streaming e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para carregar o estado. O segundo parâmetro também pode ser «mais recente» para ler o ponto de verificação mais recente. Recebido: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

O caminho do ponto de verificação de entrada <path> é inválido. Ou o caminho não existe ou não há fontes cloud_files encontradas.

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

A versão especificada <version> não existe ou foi removida durante a análise.

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> thread está inativo.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

Não foi possível derivar a localização do ponto de verificação do fluxo a partir do ponto de verificação de origem: <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

Não é possível detetar o formato de ficheiro de origem de <fileSize> ficheiro(s) amostrado(s), foram encontrados <formats>. Especifique o formato.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

Não é possível extrair informações do bucket. Caminho: '<path>', URI resolvido: '<uri>'.

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

Não é possível extrair informações importantes. Caminho: '<path>', URI resolvido: '<uri>'.

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

Não é possível extrair informações da conta de armazenamento; caminho: '<path>', URI resolvido: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

Recebeu um evento de renomeação de diretório para o caminho <path>, mas não é possível listar esse diretório de forma eficiente. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar backfills regulares com cloudFiles.backfillInterval para que esses dados sejam processados.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

Limite de Leitura inesperado: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

Encontradas chaves de opção desconhecidas:

<optionList>

Certifique-se de que todas as chaves de opção fornecidas estão corretas. Se você quiser pular o

Para validação das suas opções e ignorar essas opções desconhecidas, pode configurar:

.option("cloudFiles.<validateOptions>", "falso")

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

ReadLimit desconhecido: <readLimit>

CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

SQLSTATE: 0A000

Configuração do modo 'mover' cleanSource não suportada.

Para mais detalhes, consulte CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

A função SQL 'cloud_files' para criar uma fonte de streaming Auto Loader é suportada apenas num pipeline Lakeflow Spark Declarative Pipeline. Veja mais detalhes em:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

A inferência de esquema não é suportada para o formato: <format>. Especifique o esquema.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: a versão máxima de log suportada é v<maxVersion>, mas foi encontrada v<version>. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Por favor, atualize.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

O modo de evolução do esquema <mode> não é suportado para o formato: <format>. Defina o modo de evolução do esquema como 'nenhum'.

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

A leitura de uma tabela Delta não é suportada com esta sintaxe. Se você gostaria de consumir dados da Delta, consulte os documentos: leia uma tabela Delta (<deltaDocLink>), ou leia uma tabela Delta como uma fonte de fluxo (<streamDeltaDocLink>). A fonte de streaming da Delta já está otimizada para consumo incremental de dados.

Geospatial

EWKB_PARSE_ERROR

SQLSTATE: 22023

Erro ao analisar EWKB: <parseError> na posição <pos>

Para mais detalhes, ver EWKB_PARSE_ERROR

EWKT_PARSE_ERROR

SQLSTATE: 22023

Erro ao analisar EWKT: <parseError> na posição <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

Erro ao analisar GeoJSON: <parseError> na posição <pos>

Para mais detalhes, ver GEOJSON_PARSE_ERROR

GEO_ENCODER_SRID_MISMATCH_ERROR

SQLSTATE: 42K09

Falha na codificação do valor <type> porque o SRID fornecido <valueSrid> de um valor para codificar não corresponde ao tipo de SRID: <typeSrid>.

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> não é um ID de célula H3 válido

Para mais detalhes, consulte H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

A distância da grelha H3 <k> não deve ser negativa

Para mais detalhes, consulte H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

Resolução H3 <r> deve estar entre <minR> e <maxR>, inclusive

Para mais detalhes, ver H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> está desativado ou sem suporte. Considere mudar para uma camada que suporte expressões H3

Para mais detalhes, consulte H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

Um pentágono foi encontrado no cálculo do anel hexadecimal de <h3Cell> com distância na grelha <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

A distância da grelha H3 entre <h3Cell1> e <h3Cell2> é indefinida

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

Os argumentos para "<sqlFunction>" devem ter o mesmo valor SRID. Valores de SRID encontrados: <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

"<sqlFunction>":

Para mais detalhes, ver ST_INVALID_ARGUMENT

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: Transformação CRS inválida ou sem suporte de SRID <srcSrid> para SRID <trgSrid>

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

A precisão <p> deve estar entre <minP> e <maxP>, inclusive.

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> está desativado ou sem suporte. Considere mudar para uma camada que ofereça suporte a expressões ST

WKB_PARSE_ERROR

SQLSTATE: 22023

Erro ao analisar WKB: <parseError> na posição <pos>

Para mais detalhes, ver WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

Erro ao analisar WKT: <parseError> na posição <pos>

Para mais detalhes, ver WKT_PARSE_ERROR

Catálogo Unity

NÃO_PODE_ELIMINAR_COLUNA_ETIQUETADA

SQLSTATE: 42893

A coluna não pode ser descartada porque tem uma ou mais tags controladas atribuídas. Por favor, remova a(s) etiqueta(s) antes de retirar a coluna. Para orientação, por favor consulte a documentação <docLink>.

CRIAÇÃO_DE_FILHO_PROIBIDA_PARA_ELEMENTO_SEGURÁVEL_ESTRANGEIRO

SQLSTATE: 22023

Protegível <childSecurableName> do tipo <childSecurableType> não pode ser criado em parent <parentSecurableName> of kind <parentSecurableKind>.

FORMATO_DA_COLUNA_INCOMPATÍVEL_COM_TIPO_DE_COLUNA

SQLSTATE: 42809

A coluna <columnName> possui um formato <formatType> que é incompatível com o tipo de coluna <columnType>.

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE: 42711

A coluna <columnName> entra em conflito com outra coluna com o mesmo nome mas com/sem espaços em branco finais (por exemplo, uma coluna existente nomeada <columnName> ). Renomeie a coluna com um nome diferente.

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE: 0AKUC

Solicitação inválida para obter credenciais de nível de conexão para conexão do tipo <connectionType>. Essas credenciais só estão disponíveis para conexões PostgreSQL gerenciadas.

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE: 56038

O tipo de ligação '<connectionType>' não está ativado. Por favor, habilite a conexão para usá-lo.

DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE

SQLSTATE: 55019

A entidade compartilhada '<securableFullName>' não é utilizável no momento, porque ainda não foi totalmente sincronizada com a entidade de origem correspondente. Causada por: <reason>.

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE: 42710

Já existe um objeto Recipient '<existingRecipientName>' com o mesmo identificador de compartilhamento '<existingMetastoreId>'.

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE: 42501

Os dados de um tipo segurável Delta Sharing <securableKindName> são de apenas leitura e não podem ser criados, modificados ou apagados.

DISASTER_RECOVERY_READ_ONLY

SQLSTATE: 25006

Os dados dentro de um catálogo <catalogName> réplica gerido pela Recuperação de Desastres são apenas leitura e não podem ser criados, modificados ou eliminados.

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE: 0A000

O fornecimento automático de credenciais é rejeitado para ambientes de computação que não são do Databricks porque o acesso a dados externos está desativado para o metastore <metastoreName>. Entre em contato com o administrador do metastore para ativar a configuração 'External Data Access' no metastore.

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

A tabela com id <tableId> não pode ser acessada de fora do Databricks Compute Environment devido ao seu tipo ser <securableKind>. Apenas os tipos de tabela 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' e 'TABLE_DELTA' podem ser acessados externamente.

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE: 22023

Privilégio EXTERNAL USE SCHEMA não é aplicável a esta entidade <assignedSecurableType> e só pode ser atribuído a um esquema ou catálogo. Remova o privilégio do objeto <assignedSecurableType> e atribua-o a um esquema ou catálogo.

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

Tabela com id <tableId> não pode ser escrita de fora do Databricks Compute Environment devido ao seu tipo ser <securableKind>. Apenas os tipos de tabela 'TABLE_EXTERNAL' e 'TABLE_DELTA_EXTERNAL' podem ser escritos externamente.

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE: 42501

O local de armazenamento de um catálogo estrangeiro do tipo <catalogType> será usado para descarregar dados e não pode ser configurado como apenas leitura.

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE: 54000

O número de <resourceType>s para o caminho de entrada <url> excede o limite permitido (<overlapLimit>) para superposições de HMS <resourceType>s.

Formato de Fonte de Dados Inválido [INVALID_DATASOURCE_FORMAT]

SQLSTATE: 0AKUC

O formato da fonte de dados '<datasourceFormat>' não é suportado<tableTypeSuffix> <catalogKindSuffix>.

INVALID_NAME_FORMAT

SQLSTATE: 42602

<fieldDescription> não é um nome válido. Os nomes válidos devem conter apenas caracteres alfanuméricos e sublinhas, e não podem conter espaços, pontos, barras para a frente ou caracteres de controlo.

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE: 0A000

Não há suporte para solicitações de compartilhamento delta usando nomes de recursos

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE: 42809

O nome do recurso fornecido faz referência ao tipo de entidade <provided>, mas o esperado era <expected>

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE: 42000

O nome do recurso fornecido faz referência a um metastore que não está no escopo da solicitação atual

INVALID_SECURABLE_NAME

SQLSTATE: 42602

<rpcName> nome inválido <securableType> : '<securableFullName>'

LOCATION_OVERLAP

SQLSTATE: 22023

O URL do caminho de entrada '<path>' sobrepõe-se à chamada <overlappingLocation> dentro de '<caller>'. <conflictingSummary>. <permissionErrorSuggestion>

LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE

SQLSTATE: 22023

A localização de armazenamento definida pelo cliente entra em conflito com o armazenamento padrão do workspace durante<path> a operação<caller>. Isto impede que funcionalidades que dependem do armazenamento do espaço de trabalho funcionem. Resumo do conflito: <conflictingSummary>. Consulte https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts os passos de remediação.

MANAGED_TABLE_FORMAT

SQLSTATE: 0AKUC

Somente Delta é suportado para tabelas gerenciadas. O formato da fonte de dados fornecida é <datasourceFormat>.

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE: 42616

Criar ou atualizar uma conexão MongoDB não é permitido porque a cadeia de conexão SRV do MongoDB não requer porta.

Remova a porta, pois a cadeia de conexão SRV não requer porta.

O_PRINCIPAL_NÃO_EXISTE

SQLSTATE: 42704

Não foi possível encontrar o principal com o nome <principalName>.

SUPORTE_A_PRIVILÉGIOS_NÃO_ATIVADO

SQLSTATE: 0AKUC

O suporte a privilégios não está habilitado para o tipo [<typeString>]

PRIVILEGE_NOT_APPLICABLE_TO_ENTITY

SQLSTATE: 22023

O privilégio <privilege> não é aplicável a esta entidade [<classifier>]. Se isto parecer inesperado, por favor verifique a versão privilegiada da metastore em uso [<privilegeVersion>].

CATÁLOGO_SOMENTE_LEITURA

SQLSTATE: 0AKUC

Os dados dentro de um Catálogo de Compartilhamento Delta são de apenas leitura e não podem ser criados, modificados ou excluídos. O catálogo '<catalogName>' é um catálogo Delta Sharing.

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE: 22KD1

A raiz de armazenamento para o catálogo estrangeiro do Redshift deve ser o AWS S3.

SCHEMA_NOT_EMPTY

SQLSTATE: 42893

O esquema '<fullName>' não está vazio. <extraInfo>

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

Securable with kind <securableKind> não suporta Lakehouse Federation.

SECURABLE_KIND_NOT_ENABLED

SQLSTATE: 56038

O tipo protegível '<securableKind>' não está habilitado. Se este for um tipo protegível associado a um recurso de visualização, ative-o nas configurações do espaço de trabalho.

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

Protegível com tipo <securableType> não suporta Lakehouse Federation.

SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT

SQLSTATE: 54000

A tabela de origem tem mais de <columnCount> colunas. Reduza o número de colunas para <columnLimitation> ou menos.

SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED

SQLSTATE: 42704

Não foi possível localizar a entidade de serviço do sistema registrada com o nome do recurso <servicePrincipalResource>.

TABLE_TYPE_NÃO_SUPORTA_METADADOS_DE_COLUNA

SQLSTATE: 0AKUC

O tipo <tableType> de tabela não suporta metadados de coluna.

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

As chaves secretas do cliente para o principal de serviço com id <applicationId> de aplicação estão expiradas. Visite o portal Azure para criar novas chaves para o seu principal de serviço.

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL

SQLSTATE: 42KDI

As chaves secretas do cliente para credenciais <storageCredentialName> de armazenamento estão expiradas. Contacte o proprietário ou o administrador da sua conta para atualizar a credencial de armazenamento.

UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

A chave secreta do cliente para o principal de serviço com id <applicationId> de aplicação não é válida.

UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID

SQLSTATE: 42KDI

A configuração do principal do serviço não é válida. Verifique o ID do Diretório, o ID da Aplicação e o Secret do Cliente.

UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE

SQLSTATE: 42KDI

Falhou a obtenção das credenciais: A credencial <storageCredentialName> de armazenamento não está configurada corretamente. Contacta o proprietário ou o administrador da tua conta para atualizar a configuração.

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE: 22003

O tempo de vida do token AAD trocado é <lifetime>, que está configurado para um período muito curto. Verifique a configuração do Azure AD para garantir que o token de acesso temporário tenha pelo menos uma hora de vida. https://v4.hkg1.meaqua.org/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_AMBIGUOUS_COLUMN_MATCH

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: Usando o alias '<alias>' tinha <size> correspondências, exatamente 1 correspondência é permitida.

UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> '<ref>' tem demasiadas <resolverType> dependências do ABAC.

UC_ABAC_DEPENDENCY_DIFFERING_RF_CM

SQLSTATE: 55000

A dependência '<dependency>' é referenciada várias vezes e resultou em filtros de linha ABAC ou máscaras de coluna diferentes.

UC_ABAC_EVALUATION_USER_ERROR

SQLSTATE: 42000

Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: <message>.

UC_ABAC_INVALID_TAG_POLICY_VALUE

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. Falhou com a mensagem: Valor de política de tag inválido <tagValue> para a chave <tagKey>.

UC_ABAC_MULTIPLE_ROW_FILTERS

SQLSTATE: 42KDJ

A avaliação das políticas ABAC em '<resource>' resultou em vários filtros de linha. No máximo um filtro de linha é permitido.

UC_ABAC_UNKNOWN_TAG_POLICY

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. Falha com a mensagem: Política de tag desconhecida: <tagKey>.

UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. Falha com a mensagem: Alias '<alias>' usado em USING COLUMNS não correspondeu a nenhuma coluna.

UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: Alias '<alias>' usado em ON COLUMN não correspondeu a nenhuma coluna.

UC_ABAC_UNMATCHED_USING_ALIAS

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: A utilização do alias '<alias>' não possui uma coluna correspondente.

UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. Falhado com a mensagem: A coluna '<usingCol>' foi mascarada pela política RLS/CM nativa e não pode ser usada como entrada para a política ABAC''<policyName>.

ACESSO_UC_REQUER_ESPACODETRABALHO

SQLSTATE: 42501

Não é possível aceder ao securável vinculado ao espaço de trabalho porque o utilizador não está atribuído ao espaço de trabalho associado.

UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE

SQLSTATE: 0A000

Não é permitido alterar a exibição '<viewFullName>' fora do pipeline que a definiu. Em vez disso, atualize a definição de exibição do pipeline que a definiu (ID do pipeline: <owningPipelineId>).

UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE

SQLSTATE: 0A000

O Atlas não está habilitado para o serviço <serviceName>de chamada .

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE: 0AKUC

A autorização de <actionName> não é suportada; certifique-se de que o RPC invocado está implementado para este tipo de recurso

UC_AWS_ASSUME_ROLE_FAILED

SQLSTATE: 42KDI

Não foi possível obter as credenciais: o papel AWS IAM na credencial do Unity Catalog não está configurado corretamente. Por favor, contacte o administrador da sua metastore ou o proprietário da credencial para atualizar a configuração na AWS.

UC_AWS_EMPTY_STORAGE_LOCATION

SQLSTATE: 22023

Local de armazenamento vazio.

UC_AWS_INVALID_S3_POLICY_PREFIX

SQLSTATE: 22KD1

Caminho s3 inválido para localização de armazenamento: O caminho <providedPath> S3 não começa com o prefixo esperado: <expectedPrefix>.

UC_AWS_UNSUPPORTED_S3_SCHEME

SQLSTATE: 22KD1

Caminho s3 inválido para localização de armazenamento: Esquema não suportado encontrado: <providedScheme>. Os Esquemas Suportados são: <supportedS3Schemes>.

UC_AZURE_BLOB_SERVICE_UNAVAILABLE

SQLSTATE: 57P03

O serviço Azure Blob está temporariamente indisponível. Tente novamente mais tarde.

UC_AZURE_UDK_UNAUTHORIZED

SQLSTATE: 42501

O pedido de chave de delegação de utilizador não é autorizado. Detalhes: <details>

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

Não é possível criar uma conexão para um metastore de hive interno porque o usuário: <userId> não é o administrador do espaço de trabalho: <workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE: 22023

Tente modificar um campo restrito na conexão HMS integrada '<connectionName>'. Apenas 'warehouse_directory' pode ser atualizado.

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE: 428FR

Falha ao renomear a coluna <originalLogicalColumn> da tabela porque ela é usada para filtragem de partições no <sharedTableName>. Para continuar, você pode remover a tabela do compartilhamento, renomear a coluna e compartilhá-la com as colunas de filtragem de partição desejadas novamente. No entanto, isso pode interromper a consulta de streaming para o destinatário.

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE: 0AKUC

Não é possível criar <securableType> '<securable>' em <parentSecurableType> '<parentSecurable>' porque a solicitação não é de um cluster de UC.

UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS

SQLSTATE: 42616

Não é possível criar uma ligação com uma lista de permitir que se sobreponha a uma opção de ligação. Valor: <conflictingOptions>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE: 42616

Não é possível criar uma conexão com as opções de autenticação de nome de usuário/senha e oauth. Por favor, escolha um.

UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED

SQLSTATE: 53400

O número máximo de credenciais para o nome de conexão '<connectionName>' foi atingido. Exclua as credenciais existentes antes de criar uma nova.

UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN

SQLSTATE: 42517

A credencial para identidade do usuário('<userIdentity>') não foi encontrada para a conexão '<connectionName>'. Por favor, faça login primeiro na conexão visitando <connectionPage>

UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

Não há suporte para a criação de credenciais para o tipo protegível '<securableType>'. Tipos protegíveis suportados: <allowedSecurableType>.

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE: 42893

A credencial '<credentialName>' tem uma ou mais conexões dependentes. Você pode usar a opção force para continuar a atualizar ou excluir a credencial, mas as conexões que usam essa credencial podem não funcionar mais.

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE: 42KDI

O token de acesso associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um token.

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE: 42KDI

O token de atualização associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um novo token.

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE: 55000

A conexão está no estado FAILED. Atualize a conexão com credenciais válidas para reativá-la.

UC_CONNECTION_MISSING_OPTION

SQLSTATE: 22023

As ligações do tipo protegível «<securableType>» devem incluir a(s) seguinte(s) opção(ões): <requiredOptions>.

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE: 42KDI

Não há nenhum token de atualização associado à conexão. Atualize a integração do cliente OAuth em seu provedor de identidade para retornar tokens de atualização e atualize ou recrie a conexão para reiniciar o fluxo OAuth e recuperar os tokens necessários.

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: 42KDI

A troca de token OAuth falhou com o código de status HTTP <httpStatus>. A resposta do servidor retornada ou mensagem de exceção é: <response>

UC_CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42616

As ligações do tipo protegível '<securableType>' não suportam a(s) seguinte(s) opção(ões): <optionsNotSupported>. Opções suportadas: <allowedOptions>.

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE: 56038

O suporte para confirmações coordenadas não está habilitado. Entre em contato com o suporte da Databricks.

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE: 55019

Não é possível criar <securableType> '<securableName>' porque está sob um <parentSecurableType> '<parentSecurableName>' que não está ativo. Por favor, exclua o pai protegível e recrie o pai.

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

Falha ao analisar o ID do conector de acesso fornecido: <accessConnectorId>. Verifique a sua formatação e tente novamente.

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

Falha ao obter um token AAD para realizar a validação de permissões na nuvem num conector de acesso. Tente novamente a ação.

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: nenhum atribuído

O registo de uma credencial requer a função de colaborador no conector de acesso correspondente com ID <accessConnectorId>. Entre em contato com o administrador da sua conta.

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE: 22023

O tipo de credencial '<credentialType>' não é suportado para a finalidade '<credentialPurpose>'

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

Somente o administrador da conta pode criar ou atualizar uma credencial com o tipo <storageCredentialType>.

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

A política de confiança da função do IAM para permitir que a Conta Databricks assuma a função deve exigir uma ID externa. Entre em contato com o administrador da sua conta para adicionar a condição de identificação externa. Este comportamento é para se proteger contra o problema do deputado confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0A000

A criação ou atualização de uma credencial como administrador que não seja de conta não é suportada na API de nível de conta. Em vez disso, use a API no nível do espaço de trabalho.

UC_DBR_TRUST_VERSION_TOO_OLD

SQLSTATE: 0A000

O Databricks Runtime que está sendo usado não suporta mais essa operação. Utilize a versão mais recente (poderá apenas ter de reiniciar o cluster).

UC_DELTA_ILLEGAL_BACKFILLED_VERSION

SQLSTATE: 22023

Inesperado latestBackfilledVersion <latestBackfilledVersion> no commit (<version>, <commitType>).

UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION

SQLSTATE: 0A000

A atualização ou downgrade simultâneo para/a partir de uma tabela gerida por catálogo não é suportada. Certifique-se de que apenas uma transação executa o comando de migração de cada vez. Foi detetado um duplicado <commitType> .

UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE

SQLSTATE: 22023

Transição ilegal de estado do antigo tipo <lastCommitType> de commit para o novo <commitType>.

UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH

SQLSTATE: 22023

As versões não correspondem à transição de estado do antigo (<lastVersion>, <lastCommitType>) para o novo (<version>, <commitType>).

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE: 22P02

Não é possível analisar a versão da tabela Apache Iceberg a partir do local dos metadados <metadataLocation>.

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE: 40001

Foi detetada uma atualização simultânea da mesma versão de metadados do Apache Iceberg.

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE: 22KD1

A localização de metadados confirmada <metadataLocation> é inválida. Não é um subdiretório do diretório <tableRoot>raiz da tabela.

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

A informação fornecida para a conversão do formato delta Apache Iceberg não tem campos obrigatórios.

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE: 0A000

A informação do formato delta Apache Iceberg no Create não é suportada.

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE: 54000

A informação fornecida para o formato delta Apache Iceberg é demasiado grande.

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE: 0A000

Os metadados uniformes só podem ser atualizados em tabelas Delta que tenham o recurso de uniformização ativado.

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> '<ref>' profundidade excede o limite (ou tem uma referência circular).

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<ref>' é inválido porque um dos recursos subjacentes não existe. <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE: 42501

<resourceType> '<ref>' não tem privilégio suficiente para executar porque o proprietário de um dos recursos subjacentes falhou em uma verificação de autorização. <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE: 42710

Já existe uma ligação chamada '<connectionName>' com o mesmo URL. Peça permissão ao proprietário para usar essa conexão em vez de criar uma duplicata.

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE: 42710

Tentativa de criar um catálogo Fabric com url '<storageLocation>' que corresponde a um catálogo existente, o que não é permitido.

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE: 42710

A atribuição de tags com a chave de tag <tagKey> já existe.

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE: 57000

A entidade <securableType> <entityId> não tem um cluster online correspondente.

UC_ETAG_MISMATCH

SQLSTATE: 40001

O recurso foi modificado. Por favor, pegue o etag mais recente e tente novamente. Valor esperado da etag: <expectedTokenValue> com a versão <expectedTokenVersion>do protocolo , valor da etag recebida: <providedTokenValue> com a versão do protocolo <providedTokenVersion>

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE: 22023

Existem mais de <maxFileResults> ficheiros. Especifique [max_results] para limitar o número de ficheiros devolvidos.

UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED

SQLSTATE: 22023

O esquema <schemaName> está em DEGRADED estado de provisionamento, o que é esperado, já que a localização do esquema eHMS / Glue não está a ser federada.

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE: 22023

Não é possível <opName> <extLoc> <reason>. <suggestion>.

UC_FEATURE_DISABLED

SQLSTATE: 56038

<featureName> está atualmente desativado na UC.

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

Não há suporte para a criação de um catálogo estrangeiro para o tipo de conexão '<connectionType>'. Esse tipo de conexão só pode ser usado para criar pipelines de ingestão gerenciados. Consulte a documentação do Databricks para obter mais informações.

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE: 0AKUC

Somente credenciais READ podem ser recuperadas para tabelas estrangeiras.

UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION

SQLSTATE: 55019

A criação FOREIGN <securableType> de '<entityName>' under catalog '<catalogName>' é proibida enquanto o catálogo está a ser convertido de FOREIGN para STANDARD.

UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH

SQLSTATE: 22023

A tabela base e a tabela de clones devem estar no mesmo catálogo para clones rasos criados em catálogos do Hive Metastore estrangeiros. A tabela base '<baseTableName>' está no catálogo '<baseCatalogName>' e a tabela de clone '<cloneTableName>' está no catálogo '<cloneCatalogName>'.

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE: 42830

As colunas filho e colunas pai de chave estrangeira <constraintName> têm tamanhos diferentes.

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE: 42830

As colunas primárias de chave estrangeira não correspondem às colunas secundárias de chave primária referenciadas. As colunas pai da chave estrangeira são (<parentColumns>) e as colunas filhas da chave primária são (<primaryKeyChildColumns>).

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE: 42830

O tipo de coluna filho de chave estrangeira não corresponde ao tipo de coluna pai. Coluna filho de chave estrangeira <childColumnName> tem tipo <childColumnType> e coluna pai <parentColumnName> tem tipo <parentColumnType>.

UC_GCP_INVALID_PRIVATE_KEY

SQLSTATE: 42501

Acesso negado. Causa: a chave privada da conta de serviço é inválida.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE: 22032

A Chave Privada OAuth da Conta do Servidor Google tem de ser um objeto válido JSON com campos obrigatórios; por favor, certifique-se de fornecer o ficheiro completo JSON gerado a partir da secção 'KEYS' da página de detalhes da conta de serviço.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE: 22032

A Chave Privada OAuth da Conta do Servidor Google tem de ser um objeto válido JSON com campos obrigatórios; por favor, certifique-se de fornecer o ficheiro completo JSON gerado a partir da secção 'KEYS' da página de detalhes da conta de serviço. Os campos em falta são <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

Descobriu-se que a função do IAM para essa credencial de armazenamento não era autoassumida. Verifique a confiança da sua função e as políticas do IAM para garantir que sua função do IAM possa assumir a si mesma de acordo com a documentação de credenciais de armazenamento do Unity Catalog.

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE: 40001

Não é possível inserir <tableName>: a localização dos metadados <baseMetadataLocation> mudou de <catalogMetadataLocation>.

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE: 42809

Não é possível executar a confirmação do Apache Iceberg gerenciado em uma tabela do Apache Iceberg não gerenciada: <tableName>.

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

As informações de confirmação fornecidas do Apache Iceberg gerenciado carecem de campos obrigatórios.

UC_ID_MISMATCH

SQLSTATE: 40001

O <type> <name> não tem ID <wrongId>. Por favor, tente novamente a operação.

UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED

SQLSTATE: 53300

Muitas solicitações de esquema de informações para o metastore. Aguarde um momento e tente novamente. Se o problema persistir, considere ajustar a seletividade de suas consultas ou entrar em contato com o suporte para obter assistência.

UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION

SQLSTATE: 0AKUC

A tabela online está obsoleta. A aquisição de acesso à tabela online <securableName> já não é suportada.

UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION

SQLSTATE: 0A000

Acesso inválido à instância do banco de dados. <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE: 42501

Acesso inválido de <securableType> <securableName> no catálogo federado <catalogName>. <reason>

UC_INVALID_AZURE_PATH

SQLSTATE: 22KD1

Azure path invalid: <path>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID

SQLSTATE: 22023

ID de conta Cloudflare inválido.

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE: 42616

Provedor de nuvem de credenciais inválido '<cloud>'. Provedor de nuvem permitido '<allowedCloud>'.

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE: 42616

Valor inválido '<value>' para 'finalidade' da credencial. Valores permitidos '<allowedValues>'.

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE: 42616

Não é possível atualizar uma conexão de <startingCredentialType> para <endingCredentialType>. A única transição válida é de uma conexão baseada em nome de usuário/senha para uma conexão baseada em token OAuth.

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE: 22P02

Cadeia cron inválida. Encontrado: '<cronString>' com exceção de análise: '<message>'

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE: 22023

Tabela gerenciada de acesso direto inválida <tableName>. Certifique-se de que a definição de pipeline da tabela de origem & não esteja definida.

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE: 55000

Local de armazenamento inesperadamente vazio para <securableType> '<securableName>' no catálogo '<catalogName>'. Para corrigir esse erro, execute DESCRIBE SCHEMA <catalogName>. <securableName> e atualize esta página.

UC_INVALID_OPTIONS_UPDATE

SQLSTATE: 42601

Opções inválidas fornecidas para atualização. Opções inválidas: <invalidOptions>. Opções permitidas: <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE: 42616

Valor inválido '<value>' para '<option>'. Valores permitidos '<allowedValues>'.

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE: 42616

'<option>' não pode estar vazio. Introduza um valor não vazio.

UC_INVALID_POLICY_CONDITION

SQLSTATE: 42611

Condição inválida na política '<policyName>'. Erro de compilação com a mensagem '<message>'.

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE: 22023

ID da chave de acesso R2 inválida.

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE: 22023

Chave de acesso secreta R2 inválida.

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE: 42501

Não é possível atualizar <securableType> '<securableName>', pois é de propriedade de um grupo interno. Entre em contato com o suporte da Databricks para obter detalhes adicionais.

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE: 22023

Uma vez que a credencial de armazenamento <storageCredentialName> não está associada ao DBFS Root, a criação de Localização Externa 'wasbs' é proibida.

UC_LOCATION_INVALID_SCHEME

SQLSTATE: 22KD1

O local de armazenamento tem esquema de URI inválido: <scheme>.

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE: 58000

A resposta do servidor do token faltava o campo <missingField>. A resposta retornada do servidor é: <response>

UC_MANAGED_ICEBERG_UNSUPPORTED

SQLSTATE: 0AKUC

Não é possível suportar a tabela Apache Iceberg gerida no endpoint atual.

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE: 22023

'<metastoreAssignmentStatus>' não pode ser atribuído. Apenas MANUALLY_ASSIGNABLE e AUTO_ASSIGNMENT_ENABLED são suportados.

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE: 0A000

A certificação Metastore não está habilitada.

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE: nenhum atribuído

O <metastoreId> metastore tem <numberManagedOnlineCatalogs> catálogo(s) online(s) gerenciado(s). Por favor, exclua-os explicitamente e, em seguida, tente novamente a exclusão do metastore.

UC_METASTORE_QUOTA_EXCEEDED

SQLSTATE: 53400

Esta conta com id <accountId> atingiu o limite para metastores na região <region>.

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE: 22023

A credencial raiz do metastore não pode ser definida ao atualizar o local da raiz do metastore. A credencial será obtida a partir da localização externa principal do metastore.

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE: 42501

Falha na eliminação do local de raiz de armazenamento do metastore. <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE: 22023

A raiz <securableType> de um metastore não pode ser apenas leitura.

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE: 22023

A raiz de armazenamento do Metastore não pode ser atualizada depois de definida.

UC_MODEL_INVALID_STATE

SQLSTATE: 55000

Não é possível gerar credenciais '<opName>' temporárias para a versão <modelVersion> do modelo com status <modelVersionStatus>. As credenciais '<opName>' só podem ser geradas para versões de modelo com status <validStatus>

UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. Falha na mensagem: A coluna '<usingCol>' foi mascarada pela política ABAC '<policyName>' e não pode ser usada como entrada para uma política RLS/CM nativa.

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE: 58000

Tentou aceder ao ID da organização (ou ID do espaço de trabalho), mas o contexto não tem nenhum.

UC_ONELAKE_PATH_BAD_DOMAIN

SQLSTATE: 22KD1

O caminho Azure OneLake '<path>' deve ter o nome de domínio '<expectedHost>'.

UC_ONELAKE_PATH_BAD_FORMAT

SQLSTATE: 22KD1

O caminho Azure OneLake '<path>' deve ser do formato 'abfss://_WORKSPACE_@<host>/'.

UC_ONELAKE_PATH_MISSING_AT

SQLSTATE: 22KD1

O caminho do Azure OneLake '<path>' não contém '@'.

UC_ONELAKE_PATH_MISSING_WORKSPACE

SQLSTATE: 22KD1

O caminho do Azure OneLake deve<path> conter um nome de espaço de trabalho.

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE: nenhum atribuído

A solicitação <rpcName> atualiza <fieldName>. Use o separador de cálculo da loja online para modificar qualquer coisa, exceto o comentário, o proprietário e o modo de isolamento de um catálogo online.

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

Não é possível criar mais do que <quota> lojas online na metastore e já existe <currentCount>. Poderá não ter acesso a quaisquer lojas online existentes. Entre em contato com o administrador da metastore para obter acesso ou obter mais instruções.

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE: nenhum atribuído

os catálogos de índice online devem ser <action> por meio da API /vector-search.

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE: nenhum atribuído

A solicitação <rpcName> atualiza <fieldName>. Utilize a API /vector-search para modificar qualquer elemento que não seja o comentário, o proprietário ou o "isolationMode" de um catálogo online de índice.

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

Não é possível criar mais de <quota> catálogos de índices online no repositório de metadados e já há <currentCount>. Você pode não ter acesso a nenhum catálogo de índice on-line existente. Entre em contato com o administrador da metastore para obter acesso ou obter mais instruções.

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE: 0A000

os índices online devem ser <action> através da API /vector-search.

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE: nenhum atribuído

As lojas online devem ser <action> através do separador Computação da Loja Online.

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE: 54000

O nome da coluna da tabela de origem <columnName> é muito longo. O comprimento máximo é de <maxLength> caracteres.

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

A coluna <columnName> não pode ser usada como uma coluna de chave primária da tabela online porque não faz parte da restrição de PRIMARY KEY existente da tabela de origem. Para mais detalhes, consulte <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

A coluna <columnName> não pode ser usada como uma chave de série temporal da tabela online porque não é uma coluna de série temporal da restrição de PRIMARY KEY existente da tabela de origem. Para mais detalhes, consulte <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

Não é possível criar mais de <quota> tabelas online para cada tabela de origem.

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE: 0AKUC

Para aceder ao recurso <resourceName>, é necessário usar um warehouse SQL Serverless. Verifique se o armazém que está a ser usado para executar uma consulta ou exibir um catálogo de banco de dados na UI é serverless. Para mais detalhes, consulte <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE: 53400

Não é possível criar mais do que <quota> visualizações online contínuas na loja online, e já existe <currentCount>. Poderá não ter acesso a quaisquer visualizações online existentes. Entre em contato com o administrador da sua loja online para obter acesso ou obter mais instruções.

UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK

SQLSTATE: nenhum atribuído

Em local de armazenamento com Chaves Geridas Databricks, <tableKind> não pode ser criado. Escolha um esquema/catálogo diferente em um local de armazenamento sem criptografia Databricks Managed Keys.

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE: 42809

Catálogo inválido <catalogName> com tipo <catalogKind> para criar <tableKind> dentro. <tableKind> só pode ser criado em catálogos de tipos: <validCatalogKinds>.

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE: 42809

Esquema inválido <schemaName> com tipo <schemaKind> para criar <tableKind> dentro. <tableKind> só pode ser criado em esquemas de tipos: <validSchemaKinds>.

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE: 42809

A coluna <columnName> do tipo <columnType> não pode ser usada como uma coluna de tempo TTL. Os tipos permitidos são <supportedTypes>.

UC_OPERATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Operação não suportada pelo Unity Catalog. <detailedMessage>

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE: 22023

Erro no caminho autorizado. A localização <securableType><location> não está definida nos caminhos autorizados para o catálogo: <catalogName>. Peça ao proprietário do catálogo para adicionar o caminho à lista de caminhos autorizados definidos no catálogo.

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE: 22023

A opção «authorized_paths» contém caminhos sobrepostos: <overlappingPaths>. Certifique-se de que cada caminho é único e não se cruza com outros na lista.

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 22023

O argumento de consulta '<arg>' é definido como '<received>', que é diferente do valor usado na primeira chamada de paginação ('<expected>')

UC_PATH_FILTER_ALLOWLIST_VIOLATION

SQLSTATE: 42501

A credencial '<credentialName>' é uma credencial padrão do espaço de trabalho que só tem permissão para acessar dados nos seguintes caminhos: '<allowlist>'. Certifique-se de que qualquer caminho acessado usando essa credencial esteja em um desses caminhos.

UC_PATH_FILTER_DENYLIST_VIOLATION

SQLSTATE: 42501

A credencial '<credentialName>' é uma credencial padrão do espaço de trabalho que não pode acessar dados no seguinte caminho restrito: '<targetPath>'.

UC_PATH_TOO_LONG

SQLSTATE: 54000

O caminho de entrada é muito longo. Comprimento permitido: <maxLength>. Comprimento de entrada: <inputLength>. Entrada: <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE: 54000

Limite de simultaneidade excedido para metastore <metastoreId>. Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte. Código de erro #UC-<errorCodeArbitraryFiveLettersUpperCase>

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

Não é possível criar mais do que tabela(s) de banco de dados sincronizada <quota> por tabela de origem.

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE: 42831

Não é possível criar a chave primária <constraintName> porque suas colunas filhas <childColumnNames> são nulas. Altere a anulabilidade da coluna e tente novamente.

UC_REQUEST_LIMIT_EXCEEDED

SQLSTATE: 53400

O seu pedido foi rejeitado porque a sua organização ultrapassou o limite de taxa. Tente novamente o seu pedido mais tarde.

UC_REQUEST_TIMEOUT

SQLSTATE: 57KD0

Esta operação demorou demasiado tempo.

UC_RESOURCE_QUOTA_EXCEEDED

SQLSTATE: 53400

Não pode criar <amount> <resourceType>(s) em <parentResourceType> <parentResourceId> (contagem estimada: <currentCount>, limite: <quotaLimit>).

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE: 22KD1

O nome do bucket raiz de armazenamento S3 contendo pontos não é suportado pelo Unity Catalog: <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE: 22KD1

Local de armazenamento vazio inesperado para o esquema '<schemaName>' no catálogo '<catalogName>'. Certifique-se de que o esquema usa um esquema de caminho de <validPathSchemesListStr>.

UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING

SQLSTATE: 42501

Os notebooks python e scala sem servidor estão proibidos de recuperar credenciais de armazenamento temporário do Unity Catalog em espaços de trabalho restritos à rede.

UC_SHALLOW_CLONE_BASE_TABLE_DELETED

SQLSTATE: 42S02

Não é possível acessar o clone superficial '<tableFullName>' porque sua tabela base '<baseTableName>' foi excluída.

UC_STORAGE_CREDENTIALS_COM_NEGAÇÃO_DE_ELIMINAÇÃO_DE_LOCALIZAÇÃO_EXTERNAS

SQLSTATE: 42893

A credencial de armazenamento '<credentialName>' tem tabela(s) externa(s) diretamente dependente(s) e local(is) de armazenamento <extTablesCount> dependente(s). Você pode usar a opção force para excluí-lo, mas os dados de armazenamento gerenciado usando essa credencial de armazenamento não podem mais ser limpos pelo Unity Catalog.

UC_STORAGE_CREDENTIALS_COM_ATUALIZAÇÃO_DE_LOCALIZAÇÃO_EXTERNA_NEGADA

SQLSTATE: 42893

A credencial de armazenamento '<credentialName>' tem <extTablesCount> tabela(s) externa(s) diretamente dependentes e <extLocationsCount> local(is) de armazenamento dependente(s); use a opção Force para atualizar de qualquer maneira.

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

Falha ao analisar o ID do conector de acesso fornecido: <accessConnectorId>. Verifique a sua formatação e tente novamente.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

Não é possível criar uma credencial de armazenamento para a raiz DBFS porque o usuário: <userId> não é o administrador do espaço de trabalho: <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE: 0AKUC

A credencial de armazenamento raiz do DBFS ainda não é suportada para espaços de trabalho com DBFS com Firewall ativado.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE: 0A000

A credencial de armazenamento raiz DBFS para o espaço de trabalho atual ainda não é suportada

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE: 0A000

A raiz do DBFS não está ativada para o espaço de trabalho <workspaceId>.

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

Falha ao obter um token AAD para realizar a validação de permissões na nuvem num conector de acesso. Tente novamente a ação.

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 42501

O registro de uma credencial de armazenamento requer a função de colaborador sobre o conector de acesso correspondente com ID <accessConnectorId>. Entre em contato com o administrador da sua conta.

Permissão Negada para Eliminar a Raiz do Metastore das Credenciais de Armazenamento UC

SQLSTATE: 55000

A credencial de armazenamento '<credentialName>' não pode ser excluída porque está configurada como a credencial raiz desse metastore. Atualize a credencial raiz do metastore antes de tentar eliminar.

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 42501

Somente o administrador da conta pode criar ou atualizar uma credencial de armazenamento com o tipo <storageCredentialType>.

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE: 42KDI

Token de validação ausente para o principal de serviço. Forneça um token de ID do Entra com escopo ARM válido no cabeçalho da solicitação 'X-Databricks-Azure-SP-Management-Token' e tente novamente. Para mais detalhes, consulte https://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

A política de confiança da função do IAM para permitir que a Conta Databricks assuma a função deve exigir uma ID externa. Entre em contato com o administrador da sua conta para adicionar a condição de identificação externa. Este comportamento é para se proteger contra o problema do deputado confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE: 22KD1

O local <location> não está dentro da raiz do DBFS, por isso não podemos criar uma credencial de armazenamento <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0AKD1

A criação ou atualização de uma credencial de armazenamento como não-administrador de conta não é suportada na API de nível de conta. Em vez disso, use a API no nível do espaço de trabalho.

UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION

SQLSTATE: 22KD1

A localização <requestedLocation> não está dentro do contexto permitido <allowedLocation>

UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED

SQLSTATE: 56038

A credencial de armazenamento do catálogo interno do espaço de trabalho para o espaço de trabalho atual ainda não é suportada

Esquema do sistema UC não disponível para ativação

SQLSTATE: 57P03

O esquema <systemSchema> do sistema não está atualmente disponível para ativação. Tente novamente mais tarde.

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 22023

Não é possível conceder privilégios em <securableType> ao grupo gerado pelo sistema <principal>.

UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION

SQLSTATE: 55000

A tabela '<tableId>' está temporariamente bloqueada para uma migração de tabelas gerida pelo catálogo. As transações nesta tabela são bloqueadas até que a migração seja concluída. Tente novamente a sua transação em breve.

UC_TABLE_IS_NOT_CATALOG_OWNED

SQLSTATE: 0A000

O pedido para realizar commit/getCommits para a tabela '<tableId>' requer a ativação do recurso gerido pelo Catálogo na tabela.

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE: 42704

A atribuição de tag com a chave de tag <tagKey> não existe

UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Não há suporte para a operação de credenciais temporárias.

UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível soltar '<resourceType>' porque já existe um '<resourceType>' com id '<resourceId>'.

UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível soltar '<resourceType>' porque já existe um '<resourceType>' com nome '<resourceName>'.

UC_UNDROP_RESOURCE_NOT_READY

SQLSTATE: 55000

Não é possível soltar '<resourceType>' porque o '<resourceType>' com id '<resourceId>' não está pronto para ser restaurado, tente novamente mais tarde.

UC_UNDROP_RECURSO_APÓS_PERÍODO_PERSONALIZADO_DE_RETENÇÃO

SQLSTATE: 55019

Não é possível soltar '<resourceType>' porque o '<resourceType>' com id '<resourceId>' está além de seu período de restauração personalizado.

UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW

SQLSTATE: 55019

Não é possível restaurar '<resourceType>' porque o '<resourceType>' com id '<resourceId>' está além do período de restauração suportado de '<maxRestorationPeriodDay>' dias.

UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST

SQLSTATE: 42891

Falha ao criar UNIQUE restrição <newConstraintName>: a tabela <tableName> já tem uma UNIQUE restrição: <existingConstraintName>, que tem o mesmo conjunto de colunas filhas.

UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED (restrição única não suportada)

SQLSTATE: 56038

Falha ao operar com a restrição UNIQUE<constraintName>: a restrição UNIQUE não está habilitada.

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE: 22KD1

Caminho base inválido fornecido, caminho base deve ser algo como /api/resources/v1. Caminho não suportado: <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE: 22KD1

Nome de host inválido fornecido, nome do host deve ser algo como https://www.databricks.com sem sufixo de caminho. Host não suportado: <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 22KD1

Apenas os caracteres básicos Latin/Latin-1 ASCII são suportados em caminhos de localização/volume/tabela externos. Caminho não suportado: <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE: 55019

Não é possível atualizar <securableType> '<securableName>' porque está sendo provisionado.

UC_USING_REF_OF_MASKED_COLUMNS

SQLSTATE: 42KDJ

Erro ao avaliar as políticas ABAC em '<resource>'. Mensagem falhada: A coluna '<usingCol>' foi mascarada pela política ABAC e<existingMaskingPolicy> não pode ser usada na política.<policyName>

UC_WRITE_CONFLICT

SQLSTATE: 40001

O <type> <name> foi modificado por outro pedido. Por favor, tente novamente a operação.

UNDROP_TABLE_NOT_FOUND

SQLSTATE: 42704

Não se pode desfazer a tabela porque nenhuma tabela com nome <tableFullName> se qualifica para desistência. Esta tabela pode já estar por eliminar, eliminada para além do período máximo de restauração, ou nunca ter existido.

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE: 42517

A solicitação para executar commit/getCommits para a tabela '<tableId>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE: 42517

A solicitação para criar uma tabela de preparo '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por razões de segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOGO_EXTERN_CODE_CREATE_TABLE_FALHA_VALIDACAO_COLUMN_MASKS_DEFINIDO

SQLSTATE: 42517

A solicitação para criar tabela '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. Não há suporte para máscaras de coluna ao criar tabelas externamente.

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA

SQLSTATE: 42517

A solicitação para criar tabela '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. O formato da fonte de dados deve ser DELTA para criar tabela externamente, em vez disso, é '<dataSourceFormat>'.

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL

SQLSTATE: 42517

A solicitação para criar tabela '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. O tipo de tabela deve ser EXTERNAL para criar tabela externamente, em vez disso é '<tableType>'.

Informação sobre a criação de tabela externa no catálogo de unidade contém campos inválidos

SQLSTATE: 22023

A criação de tabelas externas só permite estes campos: [nome, catalog_name, schema_name, table_type, data_source_format, colunas, storage_location e propriedades].

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

A solicitação para criar uma tabela não externa '<tableFullName>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

Não é suportada a solicitação para excluir a tabela não externa '<tableFullName>' fora de um ambiente de computação com Databricks Unity Catalog ativado.

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE: 42517

A solicitação para gerar credenciais de acesso para o caminho '<path>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE: 42517

A solicitação para gerar credenciais de acesso para a tabela '<tableId>' de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED

SQLSTATE: 42517

A solicitação para gerar credenciais de caminho temporário de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. A ID da credencial não deve ser definida ao gerar credenciais de caminho temporário externamente.

CATÁLOGO_UNIDADE_EXTERNA_GERAÇÃO_TEMP_CAMINHO_CRED_FALHA_VALIDACAO_FAZER_CAMINHO_APENAS_DEFINIDO_PAI

SQLSTATE: 42517

A solicitação para gerar credenciais de caminho temporário de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada. make_path_only_parent não deve ser definido ao gerar credenciais de caminho temporário externamente.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED

SQLSTATE: 42517

O pedido para gerar credencial de acesso para o volume '<volumeId>' a partir de fora do ambiente de computação habilitado pelo Databricks Unity Catalog é negado por questões de segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Pedido para gerar credencial de acesso para '<volumeSecurableKind>' a partir de fora do ambiente de computação habilitado pelo Databricks Unity Catalog é recusado por questões de segurança. Entre em contato com o suporte da Databricks para integrações com o Unity Catalog.

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE: 42517

A solicitação para obter credenciais de origem externa para elementos de segurança fora do ambiente de computação habilitado pelo Databricks Unity Catalog é negada por razões de segurança.

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE: 42517

A solicitação para atualizar instantâneos de metadados de fora do ambiente de computação habilitado para Databricks Unity Catalog é negada por segurança.

UNSUPPORTED_LOCATION_SCHEME

SQLSTATE: 22KD1

<fieldName> tem esquema <scheme>de URI inválido. Os esquemas de URI válidos incluem <validSchemes>. Caminho inválido: <path>.

UPDATE_SYSTEM_TABLE

SQLSTATE: 42501

A tabela de propriedade do sistema não pode ser modificada. Tabela '<tableName>' é uma tabela de propriedade do sistema.

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE: 0AKUC

Solicitação inválida para obter credenciais de escrita para tabela online gerida num catálogo online.

API de arquivos

FILES_API_API_IS_NOT_ENABLED

SQLSTATE: nenhum atribuído

<api_name> A API não está ativada

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE: nenhum atribuído

O método solicitado da API Files não é suportado para caminhos de nuvem

FILES_API_AWS_ACCESS_DENIED

SQLSTATE: nenhum atribuído

O acesso ao bucket de armazenamento é negado pela AWS.

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE: nenhum atribuído

Todo o acesso ao bucket de armazenamento foi desativado na AWS.

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

O bucket de armazenamento não existe na AWS.

FILES_API_AWS_FORBIDDEN

SQLSTATE: nenhum atribuído

O acesso ao bucket de armazenamento é proibido pela AWS.

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE: nenhum atribuído

O espaço de trabalho está configurado incorretamente: ele deve estar na mesma região que o bucket de armazenamento raiz do espaço de trabalho da AWS.

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE: nenhum atribuído

O nome do bucket de armazenamento é inválido.

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE: nenhum atribuído

As chaves KMS configuradas para acessar o bucket de armazenamento estão desabilitadas na AWS.

FILES_API_AWS_UNAUTHORIZED

SQLSTATE: nenhum atribuído

O acesso ao recurso da AWS não é autorizado.

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE: nenhum atribuído

A conta de armazenamento está desabilitada no Azure.

FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH

SQLSTATE: nenhum atribuído

A incompatibilidade entre permissões de autorização.

FILES_API_AZURE_CMK_NOT_FOUND

SQLSTATE: nenhum atribuído

A chave de encriptação gerida não pode ser encontrada.

FILES_API_AZURE_CMK_SOFT_DELETED

SQLSTATE: nenhum atribuído

A chave de encriptação gerida foi apagada de forma suave.

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

O contêiner do Azure não existe.

FILES_API_AZURE_CREDENTIAL_NOT_FOUND

SQLSTATE: nenhum atribuído

Credencial do Azure não encontrada. A credencial do Azure pode estar ausente ou inacessível.

FILES_API_AZURE_FORBIDDEN

SQLSTATE: nenhum atribuído

O acesso ao contêiner de armazenamento é proibido pelo Azure.

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE: nenhum atribuído

O Azure respondeu que atualmente há uma concessão do recurso. Tente novamente mais tarde.

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE: nenhum atribuído

A conta que está sendo acessada não tem permissões suficientes para executar esta operação.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION

SQLSTATE: nenhum atribuído

A configuração da conta que está sendo acessada não é suportada.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE: nenhum atribuído

Não é possível acessar a conta de armazenamento no Azure: nome de conta de armazenamento inválido.

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE: nenhum atribuído

O cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE: nenhum atribuído

A chave do cofre de chaves do Azure não foi encontrada no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE: nenhum atribuído

O cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE: nenhum atribuído

Credencial de Identidade Gerenciada do Azure com Conector de Acesso não encontrada. Isso pode ser porque os controles de acesso IP rejeitaram sua solicitação.

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE: nenhum atribuído

A operação não pôde ser concluída dentro do prazo permitido.

FILES_API_AZURE_PATH_INVALID

SQLSTATE: nenhum atribuído

O caminho solicitado não é válido para o Azure.

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE: nenhum atribuído

O caminho solicitado é imutável.

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE: nenhum atribuído

Um dos cabeçalhos especificados na operação não é suportado.

FILES_API_CANNOT_PARSE_URL_PARAMETER

SQLSTATE: nenhum atribuído

O parâmetro URL não pode ser analisado.

FILES_API_CATALOG_NOT_FOUND

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE: nenhum atribuído

<message>

FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE

SQLSTATE: nenhum atribuído

Há um problema de conexão chegando ao <cloud_storage_provider>. Tente novamente mais tarde.

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE: nenhum atribuído

o caractere ':' não é suportado em caminhos

FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: nenhum atribuído

A zona de rede do consumidor "<consumer_network_zone>" não é permitida na zona de rede do solicitante "<requester_network_zone>".

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: nenhum atribuído

Zona de rede do plano de controlo do Databricks não é permitida.

CREDENCIAL_DO_API_DE_ARQUIVOS_NÃO_ENCONTRADA

SQLSTATE: nenhum atribuído

A credencial não foi encontrada.

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE: nenhum atribuído

Foi fornecido um corpo, mas os diretórios não podem conter um corpo de ficheiro

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE: nenhum atribuído

O diretório não está vazio. Esta operação não é suportada em diretórios não vazios.

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE: nenhum atribuído

O diretório que está sendo acessado não foi encontrado.

LIMITE_DE_ARQUIVOS_PARA_DOWNLOAD_DE_ZIP_NO_DIRETÓRIO_EXCEDIDO

SQLSTATE: nenhum atribuído

O diretório contém muitos arquivos para download ZIP. Máximo <max_file_count> de ficheiros permitidos.

FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED

SQLSTATE: nenhum atribuído

A chave raiz para a criptografia gerenciada pelo cliente está desabilitada.

FILES_API_DUPLICATED_HEADER

SQLSTATE: nenhum atribuído

A solicitação continha várias cópias de um cabeçalho que só é permitido uma vez.

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE: nenhum atribuído

O parâmetro de consulta '<parameter_name>' deve estar presente exatamente uma vez, mas foi fornecido várias vezes.

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE: nenhum atribuído

O nome do bucket DBFS está vazio.

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

O usuário não tem acesso à chave de criptografia.

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE: nenhum atribuído

A operação para recuperar a chave de criptografia não pôde ser concluída dentro do tempo permitido.

FILES_API_ENTITY_TOO_LARGE

SQLSTATE: nenhum atribuído

Seu objeto excede o tamanho máximo permitido do objeto.

FILES_API_ERROR_EXPIRED_TTL

SQLSTATE: nenhum atribuído

O TTL expirou.

FILES_API_ERROR_INVALID_TTL

SQLSTATE: nenhum atribuído

O TTL é inválido.

FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND

SQLSTATE: nenhum atribuído

A chave para o espaço de trabalho não foi encontrada.

FILES_API_ERROR_MISSING_REQUIRED_PARAM

SQLSTATE: nenhum atribuído

O URL está faltando um parâmetro necessário.

FILES_API_ERROR_TTL_IN_THE_FUTURE

SQLSTATE: nenhum atribuído

O TTL está no futuro.

FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME

SQLSTATE: nenhum atribuído

O nome do estilhaço do emissor é inválido.

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE: nenhum atribuído

o tempo de expiração deve ser apresentado

FILES_API_EXPIRED_TOKEN

SQLSTATE: nenhum atribuído

O token fornecido expirou.

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE: nenhum atribuído

Tempo de Expiração deve ser no futuro

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE: nenhum atribuído

TTL solicitado é maior do que o suportado (1 hora)

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE: nenhum atribuído

O arquivo que está sendo criado já existe.

FILES_API_FILE_NOT_FOUND

SQLSTATE: nenhum atribuído

O arquivo que está sendo acessado não foi encontrado.

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE: nenhum atribuído

Arquivos ou diretórios terminados no caractere '.' não são suportados.

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE: nenhum atribuído

O tamanho do ficheiro não deve exceder <max_download_size_in_bytes> bytes, mas <size_in_bytes> bytes foram encontrados.

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE: nenhum atribuído

O acesso ao bucket de armazenamento foi desabilitado no GCP.

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

O bucket de armazenamento não existe no GCP.

FILES_API_GCP_FORBIDDEN

SQLSTATE: nenhum atribuído

O acesso ao bucket é proibido pelo GCP.

FILES_API_GCP_IAM_AUTHENTICATION_FAILURE

SQLSTATE: nenhum atribuído

A autenticação falhou para a operação IAM do GCP.

FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND

SQLSTATE: nenhum atribuído

As credenciais GCP especificadas não existem ou não podem ser acedidas.

FILES_API_GCP_IAM_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

Permissão negada para operação GCP IAM.

FILES_API_GCP_KEY_DELETED

SQLSTATE: nenhum atribuído

A chave de encriptação foi eliminada ou já não está acessível.

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE: nenhum atribuído

A chave de criptografia gerenciada pelo cliente configurada para esse local está desabilitada ou destruída.

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE: nenhum atribuído

As solicitações GCP para o bucket são proibidas pela política, verifique os controles de serviço da VPC.

FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM

SQLSTATE: nenhum atribuído

Há um problema com o projeto GCP usado na solicitação que impede que a operação seja concluída com êxito.

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE: nenhum atribuído

O host do provedor de nuvem está temporariamente indisponível; Tente novamente mais tarde.

FILES_API_INVALID_CONTENT_LENGTH

SQLSTATE: nenhum atribuído

O valor do cabeçalho de comprimento de conteúdo deve ser um inteiro maior ou igual a 0.

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE: nenhum atribuído

O token de página fornecido não é válido.

FILES_API_INVALID_HEADER_VALUE

SQLSTATE: nenhum atribuído

O valor do cabeçalho '<header_name>' é inválido.

FILES_API_INVALID_HOSTNAME

SQLSTATE: nenhum atribuído

O nome do host é inválido.

FILES_API_INVALID_HTTP_METHOD

SQLSTATE: nenhum atribuído

Método http inválido. Esperava '<expected>', mas tem '<actual>'.

FILES_API_INVALID_METASTORE_ID_HEADER

SQLSTATE: nenhum atribuído

O cabeçalho do ID do metastore é inválido.

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE: nenhum atribuído

token de página inválido

FILES_API_INVALID_PATH

SQLSTATE: nenhum atribuído

Caminho inválido: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE: nenhum atribuído

O cabeçalho do intervalo é inválido.

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE: nenhum atribuído

Token de sessão inválido

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE: nenhum atribuído

Tipo de token de sessão inválido. Esperava '<expected>', mas tem '<actual>'.

FILES_API_INVALID_TIMESTAMP

SQLSTATE: nenhum atribuído

O carimbo de data/hora é inválido.

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE: nenhum atribuído

Tipo de carregamento inválido. Esperava '<expected>', mas tem '<actual>'.

FILES_API_INVALID_URL

SQLSTATE: nenhum atribuído

URL inválido

FILES_API_INVALID_URL_PARAMETER

SQLSTATE: nenhum atribuído

O URL passado como parâmetro é inválido

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE: nenhum atribuído

O parâmetro de consulta 'overwrite' deve ser um dos seguintes: true, false, mas foi: <got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE: nenhum atribuído

O parâmetro de consulta '<parameter_name>' deve ser um de: <expected> mas foi: <actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE: nenhum atribuído

Corpo de solicitação malformado

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE: nenhum atribuído

O método solicitado da API Files não é suportado para Jobs Background Compute Artifact Storage.

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE: nenhum atribuído

O cabeçalho de comprimento de conteúdo é necessário na solicitação.

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE: nenhum atribuído

O parâmetro de consulta '<parameter_name>' é necessário, mas está ausente da solicitação.

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE: nenhum atribuído

A solicitação está faltando um parâmetro necessário.

FILES_API_MLFLOW_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

<mlflow_error_message>

FILES_API_MLFLOW_RESOURCE_EXHAUSTED

SQLSTATE: nenhum atribuído

Limite de solicitação excedido comunicando com o serviço MLflow.

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE: nenhum atribuído

A versão do modelo ainda não está pronta

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

URLs pré-assinados para anular carregamentos de várias partes não são suportados para arquivos armazenados no <cloud_storage_provider>.

FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

Abortar uploads multipartes não é suportado para ficheiros armazenados em <cloud_storage_provider>.

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE: nenhum atribuído

A lista de partes deve ter pelo menos um elemento, mas estava vazia.

FILES_API_MULTIPART_UPLOAD_INVALID_PART

SQLSTATE: nenhum atribuído

Não foi possível encontrar uma ou mais das partes especificadas. A parte pode não ter sido carregada ou a etiqueta de entidade especificada pode não corresponder à etiqueta de entidade da parte.

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE: nenhum atribuído

Os números das peças devem ser maiores ou iguais a <min> e menores ou iguais a <max>.

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE: nenhum atribuído

ETags devem ser fornecidos para arquivos armazenados em <cloud_storage_provider>. Pelo menos um ETag não foi fornecido ou vazio.

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE: nenhum atribuído

O estado interno da entidade de armazenamento foi modificado desde o início do upload, por exemplo, porque o caminho do ficheiro não aponta para a mesma localização subjacente de armazenamento na cloud. Prossiga iniciando uma nova sessão de upload.

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE: nenhum atribuído

As partes carregadas como parte de uma sessão de carregamento com várias partes devem ter o mesmo tamanho para os arquivos armazenados no <cloud_storage_provider>, exceto para a última parte, que pode ser menor.

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE: nenhum atribuído

O tamanho das partes carregadas como parte de uma sessão de carregamento com várias partes deve ser maior ou igual a <min> e menor ou igual a <max>.

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE: nenhum atribuído

A sessão de carregamento não foi encontrada. Pode ter sido abortado ou concluído.

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE: nenhum atribuído

A lista de peças deve ser ordenada pelo número da peça, mas não estava ordenada.

FILES_API_NON_ZERO_CONTENT_LENGTH

SQLSTATE: nenhum atribuído

O cabeçalho de comprimento de conteúdo deve ser zero para essa solicitação.

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE: nenhum atribuído

A API de arquivos para <place> não está habilitada para este espaço de trabalho/conta

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE: nenhum atribuído

O método solicitado da API de arquivos não é suportado para armazenamento de espaço de trabalho interno

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE: nenhum atribuído

a operação deve estar presente

FILES_API_OPERATION_TIMEOUT

SQLSTATE: nenhum atribuído

A operação expirou.

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE: nenhum atribuído

page_size deve ser maior ou igual a 0

ACESSO_BASEADO_EM_CAMINHO_DE_ARQUIVOS_API_A_TABELA_COM_FILTRO_NÃO_PERMITIDO

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE: nenhum atribuído

Os caminhos que terminam no caractere '/' representam diretórios. Esta API não suporta operações em diretórios.

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE: nenhum atribuído

O caminho fornecido aponta para um diretório existente. Esta API não suporta operações em diretórios.

FILES_API_PATH_IS_A_FILE

SQLSTATE: nenhum atribuído

O caminho fornecido aponta para um arquivo existente. Esta API não suporta operações em ficheiros.

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE: nenhum atribuído

o caminho fornecido não era um URL codificado UTF-8 válido

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE: nenhum atribuído

O caminho dado não está habilitado para proxy no plano de dados.

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE: nenhum atribuído

caminho deve estar presente

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE: nenhum atribuído

O caminho do arquivo fornecido é muito longo.

FILES_API_PRECONDITION_FAILED

SQLSTATE: nenhum atribuído

O pedido falhou devido a uma condição prévia.

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

A API de Ficheiros para URLs pré-assinadas para modelos não é suportada no momento.

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE: nenhum atribuído

R2 não é suportado no momento.

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE: nenhum atribuído

O intervalo solicitado não é satisfatório.

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

Não há suporte para listar arquivos recursivamente.

FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN

SQLSTATE: nenhum atribuído

Não é possível inferir a zona de rede do solicitante.

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE: nenhum atribuído

A solicitação foi encaminhada incorretamente

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE: nenhum atribuído

A solicitação deve incluir informações da conta

A SOLICITAÇÃO DA API DE ARQUIVOS DEVE INCLUIR INFORMAÇÕES DO DESTINATÁRIO

SQLSTATE: nenhum atribuído

A solicitação deve incluir informações do destinatário.

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE: nenhum atribuído

A solicitação deve incluir informações do usuário

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE: nenhum atribuído

A solicitação deve incluir informações do espaço de trabalho

FILES_API_RESOURCE_IS_READONLY

SQLSTATE: nenhum atribuído

O recurso é somente leitura.

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE: nenhum atribuído

Não é possível aceder ao URL.

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE: nenhum atribuído

A verificação da assinatura falhou.

FILES_API_STORAGE_ACCESS_CONTEXT_INVALID

SQLSTATE: nenhum atribuído

O contexto de acesso ao armazenamento é inválido.

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE: nenhum atribuído

A configuração de armazenamento para este espaço de trabalho não está acessível.

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

A API de arquivos não é suportada para <table_type>

FILES_API_UC_AUTHENTICATION_FAILURE

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE: nenhum atribuído

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE: nenhum atribuído

<unity_catalog_error_message>

NOME_ARQUIVOS_NÃO_FOI_POSSÍVEL_RENOVAR_IDENTIDADES_GERIDAS_AZURE

SQLSTATE: nenhum atribuído

Não é possível renovar a identidade gerenciada do Azure.

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE: nenhum atribuído

Erro inesperado ao analisar o URI

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE: nenhum atribuído

Parâmetros de consulta inesperados: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE: nenhum atribuído

Método desconhecido <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE: nenhum atribuído

Erro de servidor desconhecido.

FILES_API_UNKNOWN_URL_HOST

SQLSTATE: nenhum atribuído

O host de URL é desconhecido.

FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD

SQLSTATE: nenhum atribuído

O pedido não foi autenticado corretamente.

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE: nenhum atribuído

O httpMethod não é suportado.

FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION

SQLSTATE: nenhum atribuído

A combinação de parâmetros não é suportada.

FILES_API_UNSUPPORTED_PATH

SQLSTATE: nenhum atribuído

O caminho fornecido não é suportado pela API de arquivos. Certifique-se de que o caminho fornecido não contém instâncias de '../' ou './'. Certifique-se de que o caminho fornecido não usa várias barras consecutivas (por exemplo, '///').

FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO

SQLSTATE: nenhum atribuído

O parâmetro de entrada «count» deve ser superior a 0.

FILES_API_URL_GENERATION_DISABLED

SQLSTATE: nenhum atribuído

A geração de URL pré-assinada não está habilitada para <cloud>.

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

A API de arquivos não é suportada pelo <volume_type>.

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE: nenhum atribuído

O espaço de trabalho foi cancelado.

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE: nenhum atribuído

A configuração de armazenamento para este espaço de trabalho não está acessível.

Oleodutos declarativos Lakeflow Spark

Políticas ABAC não são suportadas

SQLSTATE: 0A000

As políticas ABAC não são suportadas em tabelas definidas dentro de um pipeline.

Remova as políticas ou entre em contato com o suporte do Databricks.

TERMINAÇÃO_ANORMAL_DO_MOTORISTA

SQLSTATE: 57P02

O driver no cluster <clusterId> foi interrompido de forma anormal devido a <terminationCause>. Por favor, verifique os registros do driver para obter mais detalhes.

ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE

SQLSTATE: 42000

Já existe uma atualização ativa '<updateId>' para o pipeline associado '<linkedPipelineId>'.

ACTIVE_UPDATE_EXISTS_FOR_PIPELINE

SQLSTATE: 42000

Já existe uma atualização ativa '<updateId>' para o pipeline '<pipelineId>'.

ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0A000

ALTER não é permitido em tabelas administradas por um

Para mais detalhes, consulte ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

Não é possível alterar <type> em uma tabela sem um agendamento ou gatilho existente. Adicione um cronograma ou gatilho à tabela antes de tentar alterá-lo.

API_QUOTA_EXCEEDED

SQLSTATE: KD000

Você excedeu a cota da API para a fonte de dados <sourceName>.

Para mais detalhes, ver API_QUOTA_EXCEEDED

APPLY_CHANGES_ERROR

SQLSTATE: 42000

Ocorreu um erro durante a AUTO CDC operação.

Para mais detalhes, ver APPLY_CHANGES_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_ERROR

SQLSTATE: 22000

Ocorreu um erro durante a AUTO CDC FROM SNAPSHOT operação.

Para mais detalhes, consulte APPLY_CHANGES_FROM_SNAPSHOT_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 0A000

O conjunto de dados <datasetName> tem expectativas definidas, mas as expectativas não são suportadas atualmente para conjuntos de dados que usam AUTO CDC FROM SNAPSHOT.

Remova as expectativas para resolver esse erro. Como alternativa, considere usar a seguinte estrutura para aplicar expectativas combinando AUTO CDC e AUTO CDC FROM SNAPSHOT:

  1. Aplique alterações de snapshot a uma tabela intermediária usando SCD tipo 1 sem expectativas.

  2. Leia as alterações da tabela intermediária usando spark.readStream.option("readChangeFeed", "true").table.

  3. Aplique as alterações da tabela intermediária para a tabela de destino final usando dlt.apply_changes os seguintes parâmetros, além dos usados atualmente com dlt.apply_changes_from_snapshot:

  • Para lidar com alterações: apply_as_deletes = "_change_type == 'delete'"

  • Para remover colunas adicionadas pelo CDF: except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. Inclua o conjunto atual de expectativas na tabela final de metas usada para dlt.apply_changes.

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE: 0A000

O recurso COLUMNS A UPDATE está em pré-visualização e não ativado para o seu espaço de trabalho. Entre em contato com seu representante Databricks para saber mais sobre esse recurso e acessar a visualização privada.

APLICAR_AMBIENTE_CLUSTER_NÃO_DISPONÍVEL

SQLSTATE: 57000

A computação de pipeline para <pipelineId> não está disponível. A computação do pipeline pode ter sido interrompida ou ainda pode estar a iniciar-se.

Tente novamente mais tarde, quando o cálculo estiver totalmente disponível. Se o problema persistir, entre em contato com o suporte da Databricks.

APLICAR_AMBIENTE_CLUSTER_NÃO_ENCONTRADO

SQLSTATE: 57000

O cálculo de pipeline para <pipelineId> não foi encontrado. Essa computação de pipeline pode nunca ter começado ou já ter parado. Por favor, inicie o pipeline

antes de aplicar a configuração do ambiente.

AMBIENTE_APLICAÇÃO_NÃO_SUPORTADO

SQLSTATE: 0A000

O ponto de acesso ApplyEnvironment não está suportado.

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE: 55000

Para mais detalhes, consulte ARCHITECTURE_MIGRATION_FAILURE

ARCLIGHT_REQUIRES_SERVERLESS

SQLSTATE: 42000

Os pipelines destinados a catálogos que utilizem o Armazenamento Padrão devem usar computação sem servidor. Se você não tiver acesso à computação sem servidor, entre em contato com o Databricks para habilitar esse recurso para seu espaço de trabalho.

AUTO_FULL_REFRESH_DISABLED

SQLSTATE: 42000

O Auto Full Refresh está desativado para a tabela <tableName>.

AUTO_FULL_REFRESH_NOT_ALLOWED

SQLSTATE: 42000

A atualização automática completa falhou na tabela <tableName> porque <reason>.

AUTO_FULL_REFRESH_THROTTLED

SQLSTATE: 42000

A atualização automática completa falhou. A tabela <tableName> foi atualizada automaticamente ao <timestamp> intervalo mínimo antes da próxima atualização automática completa <minInterval> : minutos.

AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED

SQLSTATE: 28000

A autenticação do Azure Active Directory falhou (AADSTS5000224).

ID de traço: <traceId>, ID de correlação: <correlationId>.

Verifique se o Azure Active Directory está corretamente configurado e acessível. Entre em contato com o suporte da Microsoft se o problema persistir.

AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND

SQLSTATE: 28000

Credencial de Identidade Gerida Azure com ID <accessConnectorId> de Conector de Acesso não foi encontrada para a conta <accountId>.

Verifique se a credencial existe e está corretamente configurada.

AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED

SQLSTATE: 08001

Falhou a resolução do nome do host de armazenamento Azure: <hostname>.

Verifica se o DNS está devidamente configurado e que a conta de armazenamento está acessível a partir da tua rede.

AZURE_STORAGE_REQUEST_NOT_AUTHORIZED

SQLSTATE: 42501

O pedido ao armazenamento Azure não foi autorizado pelo perímetro de segurança da rede.

Verifique se o armazenamento está corretamente configurado e acessível.

BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE: KD000

Ocorreu um erro no conector de dados do BigQuery.

O 'catálogo de origem' (GCP Project ID) está ausente na sua especificação de ingestão.

Especifique o catálogo de origem (ID do projeto) na sua especificação de ingestão para resolver esse problema.

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE: 42000

Novas colunas (<columnNames>) são adicionadas ao campo include_columns na definição do pipeline para a tabela <qualifiedTableName>. Por favor, atualize completamente a tabela para evitar a perda potencial de dados ou remova essas colunas do include_columns.

CANNOT_ADD_STORAGE_LOCATION

SQLSTATE: 42000

Não é possível adicionar um local de armazenamento a um pipeline existente com catálogo definido, se você quiser definir um local de armazenamento crie um novo pipeline.

Catálogo existente: '<catalog>'.

Local de armazenamento solicitado: <storageLocation>.

CANNOT_COMPOSE_DECORATOR

SQLSTATE: nenhum atribuído

O @<decoratorName> decorador não pode ser composto com <otherDecorators>.

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

A definição de pipeline exclui colunas (<columnNames>) que não existem na tabela <qualifiedTableName> de origem <sourceType>. Remova estas colunas do campo exclude_columns.

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE: 42000

A definição do pipeline não inclui as colunas necessárias (<columnNames>) na tabela <qualifiedTableName> da fonte <sourceType> para ingestão. Por favor, adicione-os ao include_columns ou remova-os do exclude_columns.

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

A definição de pipeline inclui colunas (<columnNames>) que não existem ou não são acessíveis na tabela <qualifiedTableName> de origem <sourceType>. Remova estas colunas do campo include_columns.

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE: 42000

A tabela <qualifiedTableName> na <sourceType> origem não tem uma chave primária.

Por favor, especifique uma chave primária na configuração do conector para integrar a tabela, caso ela exista.

CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES

SQLSTATE: 42000

Ainda não há suporte para a mudança de proprietário para pipelines que não sejam de UC.

CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED

SQLSTATE: 42000

Somente os administradores do espaço de trabalho podem alterar o proprietário do pipeline.

CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING

SQLSTATE: 42000

Novo proprietário não existe.

CANNOT_MODIFY_PIPELINE_TYPE

SQLSTATE: 42000

pipeline_type não pode ser atualizado.

Tipo de pipeline atual: <currentPipelineType>.

O tipo de pipeline foi atualizado: <requestedPipelineType>.

CANNOT_MODIFY_STORAGE_LOCATION

SQLSTATE: 42000

Não é possível modificar o local de armazenamento de um pipeline existente.

Local de armazenamento existente: '<existingStorageLocation>'.

Local de armazenamento solicitado: <requestedStorageLocation>.

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE: 42000

As colunas (<columnNames>) são removidas do campo exclude_columns na definição da pipeline para a tabela <qualifiedTableName>. Por favor, atualize completamente a tabela para evitar a perda potencial de dados ou adicione essas colunas de volta ao exclude_columns.

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE: 42613

Não é possível adicionar catálogo a um pipeline existente com local de armazenamento definido, se você quiser usar UC criar um novo pipeline e definir catálogo.

Local de armazenamento existente: '<storageLocation>'

Catálogo solicitado: '<catalog>'

CANNOT_SET_LINKED_PIPELINE_ID

SQLSTATE: 42000

Os identificadores de pipeline são iguais; definir os identificadores de pipeline vinculados pode causar um impasse.

CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

SQLSTATE: 0AKD0

O campo 'esquema' especificado nas configurações do pipeline para o pipeline '<pipelineName>' é inválido. Reason:

Para mais detalhes, consulte CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

CANNOT_SET_TOGETHER

SQLSTATE: nenhum atribuído

<argList> excluem-se mutuamente e não podem ser agrupados.

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE: 42000

A definição de pipeline especifica os include_columns e exclude_columns para <identifier>. Por favor, remova um deles.

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE: 42000

Não é possível atualizar as colunas de clustering da tabela <tableName> porque está a usar colunas de partição. Uma tabela pode usar colunas de partição ou colunas de aglomeração, mas não ambas.

Para alternar entre a agrupação de líquidos e o particionamento, acione uma atualização completa desta tabela.

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

Não é possível atualizar as colunas de partição para a tabela de streaming <tableName>.

Corrente: <existingPartitionColumns>,

Solicitado: <requestedPartitionColumns>

Para aplicar essa alteração de partição, acione uma atualização completa desta tabela e de quaisquer outras tabelas de streaming que tenham colunas de partição atualizadas.

Como alternativa, reverta essa alteração para continuar usando as colunas de partição existentes.

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE: 42KD9

Falha ao mesclar os esquemas atual e novo para a tabela <tableName>.

Para prosseguir com essa alteração de esquema, você pode acionar uma atualização completa desta tabela.

Dependendo do seu caso de uso e das alterações de esquema, você poderá evitar a alteração de esquema -- você pode atualizar suas consultas para que o esquema de saída seja compatível com o esquema existente (por exemplo, lançando colunas explicitamente para o tipo de dados correto).

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE: 55000

<details>

No entanto, a(s) tabela(s) de destino já tem(em) coluna(s) inativa(s) com este nome; As colunas estão inativas porque foram excluídas anteriormente das tabelas de origem.

Para avançar com a atualização, faça um FULL REFRESH exame nas tabelas.

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE: 55000

As tabelas a seguir no destino estão inativas e em conflito com as tabelas de origem atuais: <tables>.

Essas tabelas permanecem inativas porque foram anteriormente eliminadas da origem ou desmarcadas do conector.

Para prosseguir com a atualização, por favor altere o nome da tabela de destino ou execute uma FULL REFRESH atividade nestas tabelas ou elimine essas tabelas inativas do destino no Explorador de Catálogos ou via DROP TABLE comando, e tente novamente a atualização.

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE: 55000

As seguintes tabelas no destino não foram corretamente restabelecidas na última atualização completa: <tables>.

Por favor, realize uma atualização completa para eles para que se recuperem.

CATALOG_MAPPING_NOT_AVAILABLE_IN_UC

SQLSTATE: 3D000

O catálogo UC não tem o mapeamento para o catálogo '<sourceCatalog>'.

Verifique se o catálogo está registado no catálogo da UC.

CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE

SQLSTATE: 55000

O catálogo <destPipelineCatalog> e o esquema <destPipelineSchema> do pipeline de destino com ID '<destPipelineId>' não correspondem ao catálogo e ao esquema da tabela <tableName>. O pipeline de destino deve ter o mesmo catálogo e esquema que a tabela ou o pipeline de destino deve estar usando o Modo de Publicação Direta.

CATALOG_SPEC_UNSUPPORTED

SQLSTATE: 0A000

CatalogSpecs não são suportados pelos conectores de banco de dados atualmente. Remova as especificações do catálogo.

CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES

SQLSTATE: 42000

A Política de Atualização Automática Completa de todas as tabelas de destino ligadas à mesma tabela de origem deve ser a mesma.

Alterar a política para seguir as tabelas <destinationTables> de destino ligadas à fonte <sourceTable>.

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE: 0A000

Colunas com UOID <columnNames> para tabela <tableName> não são suportadas em pipelines de ingestão gerenciados pelo CDC.

Por favor, verifique se o pipeline de ingestão suporta UOID em colunas ou solicite uma atualização completa na tabela.

CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY

SQLSTATE: 42000

O Gateway Pipeline encontrou um erro fatal:

<errorMessage>

Verifique a falha de atualização do pipeline aqui: <link>.

CDC_APPLIER_INGESTION_GATEWAY_REMOVED

SQLSTATE: 42000

O pipeline <pipelineId> de gateway de ingestão ligado ao Managed Ingestion Pipeline foi removido.

Por favor, remova o pipeline de Ingestão Gerida e crie tanto o Gateway de Ingestão como o pipeline de Ingestão Gerida.

CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY

SQLSTATE: 42KD4

Os metadados da tabela replicada para a tabela <tableName> não estão prontos.

O carimbo de data/hora do pedido de trabalho existente é <existingRequestTs>, mas esperamos que seja <expectedRequestTs> ou mais tarde.

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE: 42000

Não há suporte para a atualização completa de uma tabela de destino e a atualização normal de outra tabela de destino da mesma origem.

Por favor, atualize completamente ambas as tabelas para continuar, se possível.

Tabelas de atualização completas: <fullRefreshTables>

Tabelas de destino para a origem <sourceTable>: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE: 42KD4

A versão <dataSchemaVersion> do esquema é diferente da versão <readSchemaVersion>do esquema de leitura.

Os Lakeflow Spark Declarative Pipelines vão tentar novamente a atualização.

CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE: 42704

A coluna <columnName> da tabela <tableName> especificada em sequenceBy não existe em <columns>.

CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE

SQLSTATE: 0A000

A coluna <columnName> da tabela <tableName> especificada em sequenceBy é do tipo <typeName> que não é suportado.

Os tipos suportados para as colunas sequenceBy são <allowedTypes>.

CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED

SQLSTATE: 0A000

No máximo, uma coluna pode ser especificada em sequênciaPor do pipeline de ingestão gerenciado pelo CDC.

Colunas especificadas: <columns> para a tabela <tableName>.

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE: 42KD4

Encontramos uma alteração de esquema incompatível (<cause>) da versão do esquema <previousSchemaVersion> para <currentSchemaVersion>.

Por conseguinte, não podemos continuar a aplicar alterações para <tableName>. Por favor, solicite uma atualização completa da tabela.

Esquema anterior: <previousSchema>

Esquema atual: <currentSchema>

CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE

SQLSTATE: 42000

Encontradas várias tabelas de origem: <source_tables> mapeadas para a mesma tabela <destination_table>de destino.

Mapeie-os para um nome de tabela de destino diferente ou para um esquema de destino diferente.

CDC_POTENTIAL_DATA_GAPS

SQLSTATE: 55000

As tabelas a seguir [<needFullRefreshTableList>] não têm uma atualização realizada há <retention> dias.

Faça uma atualização completa nestas tabelas ou em todo o pipeline.

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE: 42000

Encontrámos o mesmo nome de tabela <table> proveniente de várias fontes: <sources>.

Por favor, divida-os em diferentes pipelines para evitar conflitos.

CDC_SOURCE_VALIDATION_FAILURE

SQLSTATE: 42000

A validação da base de dados de origem detetou <errorCount> erro(s). Consulte o(s) relatório(s) do registo de eventos para resultados detalhados e passos de remediação.

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE: 42P01

A tabela <table> não é encontrada no instantâneo de todas as tabelas do banco de dados de origem.

Detalhes das especificações da tabela:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE: 0AKD0

Não se permite a alteração de um pipeline HMS para um pipeline UC.

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE: 0AKD0

Não é permitido alterar um pipeline de UC para um pipeline HMS.

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE: 0AKD0

Não é possível modificar o catálogo de um pipeline existente. Catálogo existente: '<existingCatalog>'. Catálogo solicitado: '<requestedCatalog>'.

CHANGING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

Não é permitido alterar o esquema de destino. Motivo: <reason>.

CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

Falha ao criar um cluster porque a política de orçamento do pipeline excedeu o limite. Use uma política diferente ou entre em contato com seu administrador de cobrança.

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE: KDL01

Falhou na criação de um cluster de pipeline: <errorMessage>

Este erro é provavelmente devido a uma configuração incorreta no pipeline.

Verifique a configuração do cluster de pipeline e a política de cluster associada.

CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

Falha ao criar um cluster porque o número de clusters em execução por usuário para a política "<clusterPolicy>" excedeu o limite de <clusterLimit>. Use uma política diferente ou entre em contato com seu administrador.

CLUSTER_CREATION_CREDITS_EXHAUSTED

SQLSTATE: 57000

Falha ao criar um cluster porque você esgotou os créditos disponíveis. Adicione um método de pagamento para atualizar a sua conta.

CLUSTER_CREATION_RESOURCE_EXHAUSTED

SQLSTATE: 57000

Falha ao criar um cluster porque você excedeu os limites de recursos: <errorMessage>

CLUSTER_CREATION_SECRETS_FETCH_FAILED

SQLSTATE: 42501

Não é possível obter segredos referidos na configuração do Spark.

Por favor, verifique se os segredos existem e se o proprietário do cluster tem permissões de leitura.

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE: KDL01

Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>

Este erro é provavelmente devido a uma configuração incorreta no pipeline.

Verifique a configuração do cluster de pipeline e a política de cluster associada.

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE: 58000

Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>

Esse erro pode ser transitório - reinicie o seu pipeline e relate se ainda vir o mesmo problema.

CLUSTER_LAUNCH_RESOURCE_EXHAUSTED

SQLSTATE: 57000

Falhou no lançamento do cluster <clusterId> de pipeline devido ao esgotamento dos limites de recursos: <clusterStateMessage>.

FALTA_DE_RECURSOS_PARA_LANCAMENTO_DO_CLUSTER

SQLSTATE: KDL01

Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>

O tipo de instância solicitado não pôde ser fornecido pelo provedor de nuvem.

Verifique sua assinatura de provedor de nuvem ou tente novamente com um tipo de instância diferente.

CLUSTER_SETUP_CLIENT_ERROR

SQLSTATE: KDL01

Não é possível configurar com êxito o cluster <clusterId> para a execução da atualização do pipeline. Reason:

Para mais detalhes, consulte CLUSTER_SETUP_CLIENT_ERROR

CLUSTER_UNREACHABLE

SQLSTATE: 08000

Comunicação perdida com o motorista. O cluster <clusterId> não foi acessível por <timeoutSeconds> segundos.

COLUMN_MASK_WITH_NO_COLUMN

SQLSTATE: 42000

Máscara de coluna encontrada para a coluna '<columnName>' que não existe no esquema MV/ST. Se isso for devido a uma alteração no esquema da tabela base,

solte a máscara antiga com ALTER TABLE [table_name] ALTER COLUMN [coluna onde a máscara é aplicada] DROP MASK ou restaure a coluna.

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE: 42703

A coluna <column> especificada em COLUMNS a UPDATE não foi encontrada no Dataframe de origem.

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE: 2D521

Iniciou a atualização '<upgradedUpdateId>' para uma melhoria, mas não conseguiu parar a atualização anterior '<oldUpdateId>'.

Este erro é provavelmente transitório. O pipeline será reiniciado automaticamente e o problema deverá resolver-se por si próprio.

Comunique este erro ao Databricks se continuar a ver o mesmo problema.

CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED

SQLSTATE: 42000

Não é possível criar um fluxo de acréscimo para uma tabela de streaming a partir de uma consulta em lote.

Isso evita a ingestão incremental da fonte e pode resultar em comportamento incorreto.

Tabela com erro: '<table>'.

Para corrigir isso, use o operador STREAM() ou o operador readStream para declarar a origem como uma entrada de streaming.

Exemplo: SELECT...FROM STREAM(<source table name>) ou spark.readStream.table('<source table name>')

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE: nenhum atribuído

O conjunto de dados <datasetName> já existe. Certifique-se de que a função de consulta só foi marcada como uma vista ou tabela uma vez.

DATASET_NOT_DEFINED

SQLSTATE: 42P01

Falha ao ler o conjunto de dados '<datasetName>'. Esse conjunto de dados não está definido no pipeline.

Se esta tabela for gerenciada por outro pipeline, não use dlt.read / dlt.readStream para ler a tabela ou anexar o nome com a palavra-chave LIVE.

DATASET_NOT_FOUND_FOR_EXPECTATIONS

SQLSTATE: 42P01

Tentei definir expectativa(s) para um conjunto de dados que<datasetName> não existe

DATASET_NOT_REGISTERED_FOR_FLOW

SQLSTATE: 42000

Tentei registar um fluxo para o conjunto de dados,<datasetName> mas o conjunto de dados não está registado.

DBFS_NOT_ENABLED

SQLSTATE: 42000

O DBFS não está habilitado para este espaço de trabalho; publique no Catálogo Unity ou especifique um local de armazenamento diferente para o pipeline.

DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE

SQLSTATE: 42000

Pipeline <pipelineId> tem múltiplas tabelas de produção com diferentes definições de cronograma: [<tableScheduleInfo>]. Todas as mesas de produção devem ter o mesmo calendário.

DBSQL_INVALID_CHANNEL_VALUE

SQLSTATE: 42616

Canal inválido especificado com pipelines.channel propriedade: <channel>. Os valores válidos são: <validChannels>.

DBSQL_INVALID_SCHEDULE_TYPE

SQLSTATE: 42616

Tipo de anexo inválido especificado com propriedade de anexo: <scheduleValue>.

DBSQL_MISSING_SCHEDULE_PROPERTY

SQLSTATE: 42000

Propriedade de anexo obrigatória em falta nas propriedades da tabela.

DBSQL_PIPELINE_IS_MISSING

SQLSTATE: 42000

Falta um DBSQL gasoduto. Atualize sua visualização materializada ou tabela de streaming para criar o DBSQL pipeline.

DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

Um DBSQL pipeline deve ter exatamente uma vista materializada ou tabela de streaming, mas foram encontradas <tablesSize> tabelas: <tables>

DELETE_PIPELINE_DESATIVADO

SQLSTATE: 58000

O pipeline não pode ser eliminado neste momento.

Entre em contato com o suporte da Databricks para obter assistência na exclusão do pipeline '<pipelineId>' .

DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE: 42K03

A canalização de destino com ID '<pipelineId>' não pode ser encontrada. Verifique se você está no mesmo espaço de trabalho que o pipeline, se você é o proprietário do pipeline e se o pipeline foi executado pelo menos uma vez.

DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

O pipeline de destino com ID '<pipelineId>' não está usando o Modo de Publicação Direta.

DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE: 42501

Você não tem permissão para executar esta operação, você não é o proprietário do pipeline de destino com ID '<pipelineId>'. Apenas os proprietários podem alterar o pipeline de uma tabela.

DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

O pipeline de destino com o ID '<pipelineId>' não é um ETL pipeline.

DIRECTORY_PATH_REQUIRES_GLOB

SQLSTATE: 42000

O caminho <path> é um diretório. Para incluir todos os ficheiros dentro de um diretório, use o padrão glob com o sufixo '**' , '<path>/**', na configuração do seu pipeline.

PEDIDO_NÃO_PERMITIDO_PARA_RESTAURAR_PIPELINE

SQLSTATE: 42000

A solicitação <request> não é permitida para o pipeline '<pipelineId>' no estado RESTORING.

DO_CREATE_OR_EDIT_INVALID_USER_ACTION

SQLSTATE: 42000

Erro ao manipular a solicitação '<action>'.

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

Não é possível excluir SCHEDULE numa tabela sem uma programação ou disparador existente.

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE: 42616

A chave da localização do esquema from_json foi duplicada: <schemaLocationKey>.

Por favor, escolha chaves exclusivas para a localização do esquema para cada consulta from_json no pipeline.

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE: 42710

A configuração do pipeline de ingestão contém tabelas duplicadas. Certifique-se de que cada mesa é única.

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE: 42000

Os objetos de configuração de ingestão estão vazios.

ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION

SQLSTATE: 42000

A configuração 'spare_capacity_fraction' de Autoscaling Aprimorada só é suportada na edição avançada do Lakeflow Spark Declarative Pipeliness.

Por favor, edite as configurações do seu pipeline e ajuste a opção "edição" para "avançada", de modo a poder utilizar a 'spare_capacity_fraction'.

ENVIRONMENT_PIP_INSTALL_ERROR

SQLSTATE: 42000

Falhou ao instalar a dependência de ambiente: '<pipDependency>'. Verifique os logs stdout do driver no cluster para obter mais detalhes.

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Publicar o registo de eventos no Unity Catalog não é suportado no modo de publicação legado. Para ativar esta funcionalidade, migre o seu pipeline para o modo de publicação predefinido seguindo os passos do guia https://docs.databricks.com/aws/en/dlt/migrate-to-dpmde migração. Se preferir continuar a usar o modo de publicação legado, remova a configuração 'event_log' da sua especificação de pipeline.

EXPECTATION_VIOLATION

SQLSTATE: 22000

O Flow '<flowName>' não correspondeu às expectativas.

Para mais detalhes, consulte EXPECTATION_VIOLATION

EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY

SQLSTATE: 42000

explore_only e validate_only não podem ser ambos definidos como verdadeiros.

EXPLORE_ONLY_IS_NOT_ENABLED

SQLSTATE: 0A000

A atualização "explore_only" não está habilitada. Entre em contato com o suporte da Databricks.

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE: 58030

Falha ao criar o log de eventos do pipeline (id=<pipelineId>) com o identificador <eventLogIdentifier>. Consulte a exceção abaixo para obter mais detalhes.

FAILED_TO_PUBLISH_VIEW_TO_METASTORE

SQLSTATE: 42000

Não foi possível publicar a visão <viewName> no metastore porque <reason>.

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE: 58030

Falha ao atualizar o identificador do log de eventos do pipeline (id=<pipelineId>) para <newEventLogIdentifier>. Consulte a exceção abaixo para obter mais detalhes.

FLOW_SCHEMA_CHANGED

SQLSTATE: KD007

O fluxo <flowName> terminou desde que sofreu uma alteração no esquema durante a execução.

A alteração de esquema é compatível com o esquema de destino existente e a próxima execução do fluxo pode ser retomada com o novo esquema.

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE: 0A000

O Lakeflow Spark Declarative Pipelines ForeachBatch Sink não é atualmente suportado.

A pré-visualização privada do sumidouro Lakeflow Spark Declarative Pipelines ForeachBatch requer o PREVIEW canal.

Afundamentos Lakeflow Spark Declarative Pipelines: <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE: 0A000

O pipeline do Gateway não permite scripts de inicialização de cluster. Por favor, remova-o de <from>.

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE: 0A000

O pipeline do Gateway não permite a configuração do Spark [<configs>]. Por favor, remova-os de <from>.

GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED

SQLSTATE: 54000

O número de IDs de organização solicitados excede o limite máximo permitido de <limit>

GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE: KD000

Ocorreu um erro no conector de dados brutos do Google Analytics.

O 'catálogo de origem' (GCP Project ID) está ausente na sua especificação de ingestão.

Especifique o catálogo de origem (ID do projeto) na sua especificação de ingestão para resolver esse problema.

HMS_NOT_ENABLED

SQLSTATE: 42000

O Hive Metastore não está habilitado para este espaço de trabalho; publique no Catálogo Unity.

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE: 42000

O tipo de dados da coluna especificada de COLUMNS a UPDATE deve ser uma matriz de strings, mas encontrou-se <illegalDataType>.

ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS

SQLSTATE: 42000

As configurações não devem conter '<fieldName>'.

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE: 42000

O campo 'esquema' especificado nas configurações do pipeline é ilegal. Motivo: <reason>.

INCORRECT_ROOT_PATH_TYPE

SQLSTATE: 42000

O caminho raiz '<rootPath>' deve ser um diretório, mas foi encontrado <objectType>.

INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY

SQLSTATE: 42000

A visualização materializada tem uma política de renovação, INCREMENTAL_STRICT mas não pode ser incrementalizada.

MANUTENÇÃO_DA_INFRAESTRUTURA

SQLSTATE: 57P01

Driver no cluster <clusterId> encerrado devido a manutenção da infraestrutura.

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE: 42710

A configuração do pipeline de ingestão contém esquemas duplicados. Certifique-se de que cada esquema é único.

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE: 42501

Falha de autenticação

Para mais detalhes, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE

INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE

SQLSTATE: 42KD4

Foi detetada uma incompatibilidade de esquema entre as tabelas de origem e de destino. Para resolver este problema, é necessária uma atualização completa da tabela '<entityName>' no fluxo de ingestão.

INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE

SQLSTATE: 42000

A instância de captura para <entityName> já não está disponível na fonte.

Por favor, acione uma atualização completa após ativar CDC ou TAC na mesa.

INGESTION_GATEWAY_CDC_LOG_TRUNCATED

SQLSTATE: 42000

O registo do CDC foi truncado para a tabela '<entityName>', razão: <errorMessage>.

Isto pode ser causado pela política de retenção de registos do CDC que trunca os registos de monitorização de alterações antes de poderem ser processados.

A tabela será ignorada durante o processamento. Para reativar o processamento, atualize completamente a tabela.

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE: 42000

O CDC não está ativado em <entityType> '<entityName>'. Ative o CDC e atualize completamente a tabela no Pipeline de Ingestão. Mensagem de erro: '<errorMessage>'.

INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED (Versão da base de dados não suportada)

SQLSTATE: 42000

A versão do banco de dados não é suportada.

Para mais detalhes, consulte INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE: 42000

Objetos DDL ausentes em <entityType> '<entityName>'. Execute o script de objetos DDL e atualize completamente a tabela no pipeline de ingestão. Mensagem de erro: '<errorMessage>'.

INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED

SQLSTATE: 42000

O ciclo de validação do Internal Health Checker falhou. Vou tentar novamente no próximo ciclo, se o problema persistir, por favor abra um ticket.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE: 42000

A configuração do gateway de ingestão não tem uma conexão.

Adicione uma referência à conexão do Catálogo Unity que contém suas credenciais.

Detalhes da definição do pipeline do gateway de ingestão:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE: 42000

A configuração do gateway de ingestão está faltando no catálogo de local de armazenamento interno.

Adicione o catálogo de locais de armazenamento interno.

Detalhes da definição do pipeline do gateway de ingestão:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE: 42000

A configuração do gateway de ingestão está faltando o nome do local de armazenamento interno.

Adicione o nome do local de armazenamento interno.

Detalhes da definição do pipeline do gateway de ingestão:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE: 42000

A configuração de gateway de ingestão falta o esquema de localização de armazenamento interno.

Adicione o esquema de local de armazenamento interno.

Detalhes da definição do pipeline do gateway de ingestão:

<definition>

INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE

SQLSTATE: 42P01

A tabela '<entityName>' não existe no banco de dados de origem ou foi descartada. Resolva o problema e atualize completamente a tabela no pipeline de Ingestão Gerenciada. Mensagem de erro: '<errorMessage>'.

INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED

SQLSTATE: 42000

O(s) ficheiro(s) binlog MySQL necessário(s) foram eliminados da base de dados de origem. Isto acontece tipicamente quando o período de retenção dos binlogs é demasiado curto ou quando a ingestão reinicia após a janela de retenção ter passado. Para mitigar, faça uma atualização completa em todas as tabelas e aumente a retenção de binlogs na fonte.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED

SQLSTATE: 42000

Falhei a deteção de ficheiros MySQL Binlog. Por favor, realize uma atualização completa em <entityName>.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE

SQLSTATE: 42000

Os ficheiros de registo de arquivo Oracle necessários para a replicação do CDC já não estão disponíveis na base de dados de origem. Isto pode acontecer quando os registos de arquivo ultrapassam o período de retenção ou são eliminados manualmente. Por favor, faça uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'. Se este problema persistir, considere aumentar o período de retenção dos registos de arquivo na base de dados de origem para garantir que os registos permanecem disponíveis enquanto estão a ser processados.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

SQLSTATE: 42000

A configuração da ligação Oracle está incompleta.

Para mais detalhes, veja INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

SQLSTATE: 42000

Falha ao alterar a publicação de replicação para <entityType> '<entityName>'

Mensagem de erro: <errorMessage>

Para mais detalhes, ver INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

SQLSTATE: 42000

Falha ao criar publicação de replicação para <entityType> '<entityName>'

Mensagem de erro: <errorMessage>

Para mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

SQLSTATE: 42000

Falha ao descartar a publicação de replicação para <entityType> '<entityName>'

Mensagem de erro: <errorMessage>

Para mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED

SQLSTATE: 55000

A configuração do slot de replicação para <entityType> <entityName> não está num estado saudável. Para resolver este problema, acione uma atualização completa em todas as tabelas de destino mapeadas para o catálogo <catalogName>.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS

SQLSTATE: 42000

Falha ao criar slot de replicação para <entityType> '<entityName>' porque o slot de replicação está a ser utilizado por outro PID.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

SQLSTATE: 42000

Falha ao criar espaço de replicação para <entityType> '<entityName>'

Mensagem de erro: <errorMessage>

Para mais detalhes, consulte INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

SQLSTATE: 42000

Falhou a eliminação do slot de replicação para <entityType> '<entityName>'

Mensagem de erro: <errorMessage>

Para mais detalhes, veja INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED

SQLSTATE: 42704

O slot de replicação para <entityType> '<entityName>' foi eliminado. Por favor, acione uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED

SQLSTATE: 55000

O slot de replicação para <entityType> '<entityName>' não está saudável. Por favor, solte o slot e aciona uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'.

Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE: 42501

O usuário não tem as permissões necessárias para acessar este objeto ou executar o procedimento armazenado. Certifique-se de que todos os privilégios necessários sejam concedidos. Consulte a seguinte documentação: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.

PONTO_DE_INGESTÃO_FONTE_ESQUEMA_ENTIDADE_EM_FALTA

SQLSTATE: 42000

Não há tabelas disponíveis para replicação a partir da origem.

Verifique se as tabelas estão corretamente selecionadas e definidas no fluxo de ingestão

e o utilizador tem o acesso necessário ao catálogo e ao esquema.

INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED

SQLSTATE: 42000

O acompanhamento de alterações da tabela <entityName> foi desativado na fonte.

Por favor, acione uma atualização completa após ativar CDC ou TAC na mesa.

INGESTÃO_PORTA_DE_ACESSO_TABELA_ELIMINADA

SQLSTATE: 42000

A tabela de origem '<entityName>' foi eliminada na origem. Mensagem de erro: <errorMessage>

TABELA_DE_GATEWAY_DE_INGESTÃO_RENOMEADA

SQLSTATE: 42000

A tabela de origem '<entityName>' foi renomeada na fonte. Mensagem de erro: <errorMessage>

INGESTION_GATEWAY_TABLE_SKIPPED_DUE_TO_UNSUPPORTED_COLUMN_DATA_TYPE

SQLSTATE: 42P01

A tabela '<entityName>' foi ignorada devido a colunas de tipos de dados não suportados. Resolva o problema e atualize completamente a tabela no pipeline de Ingestão Gerenciada. Mensagem de erro: '<errorMessage>'.

INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID

SQLSTATE: 0AXX1

A tabela '<entityName>' foi ignorada por causa do UOID inesperado atribuído às colunas. Por favor, faça uma atualização completa da mesa para resolver o problema. Erro: <errorMessage>.

Portão de Ingestão: Tabela Inesperada UOID

SQLSTATE: 0AXX2

A tabela '<entityName>' foi ignorada devido ao UOID inesperado atribuído à tabela. Por favor, faça uma atualização completa da mesa para resolver o problema. Erro: <errorMessage>.

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE: 08000

A conexão falhou devido a um nome <host> de host e/ou porta <port> incorretos do banco de dados de origem.

Para mais Detalhes, consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME

SQLSTATE: 42XXX

Caracteres não suportados encontrados em objetos para a tabela <entityName>, razão: <errorMessage>. A mesa será ignorada. Contacte o suporte para permitir a ingestão de caracteres especiais.

INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE

SQLSTATE: 42P01

O objeto '<entityName>' não é suportado e foi ignorado. Para resolver, remova este objeto do pipeline de ingestão. Mensagem de erro: '<errorMessage>'.

PORTA_DE_INGESTÃO_MODIFICAÇÃO_DE_TABELA_NÃO_RASTREÁVEL

SQLSTATE: 42000

Modificação de tabela não rastreável detetada para tabela <entityName>, motivo: <errorMessage>.

Isso pode ser causado por um truncate de tabela, substituição de log cdc ou outra operação não rastreável.

A tabela será ignorada durante o processamento. Para reativar o processamento, atualize completamente a tabela.

INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED

SQLSTATE: 42000

Falha ao replicar <entityType> '<entityName>' porque faz parte de uma transação XA.

Mensagem de erro: <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE: 42000

AUTO CDC comando é inválido. <reason>.

INVALID_ARGUMENT_TYPE

SQLSTATE: nenhum atribuído

Valor do tipo inválido passado para o parâmetro '<paramName>'. Espera-se <expectedType>. <additionalMsg>.

INVALID_COMPATIBILITY_OPTIONS

SQLSTATE: 42616

As opções de tabela especificadas para tabela <table> são inválidas porque

Para mais detalhes, consulte INVALID_COMPATIBILITY_OPTIONS

INVALID_CONFIG_FOR_UC_PIPELINE

SQLSTATE: 42616

Os pipelines UC não suportam definir '<configKey>' como '<configValue>'. Por favor, remova esta configuração das definições do seu pipeline.

INVALID_DECORATOR_USAGE

SQLSTATE: nenhum atribuído

O primeiro argumento posicional passado para @<decoratorName> deve ser chamável. Adicione @<decoratorName> sem parâmetros à sua função ou passe opções para @<decoratorName> usando argumentos de palavra-chave (por exemplo, <exampleUsage>).

INVALID_DESTINATION_PIPELINE_ID

SQLSTATE: 42K03

ID do pipeline de destino inválido: '<pipelineId>'. Os IDs de pipeline devem ser UUIDs válidos.

Verifique se você está usando o ID de pipeline correto, não o nome do pipeline.

INVALID_EVENT_LOG_CONFIGURATION

SQLSTATE: F0000

Configuração de log de eventos inválida encontrada na especificação do pipeline: <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

Nome inválido '<name>' no comando <command>. Motivo: <reason>

INVALID_PARAM_FOR_DBSQL_PIPELINE

SQLSTATE: 42000

Você só pode especificar 'pipeline_id' e 'pipeline_type' ao chamar 'dry_run' para um DBSQL pipeline.

INVALID_REFRESH_SELECTION

SQLSTATE: 42000

Para mais detalhes, ver INVALID_REFRESH_SELECTION

INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE

SQLSTATE: 42000

A seleção de atualização não é suportada para o modo contínuo.

INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH

SQLSTATE: 42000

full_refresh não deve ser definido como true para uma solicitação de seleção de atualização.

INVALID_REWIND_SPECIFICATION

SQLSTATE: 0A000

A especificação de rebobinar é inválida

Para mais detalhes, veja INVALID_REWIND_SPECIFICATION

INVALID_ROOT_PATH

SQLSTATE: 42000

Inválido root_path '<rootPath>': apenas caminhos de diretório absolutos são suportados atualmente. Os caminhos de diretório devem começar com '/' e não terminar com '/'.

INVALID_SCHEMA_NAME

SQLSTATE: 3F000

Esquema inválido '<schemaName>' especificado na configuração do pipeline. Motivo: <reason>.

INVALID_SNAPSHOT_AND_VERSION_TYPE

SQLSTATE: nenhum atribuído

snapshot_and_version para fluxo com destino '<target>' retornou tipo não suportado. <additionalMsg>.

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE: 42000

A configuração do intervalo de gatilho especificada no <configurationType> é inválida

ACESSO_AO_JIRA_PROIBIDO

SQLSTATE: KD000

O usuário que se conecta não tem acesso. Por favor, verifique novamente as permissões do usuário e tente novamente.

JIRA_ADMIN_PERMISSION_MISSING

SQLSTATE: KD000

Erro encontrado ao chamar APIs do Jira. Por favor, certifique-se de dar

o utilizador de ligação às permissões de administrador do Jira para a sua instância do Jira.

FALHA_DE_AUTORIZAÇÃO_JIRA

SQLSTATE: KD000

A autorização falhou ao chamar APIs do Jira. Por favor, volte a autenticar

a ligação UC criada e tente novamente.

JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED

SQLSTATE: KD000

Ocorreu um erro no conector Jira.

Ocorreu um problema ao tentar analisar o mapeamento de entidade para o tipo de entidade: <entityType>. Verifique se a sua entidade faz parte dos tipos suportados.

Se o erro persistir, registre um ticket.

JIRA_MISSING_REQUIRED_FIELD

SQLSTATE: KD000

O campo obrigatório '<fieldName>' está ausente na resposta da API do Jira.

JSON nó: <jsonNode>

JIRA_SITE_MISSING

SQLSTATE: KD000

Não foi possível encontrar cloudId correspondente ao domínio <domain>Jira fornecido.

Certifique-se de que o usuário conectado possa acessar este site.

JOB_DETAILS_DO_NOT_MATCH

SQLSTATE: 42000

Se ambos 'update_cause_details.job_details' e 'job_task' são fornecidos, então eles devem corresponder, mas eles são <details> e <jobTask>

JOB_TASK_DETAILS_MISSING

SQLSTATE: 42000

Se 'cause' é JOB_TASK, então 'job_task' ou 'update_cause_details.job_details' deve ser fornecido.

CRIAÇÃO_DE_PIPELINE_LEGADO_DESABILITADA

SQLSTATE: 0A000

A criação de pipelines no modo de publicação herdado é desabilitada em espaços de trabalho por padrão. Entre em contato com o suporte da Databricks se uma exceção for necessária.

LIBRARY_FILE_FETCH_PERMISSION_DENIED

SQLSTATE: 42501

Não é possível aceder ao ficheiro da biblioteca em '<path>'. Certifique-se de que o utilizador tem as permissões necessárias para ler este ficheiro.

Motivo: <reason>

LIBRARY_FILE_NOT_FOUND

SQLSTATE: 42000

O ficheiro '<path>' não foi encontrado ou o utilizador run_as não tem permissões para o aceder.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE: 42000

Não há suporte para a referência a conjuntos de dados usando o esquema virtual LIVE fora da definição da consulta do conjunto de dados (ou seja, anotação @dlt.table).

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE: 42000

Não se suporta a referência a datasets usando o esquema virtual LIVE<identifier> fora da definição de consulta do dataset (ou seja, anotação @dlt.table).

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE: 0A000

Referenciar conjuntos de dados usando o LIVE esquema virtual em spark.sql(...) a API não deve ser chamada fora da definição de consulta do conjunto de dados (isto é, @dlt.table anotação). Ele só pode ser chamado dentro da definição de consulta do conjunto de dados.

MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

SQLSTATE: 42000

Para mais detalhes, veja MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME

SQLSTATE: nenhum atribuído

A função de consulta para exibição materializada '<datasetName>' retornou um DataFrame de streaming.

Ele deve retornar um DataFrame que não seja de streaming.

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE: 42000

Contagem máxima de tentativas atingida. Contagem de tentativas:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>

MESA_PIPELINE_INVALID_DEFINITION_TYPE

SQLSTATE: 42000

Não é permitido iniciar um <definitionType> pipeline a partir da definição de UC.

MESA_PIPELINE_MISMATCH_PIPELINE_TYPES

SQLSTATE: 42000

A definição armazenada e atualizada deve ser do mesmo tipo de pipeline, mas tem <stored> e <updated>.

MESA_PIPELINE_MISSING_DEFINITION

SQLSTATE: 42000

O pipeline não tem uma definição válida na UC, mas uma atualização é solicitada.

MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED

SQLSTATE: 42000

Ausência inesperada da definição do pipeline da UC.

METASTORE_OPERATION_TIMED_OUT

SQLSTATE: 58000

As operações envolvidas na atualização das informações do metastore para <tableName> demoraram mais do que <timeout>.

Esse problema pode ser transitório ou pode indicar bugs no cliente de metastore configurado. Tente reiniciar o pipeline e relate esse problema se ele persistir.

META_ADS_PARAMETERS_CHANGED

SQLSTATE: KD000

Ocorreu um erro no conector de marketing da Meta. Os parâmetros de entrada da tabela ad_insights foram modificados.

Execute uma atualização completa nas tabelas afetadas.

META_ADS_SOURCE_API_ERROR

SQLSTATE: KD000

Ocorreu um erro na chamada da API de marketing Meta. Identificação do rastreio do Facebook para rastrear com suporte Meta: <trace_id>.

Se o erro persistir, registre um ticket.

META_MARKETING_INSIGHTS_LEVEL_INVALID

SQLSTATE: KD000

Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.

O parâmetro <level> de nível fornecido é inválido. Por favor, passe um dos (anúncio, conjunto de anúncios, campanha, conta).

META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID

SQLSTATE: KD000

Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.

Os parâmetros de detalhamento <breakdowns> fornecidos são inválidos. Por favor, consulte a documentação da Meta API para uma lista válida de detalhes.

Se o erro persistir, registre um ticket.

META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID

SQLSTATE: KD000

Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.

O parâmetro <timeInc> de incremento temporal fornecido não podia ser analisado. Por favor, introduza um número inteiro válido.

META_MARKETING_INSIGHTS_START_DATE_INVALID

SQLSTATE: KD000

Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.

O parâmetro <startDate> de data de início fornecido não pôde ser analisado. Por favor, verifique e modifique no formato correto YYYY-MM-DD.

META_MARKETING_INSIGHTS_START_DATE_TOO_OLD

SQLSTATE: KD000

Ocorreu um erro no conector de marketing da Meta ao tentar obter insights para a tabela ad_insights.

A data de início indicada não pode ultrapassar os 37 meses a partir da data atual de sincronização. Por favor, verifique e modifique nos parâmetros fornecidos.

Se o erro persistir, registre um ticket.

META_MARKETING_RATE_LIMIT_EXCEEDED

SQLSTATE: KD000

O limite de taxa da Meta API para esta conta de anúncios foi esgotado. Por favor, tente novamente a atualização do pipeline passado algum tempo. Recomenda-se ingerir menos tabelas em paralelo para evitar atingir novamente os limites.

Se estiver frequentemente a atingir erros de limite de taxa, considere atualizar para Advanced Access se ainda não o fizer, conforme a documentação Meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization

META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED

SQLSTATE: KD000

A Meta API falhou porque a quantidade de dados solicitada excede o limite que os servidores Meta podem processar.

Tente reduzir o número de campos a ingerir nesta tabela usando a lógica de seleção de colunas. Se o erro persistir, registre um ticket.

MIGRATION_TO_UNITY_CATALOG

SQLSTATE: 55000

Para mais detalhes, veja MIGRATION_TO_UNITY_CATALOG

PERMISSÃO_FALTANDO_NO_CATÁLOGO_OU_ESQUEMA

SQLSTATE: 42501

O usuário '<userName>' não tem permissões em '<schemaName>'. Detalhes: <reason>

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE: 42501

O usuário '<userName>' não tem permissão para criar esquema no catálogo <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE: 42501

O usuário '<userName>' não tem permissão para criar tabela no esquema <schemaName>

MISSING_RUN_AS_USER

SQLSTATE: 28000

Nenhuma execução por utilizador foi especificada para a atualização.

MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

'<tableName>' já contém uma AUTO CDC FROM SNAPSHOT consulta '<flowName>'. Atualmente, essa API suporta apenas um fluxo por destino.

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE: 42000

Opções mutuamente exclusivas <options>. Remova uma destas opções.

NEGATIVE_VALUE

SQLSTATE: nenhum atribuído

O valor para <arg_name> deve ser maior ou igual a 0, obteve '<arg_value>'.

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE: 42P07

A tabela '<tableName>' já é gerenciada por pipeline <otherPipelineId>.

Se você quiser que a tabela '<tableName>' seja gerenciada por este pipeline -

  1. Remova a tabela do pipeline '<otherPipelineId>'.

  2. Inicie uma atualização completa para este pipeline.

Se quiser continuar a gerir a tabela a partir de vários pipelines, desative esta verificação definindo a configuração pipelines.tableManagedByMultiplePipelinesCheck.enabled para false nas definições do pipeline.

Isso não é recomendado, pois operações simultâneas na mesa podem entrar em conflito entre si e levar a resultados inesperados.

NOTEBOOK_NAME_LIMIT_REACHED

SQLSTATE: 42000

Caminho do bloco de notas inválido: '<nameStart>...<nameEnd>'. É mais longo do que <maxNotebookPathLength> caracteres.

NOTEBOOK_NOT_FOUND

SQLSTATE: 42000

Não é possível aceder ao bloco de notas '<notebookPath>'. Ele não existe, ou a identidade usada para executar esse pipeline, <identity>, não tem as permissões necessárias.

NOTEBOOK_PIP_INSTALL_ERROR

SQLSTATE: 42000

Falha ao executar '<pipInstallCommand>' do notebook: <notebookPath>. Verifique os logs stdout do driver no cluster para obter mais detalhes.

NOTEBOOK_TOO_LARGE

SQLSTATE: 54000

O conteúdo resolvido do caderno em '<notebookPath>' é demasiado grande, por favor reduza o tamanho do caderno.

NOTIFICATIONS_DUPLICATE_ALERTS

SQLSTATE: 42000

Alertas duplicados '<alertsDuplicates>' especificados em [<alerts>]

NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES

SQLSTATE: 42000

Endereços de e-mail duplicados '<emailRecipientsDuplicates>' especificados em [<emailRecipients>]

NOTIFICATIONS_INVALID_ALERTS

SQLSTATE: 42000

Foram especificados alertas inválidos para receber notificações sobre: <invalidAlerts>

NOTIFICATIONS_INVALID_EMAIL_ADDRESS

SQLSTATE: 42000

Endereço de e-mail inválido especificado para receber notificações: <invalidEmailAddresses>

NOTIFICATIONS_MISSING_PARAMS

SQLSTATE: 42000

Especifique pelo menos um destinatário e um alerta em <setting>

NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED

SQLSTATE: nenhum atribuído

Qualquer um source ou snapshot_version deve ser definido para apply_changes_from_snapshot com o alvo '<target>'.

NO_TABLES_IN_PIPELINE

SQLSTATE: 42617

Espera-se que os pipelines tenham pelo menos uma tabela definida, mas nenhuma tabela foi encontrada em seu pipeline.

Por favor, verifique se incluiu, e partilhou caso o Execute As esteja configurado, os ficheiros fonte e/ou diretórios esperados, e que o seu código-fonte inclui definições de tabelas (por exemplo, CREATE MATERIALIZED VIEW em código SQL, @dlt.table em código Python).

Note que apenas as tabelas são contabilizadas para esta verificação. Você também pode encontrar este erro se incluir apenas visualizações ou fluxos no seu pipeline.

OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW

SQLSTATE: 42000

O modo de saída '<outputMode>' não é suportado para tabela de fluxo de tabela<flowName> ''tabela de direcionamento'<target>'. Apenas o modo 'anexar' é suportado para fluxos de tabela.

OWNER_IS_MISSING

SQLSTATE: 42000

Proprietário não existe.

PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION

SQLSTATE: 42000

Pode fornecer um <name> ou paginação, mas não ambos.

PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD

SQLSTATE: 42000

PatchPipelineDefinition suporta apenas o schedule campo, mas a definição fornecida tinha outros campos preenchidos: '<updatedDefinition>'.

PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE

SQLSTATE: 42000

As visualizações persistentes não suportam a leitura de fontes de streaming.

PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW

SQLSTATE: 42K0F

O modo de exibição <persistedViewName> persistente não pode fazer referência ao modo de exibição <temporaryViewName> temporário que não estará disponível fora do escopo do pipeline. Torne o modo de exibição persistente temporário ou persista o modo de exibição temporário.

PIPELINE_CLONING_ALREADY_IN_PROGRESS

SQLSTATE: 42000

A canalização já está a ser clonada para canalização com o id '<pipelineId>'.

PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED

SQLSTATE: 42000

Não é possível especificar tanto 'alvo' como 'esquema' ao clonar um pipeline. Por favor, especifique apenas um.

PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET

SQLSTATE: 42000

Não é possível clonar um pipeline com 'schema' para um pipeline com 'target'. O pipeline clonado também deve usar 'schema' ou omitir ambos para herdar o valor original.

PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE

SQLSTATE: 42000

O pipeline com ID '<pipelineId>' não pode ser clonado durante uma atualização ativa.

PIPELINE_CLONING_INVALID_FIELDS

SQLSTATE: 42000

A solicitação incluiu uma especificação de pipeline com campos inválidos destinados à clonagem. Os campos permitidos incluem: nome, catálogo, destino, configuração.

PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET

SQLSTATE: 42000

O pipeline com ID '<pipelineId>' não publica em um esquema de destino. O pipeline de origem precisa ser publicado em um esquema de destino para ser clonado. Tente novamente depois de especificar o campo 'destino' na especificação do pipeline e executar uma nova atualização para publicar em um esquema de destino.

PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE

SQLSTATE: 42000

O pipeline com ID '<pipelineId>' já é um pipeline de UC. As pipelines de UC não podem ser clonadas.

PIPELINE_CLONING_NO_CATALOG_SPECIFIED

SQLSTATE: 42000

Não há catálogo especificado para clonagem.

PIPELINE_CLONING_NO_MODE_SPECIFIED

SQLSTATE: 42000

Nenhum modo de clone especificado.

PIPELINE_CLONING_NO_TARGET_SPECIFIED

SQLSTATE: 42000

Nenhum catálogo de destino especificado para clonagem.

PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 42000

A criação de pipeline não está habilitada para este espaço de trabalho.

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42000

O pipeline com ID '<pipelineId>' não existe.

Para mais detalhes, ver PIPELINE_DOES_NOT_EXIST

PIPELINE_ENVIRONMENT_NOT_ENABLED

SQLSTATE: 0A000

A utilização do ambiente no Lakeflow Spark Declarative Pipelines não está ativada.

PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED

SQLSTATE: 54000

Atualmente, o ambiente do pipeline não suporta versões de ambiente.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE

SQLSTATE: 55000

O pipeline não conseguiu atualizar a tabela UC (<tableName>) devido a alterações simultâneas após <attempts> tentativas.

Verifique se não há processos externos modificando a tabela, tente novamente a atualização e entre em contato com o suporte do Databricks se esse problema persistir.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE

SQLSTATE: 55000

A tabela <tableName> foi eliminada por uma operação externa enquanto o pipeline a atualizava.

Certifique-se de que nenhum processo externo está a modificar a tabela e depois tente novamente a atualização.

Se o problema persistir, contacte o Suporte da Databricks.

PIPELINE_FOR_TABLE_NEEDS_REFRESH

SQLSTATE: 55000

A tabela <tableName> não está no estado necessário, a tabela não foi atualizada recentemente. O pipeline com ID '<pipelineId>' deve ser executado mais uma vez e, em seguida, tente novamente a operação.

PIPELINE_FOR_TABLE_NOT_FOUND

SQLSTATE: 42K03

O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não pode ser encontrado. Verifique se você está no mesmo espaço de trabalho que o pipeline, se você é o proprietário do pipeline e se o pipeline foi executado pelo menos uma vez.

PIPELINE_GLOB_INCLUDES_CONFLICTS

SQLSTATE: F0000

O campo glob ou notebook/ficheiro nas bibliotecas das configurações do pipeline deve ser configurado. Altere as configurações do pipeline.

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE: 0A000

Usar o campo glob para incluir arquivos de origem é um recurso de visualização e está desativado.

Selecione novamente cada arquivo de origem a ser incluído para que o pipeline corrija esse erro.

Entre em contato com o suporte do Databricks para saber mais sobre esse recurso e inscreva-se na visualização.

PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER

SQLSTATE: 42000

Caracteres <specialChar> especiais são reservados e não devem ser usados no caminho especificado '<path>' nas configurações do pipeline. Remova esses caracteres para corrigir o erro

PIPELINE_NAME_LIMIT_REACHED

SQLSTATE: 42000

O nome não pode ser maior do que <maxPipelineNameLength> caracteres.

PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR

SQLSTATE: 42000

O pipeline não foi capaz de analisar as tabelas de origem (<tables>) em virtude de erros não retomáveis após execução parcial.

Uma nova atualização de pipeline não será criada.

<flowErrors>

Verifique o log de eventos e corrija os problemas de acordo.

CANALIZAÇÃO_NÃO_ELEGÍVEL_PARA_RESTAURAÇÃO

SQLSTATE: 42000

Pipeline '<pipelineId>' já passou da janela de restauração.

PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não está usando o Modo de Publicação Direta.

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE: 55000

A tabela ainda não está pronta para atualização

Para mais detalhes, consulte PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

PIPELINE_PERMISSION_DENIED_NOT_OWNER

SQLSTATE: 42501

Você não tem permissão para executar esta operação. Você não é o proprietário do pipeline com ID '<pipelineId>' que gere a tabela <tableName>.

PIPELINE_REPETÍVEL_ANÁLISE

SQLSTATE: 42000

O pipeline não conseguiu analisar as tabelas de origem (<tables>) devido a erros que podem ser repetidos após a execução parcial.

Uma nova atualização de pipeline será criada para tentar processar novamente. Se o erro persistir, verifique o log de eventos e resolva os problemas de acordo.

PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED

SQLSTATE: 42000

'<uneditableFieldName>' não pode ser modificado pelos utilizadores. Se os usuários quiserem adicionar ou modificar o <settingName>, use o campo '<editableFieldName>'.

PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY

SQLSTATE: 42000

As configurações do pipeline foram modificadas simultaneamente.

PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS

SQLSTATE: 42000

As configurações <configurations> não são suportadas pelos Lakeflow Spark Declarative Pipeliness. Remova essas configurações.

PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT

SQLSTATE: 42000

Não há suporte para iniciar uma atualização com a configuração 'desenvolvimento'.

PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

O pipeline deve ter exatamente uma tabela, mas encontrou <tablesSize> tabelas: <tables>

PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED

SQLSTATE: 54000

O número de arquivos de origem, incluindo arquivos declarados em pastas, excede o limite de <limit>.

Remova ou mescle arquivos excessivos e altere as especificações de pipeline correspondentes, se necessário,

ou entre em contato com o suporte da Databricks para solicitar um aumento de limite.

PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED

SQLSTATE: 54000

A pasta '<folder_path>' excede o nível máximo permitido de aninhamento de diretórios de <limit>. Reduza o nível de aninhamento de pastas ou entre em contato com o suporte do Databricks para solicitar um aumento de limite.

PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED

SQLSTATE: 42000

Não é permitido modificar o seguinte parâmetro <param> nas configurações do pipeline

PIPELINE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

O tipo de pipeline '<pipelineType>' não é suportado.

PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não é um pipeline ETL.

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE: 54000

Não é possível iniciar a atualização '<updateId>' porque o limite para pipelines ativos do tipo '<pipelineType>' foi atingido.

PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING

SQLSTATE: 55000

O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, está em execução. Interrompa o funcionamento do pipeline antes de executar a operação.

PIPELINE_WORKSPACE_LIMIT_REACHED

SQLSTATE: 42000

A criação de pipelines do tipo '<pipelineType>' está bloqueada porque o espaço de trabalho '<orgId>' já possui '<countLimit>' pipelines. Exclua os dutos não utilizados.

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE: 42000

Encontraram-se células que contêm instalação %pip que não estão no topo do bloco de anotações para '<notebookPath>'

Mova todas as células de instalação %pip para o início do bloco de notas.

PY4J_BLOCKED_API

SQLSTATE: nenhum atribuído

Você está usando uma API Python que não é suportada no ambiente atual.

Consulte a documentação do Databricks para obter alternativas.

<additionalInfo>

QUERY_BASED_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Ocorreu um erro na chamada da API <sourceName>. Tipo de API de origem: <qbcSourceApiType>.

Tente atualizar a tabela de destino. Se o problema persistir, submeta um pedido.

QUERY_BASED_INGESTION_CONNECTOR_ERROR

SQLSTATE: 0A000

Ocorreu um erro no conector de ingestão baseado numa consulta para <sourceName>.

Para mais detalhes, ver QUERY_BASED_INGESTION_CONNECTOR_ERROR

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE: 0A000

A referência ao conjunto de dados <identifier> Lakeflow Spark Declarative Pipelines fora da definição da consulta do conjunto de dados (ou seja, @dlt.table anotação) não é suportada. Em vez disso, leia-o dentro da definição de consulta do conjunto de dados.

REFRESH_INITIATED_FROM_INVALID_WORKSPACE

SQLSTATE: 42000

A atualização deve ser iniciada no espaço de trabalho <homeWorkspaceId>, onde o recurso foi criado.

A atualização foi tentada no espaço de trabalho <userWorkspaceId>.

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE: 42710

Não é possível adicionar <type> a uma tabela que já tenha <existingType>. Por favor, abandone o horário existente ou use ALTER TABLE...ALTER <type> ... para a alterar.

REQUIRED_PARAM_NOT_FOUND

SQLSTATE: 42000

O parâmetro <param> obrigatório não foi encontrado.

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE: 42000

USE CATALOG '<reservedKeyword>' é ilegal porque '<reservedKeyword>' é uma palavra-chave reservada nos Lakeflow Spark Declarative Pipelines.

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE: 42000

USE SCHEMA '<reservedKeyword>' é ilegal porque '<reservedKeyword>' é uma palavra-chave reservada nos Lakeflow Spark Declarative Pipelines.

OS RECURSOS ESTÃO A SER PROVISIONADOS

SQLSTATE: 42000

Os recursos do gasoduto estão sendo provisionados para o gasoduto '<pipelineId>'.

RESOURCE_READ_ONLY_IN_WORKSPACE

SQLSTATE: 42501

<resourceType> '<resourceName>' foi designado como apenas leitura no espaço de trabalho atual.

RESTAURAR_PIPELINE_NÃO_EXCLUIDO

SQLSTATE: 42000

O pipeline '<pipelineId>' não foi apagado. A restauração só é aplicável a dutos excluídos.

RESTAURAR_PIPELINE_DESATIVADO

SQLSTATE: 42000

RestorePipeline não está habilitado para o tipo de pipeline <pipelineType>

Entre em contato com o suporte da Databricks para obter assistência na restauração do pipeline '<pipelineId>'.

ROOT_PATH_NOT_FOUND

SQLSTATE: 42000

Não é possível acessar o caminho raiz '<rootPath>'. Certifique-se de que tem os privilégios de acesso necessários.

RUN_AS_USER_NOT_FOUND

SQLSTATE: 28000

A execução especificada como usuário '<runAsUserId>' para a atualização não existe no espaço de trabalho.

SAAS_CONNECTION_ERROR

SQLSTATE: KD000

Falha ao estabelecer uma conexão com a fonte <sourceName>. Código de erro: <saasConnectionErrorCode>.

Para mais detalhes, ver SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_DUPLICATE_DATA

SQLSTATE: 42000

Encontrei dados duplicados na tabela <tableName>. Tipo de fonte: <sourceName>.

Para mais detalhes, veja SAAS_CONNECTOR_DUPLICATE_DATA

SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS

SQLSTATE: 42000

Inválido include_columns especificado para a tabela <qualifiedTableName>. Motivo: <reason>

SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION

SQLSTATE: 42000

Configuração inválida da chave primária para a tabela <qualifiedTableName>. Motivo: <reason>

SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED

SQLSTATE: KD000

Esta sessão não pôde ser autenticada mutuamente para uso com <sourceName>. Tipo de API de origem: <saasSourceApiType>. Código de erro: <saasSourceApiErrorCode>.

Por favor, verifique se o certificado do cliente e a chave privada são um par válido e confiáveis por <sourceName>.

SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED

SQLSTATE: KD000

O token de atualização para conexão <connectionName> expirou. Edite a conexão, autentique-se novamente e execute novamente seu pipeline.

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE: 42KD4

Ocorreu uma alteração de esquema na tabela <tableName> da fonte de <sourceName>.

Para mais detalhes, ver SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Ocorreu um erro na chamada da API <sourceName>. Tipo de API de origem: <saasSourceApiType>. Código de erro: <saasSourceApiErrorCode>.

Tente atualizar a tabela de destino. Se o problema persistir, submeta um pedido.

SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: KD000

A troca de tokens OAuth falhou para a ligação UC: <connectionName>.

Isto pode ser causado por problemas com as tuas credenciais UC. Verifique o rastreio de erro, edite a ligação UC, volte a autenticar e execute novamente o pipeline. Se o erro persistir, registre um ticket.

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE: 0A000

Erro não suportado ocorreu na fonte de dados <sourceName>.

Para mais detalhes, consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE: 42KD4

Detetamos alterações de esquema incompatíveis ao inicializar o pipeline:

<details>

Execute uma atualização completa nas tabelas afetadas.

SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR

SQLSTATE: 42KD4

Erro encontrado ao criar entrada para análise parcial. Uma nova atualização de pipeline não será criada.

Verifique o registo de eventos e corrija os problemas em conformidade.

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE: 42KD4

O esquema analisado da tabela de origem (<table>) divergiu do esquema esperado.

Tente novamente a atualização do pipeline e veja se o problema foi resolvido.

Se esse problema persistir, execute uma atualização completa nas tabelas mencionadas acima

Esquema esperado:

<expectedSchema>

Esquema real:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE: 08000

A conexão <connectionName> fornecida está inacessível. Verifique a ligação e tente novamente.

Para mais detalhes, consulte SAAS_UC_CONNECTION_INACCESSIBLE

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

SchemaSpec tem uma cadeia de caracteres vazia no campo de catálogo.

Remova a string vazia ou adicione o nome do catálogo. (Se este esquema não pertencer a um catálogo na origem, não defina o campo.)

Detalhes das especificações do esquema:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

SchemaSpec tem uma cadeia de caracteres vazia no campo de esquema.

Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se esta tabela não pertencer a um esquema na origem, não defina o campo.)

Detalhes das especificações do esquema:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE: 42000

Pelo menos um dos catálogos de origem e esquema de origem deve estar presente. Mas ambos estão vazios.

Detalhes das especificações do esquema:

<schemaSpec>

SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE: 42703

A definição do pipeline inclui coluna(s) sequence_by (<columnNames>) que não existem na tabela <qualifiedTableName> da origem <sourceType>. Remova esta(s) coluna(s) do campo sequence_by.

Política de Orçamento Sem Servidor e Política de Uso Ambos Definidos

SQLSTATE: 42000

Não é possível definir budget_policy_id e usage_policy_id. Por favor, remova budget_policy_id.

SERVERLESS_BUDGET_POLICY_BAD_REQUEST

SQLSTATE: 42000

A política de orçamento fornecida com id '<budgetPolicyId>' não pode ser usada neste espaço de trabalho devido a restrições de vinculação de políticas ao espaço de trabalho.

SERVERLESS_BUDGET_POLICY_IS_INVALID

SQLSTATE: 42000

A política de orçamento sem servidor com id '<budgetPolicyId>' é inválida.

SERVERLESS_BUDGET_POLICY_MISSING

SQLSTATE: 42000

A política de orçamento sem servidor com id '<budgetPolicyId>' não existe.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED

SQLSTATE: 0A000

A política de orçamento sem servidor não está habilitada, entre em contato com o suporte do Databricks.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT

SQLSTATE: 0A000

A política de orçamento sem servidor não está habilitada para essa conta. O usuário não pode especificar uma política de orçamento para esse pipeline. O administrador da conta deve tentar se inscrever através do portal de visualização de recursos. Se o problema persistir, entre em contato com o suporte da Databricks.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE

SQLSTATE: 42000

A política de orçamento sem servidor não pode ser atribuída a um pipeline que não seja sem servidor.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE

SQLSTATE: 42000

A política de orçamento sem servidor não é suportada para o tipo de pipeline <pipelineType>.

SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED

SQLSTATE: 42000

O usuário não tem permissão para usar a política de orçamento sem servidor com id '<budgetPolicyId>'.

SERVERLESS_NOT_AVAILABLE

SQLSTATE: 0A000

A computação sem servidor não está disponível. Entre em contato com a Databricks para obter mais informações.

SERVERLESS_NOT_ENABLED

SQLSTATE: 0A000

Não podes usar computação serverless com o Lakeflow Spark Declarative Pipeliness. Entre em contato com a Databricks para habilitar esse recurso em seu espaço de trabalho.

SERVERLESS_NOT_ENABLED_FOR_USER

SQLSTATE: 0A000

A computação sem servidor não está ativada para o utilizador. Entre em contato com o administrador do seu espaço de trabalho para ativar esse recurso.

SERVERLESS_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 0A000

A computação sem servidor não está disponível para este espaço de trabalho e/ou região. Entre em contato com a Databricks para obter mais informações.

SERVERLESS_REQUIRED

SQLSTATE: 42000

Você deve usar computação sem servidor neste espaço de trabalho.

SERVICENOW_CONNECTION_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Para mais detalhes, ver SERVICENOW_CONNECTION_ERROR

SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Neste momento, o pipeline de ingestão não pode ingerir a tabela '<tableName>' porque a chave do cursor numa linha contém um campo vazio.

Para continuar a executar o pipeline, remova esta tabela. Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Falha ao se conectar à instância ServiceNow. A instância parece estar hibernando ou inativa.

Faça login no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja totalmente ativada.

Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Falha ao se conectar à instância ServiceNow. A instância está offline.

Faça login no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja restaurada.

Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Falha ao consultar o esquema da tabela '<tableName>'. A tabela não existe na conta ServiceNow para este usuário.

Verifique se há erros de digitação no nome da tabela e verifique se o usuário tem as permissões necessárias para acessar a tabela.

Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Falha ao se conectar à instância ServiceNow. A instância tem restrições de controle de acesso de endereço IP.

Para resolver isso, desative as restrições de endereço IP navegando até ServiceNow >> All >> System Security >> IP Address Access Control ou use IPs estáveis sem servidor

Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Detetada URL inválida do ponto de extremidade da API da ServiceNow. A estrutura de URL não corresponde ao formato ServiceNow esperado.

Verifique a configuração da instância ServiceNow nas credenciais de conexão UC.

Para mais detalhes, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Isso geralmente acontece quando a busca de dados para uma tabela leva muito tempo. Como primeiro passo, trabalhe com o administrador do ServiceNow para ativar a indexação na coluna do cursor.

A coluna do cursor é selecionada na seguinte lista, por ordem de disponibilidade e preferência: sys_updated_on (primeira escolha), sys_created_on (segunda escolha), sys_archived (terceira escolha)

Para obter instruções sobre como habilitar a indexação no ServiceNow, consulte aqui: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.

Também recomendamos aumentar o tempo limite de consulta da API REST para mais de 60 segundos para permitir mais tempo para buscar registros.

Em seguida, tente novamente a sua pipeline de ingestão. Se o problema persistir, registre um ticket.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Ao buscar o esquema de tabela sem privilégios de administrador, o internal_type das colunas do esquema não está acessível.

Para resolver isso, dê permissões de leitura na tabela 'sys_glide_object' para o usuário atual.

Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH

SQLSTATE: KD000

Ocorreu um erro no ServiceNow ao buscar o esquema de tabela.

Encontrados dois tipos de dados conflitantes para o campo '<fieldName>': '<firstDataType>' e '<secondDataType>'.

Para continuar a executar o pipeline, remova esta tabela. Se o erro persistir, registre um ticket.

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.

Para mais detalhes, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES não é suportado. Para modificar as propriedades da tabela, altere a definição original e execute uma atualização.

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

O carregamento para o objeto <objName> está incompleto porque o trabalho de consulta da API do Salesforce demorou demasiado tempo, falhou ou foi cancelado manualmente.

Para mais detalhes, veja SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND

SQLSTATE: KD000

A ingestão do objeto <objName> falhou porque o trabalho de consulta da API em massa do Salesforce não pôde ser encontrado.

Isso provavelmente ocorre porque o trabalho foi excluído na interface do usuário do Salesforce ou porque já se passaram mais de 7 dias desde a última atualização de pipeline, após o qual o Salesforce exclui automaticamente o trabalho

Para acionar um novo trabalho em massa, execute um FULL REFRESH na tabela de destino específica.

SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED

SQLSTATE: KD000

Ocorreu um erro na chamada à API do Salesforce: limite de API excedido

Aguarde até que os limites da API sejam redefinidos. Em seguida, tente atualizar a tabela de destino.

Se o erro persistir, registre um ticket.

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE: KD000

A ingestão do objeto <objName> está incompleta porque a criação do trabalho de consulta da API em massa do Salesforce falhou. Código de erro: <saasSourceApiErrorCode>.

<actionText>.

SFDC_CONNECTOR_MALFORMED_RECORDS (Registos malformados do conector SFDC)

SQLSTATE: KD000

A ingestão do objeto '<objName>' do Salesforce falhou porque o Salesforce <saasSourceApiType> retornou registros malformados.

Por favor, verifique o stacktrace para obter mais detalhes.

Verifique os dados no Salesforce e execute novamente o pipeline.

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE: 0A000

Os sinks Lakeflow Spark Declarative Pipelines no pipeline não são suportados em espaços de trabalho com controlo de saída serverless. Os sumidouros Declarativos de Oleodutos Lakeflow Spark suportados são Kafka e Delta.

Os seguintes coletores não suportados são encontrados: <sinkNames>, seus formatos correspondentes são: <sinkFormats>.

SOURCE_TABLE_NOT_MATERIALIZED

SQLSTATE: 42704

Falha ao ler o conjunto de dados dependente '<sourceTableName>' porque este não está materializado. Executar toda a cadeia de produção para materializar todos os conjuntos de dados dependentes.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND

SQLSTATE: 42000

Caminho de definição para o elemento do grafo '<graphElementName>' não encontrado. Entre em contato com o suporte da Databricks.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL

SQLSTATE: 42000

Não existe nenhum caminho de definição de pipeline disponível no contexto atual de execução do SQL do Spark. Entre em contato com o suporte da Databricks.

SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR

SQLSTATE: 42000

A definição de fluxo não é suportada. Entre em contato com o suporte da Databricks. Comando: <defineFlowCommand>

SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE

SQLSTATE: 42000

O tipo de saída '<outputType>' não é suportado no Spark Connect. Entre em contato com o suporte da Databricks.

STANDALONE_PRIVATE_MVST_NOT_SUPPORTED

SQLSTATE: 0A000

Não há suporte para a criação de um MV/ST autônomo PRIVATE . Remova o modificador PRIVATE

TEMPO_LIMITE_DE_INÍCIO_DO_REPL_PYTHON_EXCEDIDO

SQLSTATE: 53000

Timeout ao aguardar o início do REPL do Python. Demorou mais do que <timeoutSeconds> segundos.

STREAMING_TARGET_NOT_DEFINED

SQLSTATE: 42P01

Não é possível encontrar a tabela <target> de destino para o <command> comando. A tabela de destino <target> não está definida no pipeline.

SYNCED_TABLE_USER_ERROR

SQLSTATE: 42000

Erro do usuário do pipeline de tabela sincronizada.

Para mais detalhes, ver SYNCED_TABLE_USER_ERROR

TABLE_CHANGED_DURING_OPERATION

SQLSTATE: 55019

A tabela <tableName> foi modificada fora desta transação e esta transação foi revertida. Repita a operação.

TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY

SQLSTATE: 42887

Atualização de pipeline para pipeline: <pipelineId> detetou uma cadeia cíclica de restrições de chave externa: <tables>.

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE: 42000

TableSpec está em falta de um dos catálogos de origem e/ou esquemas de origem.

Detalhes das especificações da tabela:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

TableSpec tem uma cadeia de caracteres vazia no campo de catálogo.

Remova a string vazia ou adicione o nome do catálogo. (Se esta tabela não pertencer a um catálogo na origem, não defina o campo.)

Detalhes das especificações da tabela:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

TableSpec tem uma cadeia de caracteres vazia no campo de esquema.

Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se esta tabela não pertencer a um esquema na origem, não defina o campo.)

Detalhes das especificações da tabela:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE: 42601

O nome da tabela está vazio. Forneça um nome de tabela.

Detalhes das especificações da tabela:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE: 42KD4

A evolução do esquema não pode ser habilitada devido à falta de metadados. Por favor, acione uma atualização completa.

Motivo: o token da tabela de instantâneo deve ser definido quando a evolução do esquema estiver habilitada.

PIPELINE_DESCARTADO_NO_AMBIENTE_DE_TRABALHO

SQLSTATE: 42000

Não é possível iniciar o pipeline porque o pipeline está no lixo ou foi eliminado.

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE: 22003

O intervalo de desencadeamento deve ser uma duração positiva, o valor máximo aceitável é de 2.147.483.647 segundos. Recebido: <actual> segundos.

ACIONADOR_NÃO_ATIVADO

SQLSTATE: 0A000

Os gatilhos não estão habilitados para este espaço de trabalho. Habilite os Gatilhos de Tabela na página Pré-Visualização.

TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED

SQLSTATE: 0A000

A vista <source> é uma visualização que lê a partir de um local de arquivo, que atualmente não é suportada pelo trigger.

TRIGGER_REQUEST_SERIALIZATION_ERROR

SQLSTATE: 54000

Ocorreu um problema ao processar o seu pedido. Entre em contato com o suporte da Databricks.

TIPO_DE_ACIONADOR_SEGURO_NÃO_SUPORTADO

SQLSTATE: 0A000

Falha na configuração do gatilho: tipo de tabela não suportado. Consulte a documentação para obter os tipos suportados.

TRIGGER_SOURCE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

A origem <source> com o tipo <type> não é suportada pelo gatilho atualmente.

TRIGGER_STATE_SERIALIZATION_ERROR

SQLSTATE: 54000

Ocorreu um problema ao processar o seu pedido. Entre em contato com o suporte da Databricks.

TRIGGER_TABLE_LIMIT_EXCEEDED

SQLSTATE: 54000

Falha na configuração do gatilho: o gatilho inclui mais tabelas do que o limite permitido. Consulte a documentação para obter detalhes sobre os limites da tabela e como resolver esse problema.

TRIGGER_TABLE_TYPE_NOT_SUPPORTED (Tipo de tabela de trigger não suportado)

SQLSTATE: 0A000

Falha na configuração do gatilho: tipo de tabela não suportado. Consulte a documentação para obter os tipos suportados.

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

Não é permitido limpar o campo do esquema de destino para pipelines de UC. Motivo: <reason>.

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

O papel IAM para a credencial de armazenamento revelou-se não auto-assumível.

Verifique a confiança da sua função e as políticas do IAM para garantir que sua função do IAM possa assumir a si mesma de acordo com a documentação de credenciais de armazenamento do Unity Catalog.

UC_NOT_ENABLED

SQLSTATE: 0A000

A utilização do catálogo UC no Lakeflow Spark Declarative Pipelines não está ativada.

UC_PIPELINE_CANNOT_PUBLISH_TO_HMS

SQLSTATE: 42000

Os pipelines habilitados para UC não podem publicar no Hive Metastore. Escolha um catálogo de destino diferente.

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE: 0AKD0

O campo de esquema de destino é necessário para pipelines de UC. Motivo: <reason>.

UNABLE_TO_INFER_TABLE_SCHEMA

SQLSTATE: 42KD9

Falha ao inferir o esquema para a tabela <tableName> a partir dos seus fluxos a montante.

Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.

Esquema inferido até agora:

<inferredDataSchema>

Esquema incompatível:

<incompatibleDataSchema>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE: 42501

Erro inesperado ao verificar as permissões de esquema para pipeline <pipelineId>. Entre em contato com o suporte da Databricks.

A_COMPATIBILIDADE_COM_O_UNIFORME_NÃO_PODE_SER_DEFINIDA_COM_ROW_FILTERS_OU_COLUMN_MASKS

SQLSTATE: 42000

A compatibilidade uniforme não pode ser definida em exibições materializadas ou tabelas de streaming que tenham um filtro de linha ou máscaras de coluna aplicadas.

UNITY_CATALOG_INITIALIZATION_FAILED

SQLSTATE: 56000

Encontrou um erro com o Unity Catalog ao configurar o pipeline no cluster <clusterId>.

Certifique-se de que a configuração do seu Catálogo Unity está correta e que os recursos necessários (por exemplo, catálogo, esquema) existem e são acessíveis.

Verifique também se o cluster tem permissões apropriadas para acessar o Unity Catalog.

Detalhes: <ucErrorMessage>

UNRESOLVED_SINK_PATH

SQLSTATE: 22KD1

O caminho de armazenamento para o coletor <identifier> não pode ser resolvido. Entre em contato com o suporte da Databricks.

UNRESOLVED_TABLES_FOR_MAINTENANCE

SQLSTATE: 55000

As tabelas a seguir foram encontradas na definição de pipeline, mas não puderam ser resolvidas durante a manutenção. Execute uma execução de atualização de pipeline com a definição de pipeline mais recente para materializar todas as tabelas na definição de pipeline e desbloquear a manutenção, ou entre em contato com o suporte do Databricks se o problema persistir.

<unresolvedTableIdentifiersSet>

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

O caminho de armazenamento para a tabela <identifier> não pode ser resolvido. Entre em contato com o suporte da Databricks.

UNSUPPORTED_ALTER_COMMAND

SQLSTATE: 0A000

ALTER <commandTableType> ... <command> não é suportado.

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE: 0A000

Canal não suportado para o Modo de Publicação Direta. Espera obter o canal 'CURRENT' ou o 'PREVIEW', mas obteve 'PREVIOUS'

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE: 0A000

<command> apenas suportado no modo de publicação direta, ativado o Spark Declarative Pipeline

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE: 0A000

'<command>' não é suportado na definição de consulta. Mova o comando para fora da definição de consulta. Se for um Spark Declarative Pipeline em Python, move o '<command>' para fora do @dlt.table()/@dlt.view() decorador. Se for um Spark Declarative Pipeline no Scala, move o '<command>' para fora do método 'query'.

UNSUPPORTED_CUSTOM_DBR_VERSION

SQLSTATE: 42000

A versão DBR personalizada '<v>' não é suportada nos espaços de trabalho SHIELD e HIPAA. Esperado um de [<supportedDbrVersions>]

PRÉ-VISUALIZAÇÃO_DE_ESQUEMA_PERSONALIZADO_NÃO_SUPORTADO

SQLSTATE: 0A000

A visualização privada do esquema personalizado está desativada.

Por favor, crie um novo pipeline com o modo de publicação predefinido, usando o campo 'schema'

na especificação do pipeline, e mover os conjuntos de dados deste pipeline para o novo pipeline.

ATIVAÇÃO_PREVISUALIZAÇÃO_ESQUEMA_PERSONALIZADO_NÃO_SUPORTADO

SQLSTATE: 0A000

A pré-visualização privada personalizada do esquema está desativada e não podes adicionar a pré-visualização a um pipeline.

Por favor, remova <sparkConfKeys> da configuração do oleoduto.

UNSUPPORTED_DBR_VERSION

SQLSTATE: 42000

A versão DBR '<v>' não é suportada. Esperado um de [<supportedDbrVersions>]

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE: 0A000

<featureName> não é suportado no seu espaço de trabalho. Entre em contato com o suporte da Databricks para habilitar esse recurso para seu espaço de trabalho.

UNSUPPORTED_LANGUAGE

SQLSTATE: 0A000

Falhou ao carregar o <language> caderno '<notebookPath>'. Atualmente, apenas <supportedLanguages> notebooks são suportados.

UNSUPPORTED_LIBRARY_FILE_TYPE

SQLSTATE: 0A000

O ficheiro em <path> não tem o sufixo .py ou .sql. Somente arquivos Python e SQL são suportados em pipelines.

UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE

SQLSTATE: 0A000

Idioma <language> não suportado para notebook <path>. Somente Python e SQL são suportados em pipelines

UNSUPPORTED_LIBRARY_OBJECT_TYPE

SQLSTATE: 0A000

O item incluído em <path> é do tipo <objectType>, que não é suportado. Atualmente, apenas blocos de anotações e arquivos podem ser usados como bibliotecas. Para resolver esse problema, remova o objeto sem suporte ou atualize as bibliotecas configuradas para esse pipeline para que apenas os tipos de objeto suportados sejam incluídos.

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE: 0A000

Definição de pipeline de ingestão gerenciada inválida, tipo de fonte sem suporte: <sourceType>.

UNSUPPORTED_MULTIPLE_UPDATE_TYPE

SQLSTATE: 0A000

Validar apenas, explorar apenas e rebobinar atualizações são mutuamente exclusivas. No máximo, um deve estar pronto.

UNSUPPORTED_REWIND

SQLSTATE: 0A000

As operações de retrocesso ainda não estão ativadas para este espaço de trabalho.

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE: 0A000

O tipo de ingestão fornecido <ingestionType> não é suportado.

Entre em contato com o suporte da Databricks se esse problema persistir.

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' não é suportado na API spark.sql("...") no Lakeflow Spark Declarative Pipelines Python. Comando suportado: <supportedCommands>.

UNSUPPORTED_SQL_STATEMENT

SQLSTATE: 0A000

Instrução SQL sem suporte para <datasetType> '<datasetName>': <operation> não há suporte.

UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE

SQLSTATE: 42000

Apenas DBSQL pipelines podem ter definição_atualizada.

USE_CATALOG_IN_HMS

SQLSTATE: 0A000

O USE CATALOG é suportado apenas no Spark Declarative Pipeline habilitado por UC

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE: 42000

Não é possível atualizar a tabela <tableName> pois ela não tem uma consulta salva no Unity Catalog. Entre em contato com o suporte da Databricks.

WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED

SQLSTATE: KD000

Ocorreu um erro no Workday HCM. Tipo de API de origem: <saasSourceApiType>.

Falhou em buscar o lote no deslocamento '<offset>'.

Tente atualizar a tabela de destino. Se o problema persistir, submeta um pedido.

WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR

SQLSTATE: KD000

Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.

Falha ao buscar dados para o relatório '<reportUrl>'. O cliente OAuth não tem acesso de escopo suficiente para recuperar o relatório.

Para resolver isso, verifique se o cliente OAuth tem os escopos necessários configurados no Workday.

Se o erro persistir, registre um ticket.

ERRO_WORKDAY_RELATÓRIOS_CONECTOR_AUSÊNCIA_DE_PARAMETROS_OBRIGATÓRIOS

SQLSTATE: KD000

Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.

O relatório Workday '<reportUrl>' espera o parâmetro '<missingParam>'.

Garantir que todos os parâmetros do relatório estão incluídos na URL; podes verificar a configuração do relatório Workday para identificar quais os parâmetros que são obrigatórios.

Se o problema persistir, registre um ticket.

WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR

SQLSTATE: KD000

Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.

O URL do relatório '<reportUrl>' está incorreto. Verifique se há erros de digitação no URL base ou no nome do relatório para resolver o problema.

Se o problema persistir, registre um ticket.

WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR

SQLSTATE: KD000

Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.

O tamanho do relatório com URL '<reportUrl>' é maior que 2GB. Certifique-se de que o tamanho do relatório não exceda este limite.

Se o problema persistir, registre um ticket.

WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

Ocorreu um erro em Workday Reports. Tipo de API de origem: <saasSourceApiType>.

Para mais detalhes, consulte WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

WORKDAY_REPORT_URL_EMPTY

SQLSTATE: 42000

O URL do relatório do dia útil está vazio. Deve ser apresentado pelo menos um relatório.

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE: 54000

Não é possível iniciar a atualização '<updateId>' porque já existem '<maxActiveUpdates>' pipelines ativos em execução neste espaço de trabalho.

Installation

ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND (Ficheiro do ambiente de base não encontrado)

SQLSTATE: nenhum atribuído

O ficheiro YAML do ambiente base está em falta. Verifique se o arquivo existe no caminho especificado.

Descrição: Ocorre quando o arquivo YAML do ambiente base necessário não pode ser encontrado no local esperado.

Ação sugerida: Verifique se o arquivo YAML do ambiente base existe no caminho especificado e tente novamente a instalação.

ERROR_BASE_ENVIRONMENT_FILE_READ

SQLSTATE: nenhum atribuído

Falha ao ler o arquivo de ambiente base devido à sintaxe incorreta ou ao formato do arquivo YAML. Por favor, reveja o conteúdo do ficheiro.

Descrição: Ocorre quando o arquivo YAML do ambiente base contém erros de sintaxe ou formato.

Ação sugerida: valide e corrija a sintaxe YAML no arquivo de ambiente e, em seguida, tente novamente a instalação.

ERROR_CONNECTION_REFUSED

SQLSTATE: nenhum atribuído

Não é possível conectar-se ao repositório de pacotes. Verifique a conectividade de rede, as configurações de firewall ou a disponibilidade do repositório.

Descrição: Ocorre quando o pip não consegue estabelecer uma conexão com o repositório de pacotes remoto devido a problemas de rede, restrições de firewall ou tempo de inatividade do repositório.

Ação sugerida: verifique a conectividade de rede, verifique as configurações de firewall ou proxy, confirme se a URL do repositório está acessível e tente novamente mais tarde se o repositório estiver temporariamente indisponível.

ERROR_CORE_PACKAGE_VERSION_CHANGE

SQLSTATE: nenhum atribuído

O pacote instalado é incompatível com os pacotes principais do Databricks. Alinhe as versões do pacote com as versões da biblioteca pré-instaladas e tente novamente as instalações.

Descrição: Ocorre quando uma versão de dependência central do Databricks (por exemplo, pyspark) é alterada.

Ação sugerida: Alinhe as versões do pacote instalado com as bibliotecas pré-instaladas e tente novamente a instalação.

ERRO_PACOTE_CRAN_NÃO_DISPONÍVEL

SQLSTATE: nenhum atribuído

O pacote CRAN não está disponível para a versão R pré-instalada neste computador.

Descrição: Ocorre quando um pacote R não é publicado para a versão R instalada na computação.

Ação sugerida: mude para um computador com uma versão R compatível ou escolha uma versão de pacote diferente.

ERROR_DBFS_DISABLED

SQLSTATE: nenhum atribuído

O acesso público à raiz do DBFS está desativado. Por favor, use um armazenamento alternativo.

Descrição: Ocorre ao tentar instalar bibliotecas do DBFS, mas a raiz pública do DBFS está desabilitada no espaço de trabalho.

Ação sugerida: use locais de armazenamento alternativos, como volumes de UC, arquivos de espaço de trabalho ou armazenamento remoto.

ERRO_DIRETÓRIO_NÃO_INSTALÁVEL

SQLSTATE: nenhum atribuído

O diretório não pode ser instalado devido à estrutura inválida do pacote Python. Verifique se o diretório está configurado corretamente.

Descrição: Ocorre quando pip install é executado em um diretório sem uma estrutura de pacote Python válida.

Ação sugerida: Verifique se o diretório contém um setup.py ou pyproject.toml e tente novamente, ou empacote-o como uma roda.

ERRO_INSTALAÇÃO_DUPLICADA

SQLSTATE: nenhum atribuído

Instalação de pacote duplicado detetada. Tente remover a entrada de pacote duplicada para o pacote e reinicie o cluster.

Descrição: Ocorre quando o mesmo pacote já está instalado no cluster e uma instalação duplicada é tentada.

Ação sugerida: Remova as entradas duplicadas do pacote e reinicie o cluster.

ERRO_FUNCIONALIDADE_DESATIVADA (ERROR_FEATURE_DISABLED)

SQLSTATE: nenhum atribuído

Os volumes do Catálogo Unity são desativados no espaço de trabalho. Entre em contato com o administrador do espaço de trabalho para ativar esse recurso.

Descrição: Ocorre quando os volumes do Catálogo Unity são desativados no espaço de trabalho, impedindo a instalação a partir de volumes UC.

Ação sugerida: entre em contato com o administrador do espaço de trabalho para habilitar os volumes do Catálogo Unity ou usar armazenamento alternativo.

ERRO_HASHE_INCOMPATIBILIDADE

SQLSTATE: nenhum atribuído

Incompatibilidade de hash do pacote detetada. O hash do pacote baixado não corresponde ao hash esperado.

Descrição: ocorre quando o hash de um pacote baixado não corresponde ao hash esperado.

Ação sugerida: Tente instalar novamente, reinicie o cluster e/ou mova instalações de pacotes grandes para arquivos de espaço de trabalho, volumes de UC ou um repositório PyPI privado.

ERROR_INVALID_FILE

SQLSTATE: nenhum atribuído

O arquivo especificado não pode ser instalado devido ao tipo de arquivo incorreto. Verifique se você está usando o tipo de arquivo válido e suportado.

Descrição: Ocorre quando o arquivo de biblioteca especificado não pode ser instalado devido ao tipo de arquivo ou formato incorreto.

Ação Sugerida: Use um tipo de ficheiro de biblioteca suportado (por exemplo, roda, jar) e verifique a validade do caminho.

ERROR_INVALID_REQUIREMENT

SQLSTATE: nenhum atribuído

Sintaxe incorreta ou entradas malformadas no arquivo de requisitos ou nas dependências do pacote. Verifique e corrija o conteúdo do arquivo de requisitos e das dependências do pacote.

Descrição: formato de requisito inválido ou malformado detetado no arquivo de requisitos ou nas especificações de dependência de um pacote.

Ação Sugerida: Use o formato correto (por exemplo, 'library-name==version') nos ficheiros de requisitos, verifique se os formatos de dependência dos pacotes são válidos e verifique erros tipográficos ou especificadores de versão não suportados.

ERROR_INVALID_SCRIPT_ENTRY_POINT (Ponto de entrada de script inválido)

SQLSTATE: nenhum atribuído

Ponto de entrada de script inválido. Verifique os pontos de entrada do pacote ou o arquivo setup.py.

Descrição: ocorre quando o ponto de entrada do script de console especificado não existe nos metadados do pacote.

Ação sugerida: verifique o nome do ponto de entrada no setup.py ou pyproject.toml ou entre em contato com o mantenedor do pacote.

ERRO_CONFIGURAÇÃO_DE_ARMAZENAMENTO_INVÁLIDA

SQLSTATE: nenhum atribuído

Valor de configuração de armazenamento inválido detetado para a conta de armazenamento em nuvem. Verifique a configuração de armazenamento, as configurações da conta e as credenciais.

Descrição: ocorre quando a configuração da conta de armazenamento em nuvem está malformada ou incorreta.

Ação sugerida: corrija a configuração de armazenamento da conta e tente instalar novamente.

ERROR_INVÁLIDO_ENTRADA_DO_UTILIZADOR

SQLSTATE: nenhum atribuído

Sintaxe de pacote inválida ou argumentos fornecidos. Verifique se a entrada e as opções para a instalação da biblioteca são válidas.

Descrição: Ocorre quando pip é invocado com opções ou argumentos inválidos.

Ação sugerida: verifique as opções de pip e a sintaxe do comando, corrija a entrada e tente instalar novamente.

ERROR_INVALID_WHEEL (Erro: Roda Inválida)

SQLSTATE: nenhum atribuído

Arquivo de roda corrompido, malformado ou inválido detetado. Verifique o arquivo de roda ou tente instalar novamente.

Descrição: Ocorre quando pip encontra um arquivo de roda corrompido, incompleto ou malformado durante a instalação.

Ação sugerida: limpe o cache do pip, baixe novamente ou reconstrua o pacote wheel, reinstale e verifique a sua integridade antes de tentar novamente.

ERROR_JAR_EVICTED

SQLSTATE: nenhum atribuído

O pacote JAR foi removido pelo resolvedor devido a conflitos de versão. Resolva conflitos de versão de dependência.

Descrição: Ocorre quando a resolução de dependência do Maven remove um jar devido a conflitos de versão com outras dependências.

Ação sugerida: resolva conflitos em sua configuração de dependência ou use substituições de versão explícitas.

ERRO_RESOLUÇÃO_BIBLIOTECA_MAVEN

SQLSTATE: nenhum atribuído

Não é possível resolver as coordenadas da biblioteca Maven. Verifique os detalhes da biblioteca, o acesso ao repositório ou a disponibilidade do repositório Maven.

Descrição: Ocorre quando o Maven não consegue localizar ou resolver a biblioteca especificada devido a coordenadas incorretas, problemas de rede ou tempo de inatividade do repositório.

Ação sugerida: verifique o formato groupId:artifactId:version, verifique URLs e credenciais do repositório, tente repositórios alternativos ou tente novamente mais tarde se o repositório estiver temporariamente indisponível.

ERROR_NO_MATCHING_DISTRIBUTION

SQLSTATE: nenhum atribuído

Não é possível baixar ou acessar os ativos de armazenamento em nuvem especificados, geralmente devido a configurações incorretas, dependências ausentes ou problemas de conectividade. Reveja a configuração do armazenamento na nuvem.

Descrição: ocorre quando o cluster não pode baixar ou instalar arquivos de biblioteca do armazenamento em nuvem, geralmente devido a configurações incorretas, dependências ausentes ou problemas de rede.

Ação sugerida: verifique se os URIs de armazenamento em nuvem estão corretos, se as credenciais são válidas e se todos os proxies ou bibliotecas de rede necessários estão configurados corretamente e, em seguida, tente instalar novamente.

ERROR_NO_SUCH_FILE_OR_DIRECTORY

SQLSTATE: nenhum atribuído

O arquivo de biblioteca não existe ou o usuário não tem permissão para ler o arquivo de biblioteca. Verifique se o arquivo da biblioteca existe e se o usuário tem as permissões certas para acessar o arquivo.

Descrição: Ocorre quando o arquivo especificado está ausente ou inacessível no caminho determinado durante a instalação da biblioteca.

Ação sugerida: verifique se o arquivo existe no caminho especificado, corrija o caminho ou carregue o arquivo ausente e garanta as permissões adequadas.

ERROR_OPERATION_NOT_SUPPORTED - Operação Não Suportada

SQLSTATE: nenhum atribuído

A instalação da biblioteca não é suportada para este tipo de ficheiro a partir do sistema de ficheiros solicitado. Verifique o tipo de biblioteca e consulte o guia do usuário sobre a biblioteca suportada na computação atual.

Descrição: Ocorre quando o sistema de arquivos de destino, o tipo de arquivo ou o tipo de computação não oferece suporte à operação solicitada durante a instalação.

Ação sugerida: use um sistema de arquivos, tipo de arquivo ou tipo de computação suportado ou ajuste o destino de instalação para um local suportado.

ERRO_PERMISSÃO_NEGADA

SQLSTATE: nenhum atribuído

O usuário não tem a permissão suficiente para instalar o pacote. Verifique os direitos de acesso ao arquivo e ao diretório para o usuário.

Descrição: Ocorre quando o usuário que instala não tem permissão para ler ou gravar um arquivo ou diretório durante a instalação.

Ação sugerida: verifique e conceda permissões adequadas no diretório de destino ou entre em contato com o administrador do sistema.

ERROR_PIP_CONFIG

SQLSTATE: nenhum atribuído

O usuário tentou instalar uma biblioteca Python, mas o arquivo de configuração pip do cluster ou do nível do espaço de trabalho tem erros de sintaxe ou está malformado. Verifique e corrija o arquivo pip config.

Descrição: Ocorre quando o arquivo de configuração do pip tem erros de sintaxe ou está malformado.

Ação sugerida: corrija os erros de sintaxe no arquivo de configuração pip, remova o arquivo de configuração para usar as configurações padrão, reinicie o cluster e tente novamente a instalação.

ERROR_PYTHON_REPL_RESTORE_FAILURE

SQLSTATE: nenhum atribuído

A restauração do Python REPL falhou após a instalação do pacote.

Descrição: Normalmente ocorre quando os pacotes Python principais são atualizados de forma a quebrar o ambiente de execução durante a restauração.

Ação Sugestida: Revise pacotes instalados recentemente e instale pacotes compatíveis com os padrões do Ambiente Databricks, como numpy, pandas, pyspark e outras bibliotecas padrão. Garanta que as versões são compatíveis com a versão do seu Databricks Runtime. Se continuar a falhar, por favor contacte o Suporte da Databricks.

ERROR_REQUIREMENTS_FILE_INSTALLATION

SQLSTATE: nenhum atribuído

Arquivos de requirements.txt que contêm um volume do Catálogo Unity ou uma referência de arquivo de espaço de trabalho não são suportados em clusters que não têm UC habilitado. Utilize um cluster com capacidades de UC para instalar o ficheiro requirements.txt que se refira a um volume de UC ou ficheiro de área de trabalho.

Descrição: ocorre quando o arquivo requirements.txt inclui volumes de UC ou referências de arquivos de espaço de trabalho num cluster não habilitado para UC.

Ação sugerida: use um cluster habilitado para UC para requirements.txt que faça referência a arquivos de espaço de trabalho ou UC ou remova essas referências.

ERROR_REQUIRE_HASHES

SQLSTATE: nenhum atribuído

Faltam hashes quando o pip é executado no modo --require-hashes e um requisito não possui um hash. Por favor, aborde os requisitos de hash ou desative a verificação de hash.

Descrição: Ocorre quando pip é executado no modo --require-hashes e um requisito não tem um hash.

Ação sugerida: adicione hashes para todos os pacotes no requirements.txt ou remova o sinalizador --require-hashes.

ERROR_RESTART_PYTHON

SQLSTATE: nenhum atribuído

Falha ao reiniciar o processo Python. Isso pode ser devido à atualização da versão de um pacote que entra em conflito com as bibliotecas de tempo de execução pré-instaladas. Verifique e alinhe as dependências do pacote e suas versões.

Descrição: Ocorre quando o ambiente Python não pode ser reiniciado após a instalação da biblioteca, geralmente devido a conflitos entre pacotes instalados e bibliotecas de tempo de execução do Databricks pré-instaladas.

Ação sugerida: Alinhe as versões do pacote instalado com as bibliotecas de tempo de execução do Databricks pré-instaladas para evitar conflitos e erros de reinicialização do Python.

ERROR_RESTART_SCALA

SQLSTATE: nenhum atribuído

Falha ao reiniciar o processo Scala. Isto pode dever-se a uma incompatibilidade de versões do Scala nos JARs do Scala (por exemplo, correr jar 2.12 num kernel 2.13). Verifique e alinhe as versões do Scala.

Descrição: Ocorre quando o ambiente Scala não pode ser reiniciado, geralmente devido a conflitos de incompatibilidade de versão do Scala em JARs scala.

Ação sugerida: Alinhe as versões do JAR scala com a versão do kernel scala para evitar conflitos e erros de reinicialização do Scala.

ERROR_S3_FORBIDDEN

SQLSTATE: nenhum atribuído

Acesso negado ao recurso do S3. Verifique as permissões do IAM e as políticas de bucket.

Descrição: as credenciais da AWS do cluster não têm permissões suficientes para acessar o recurso especificado do S3.

Ação sugerida: verifique e atualize as políticas de bucket do S3 ou as funções do IAM para conceder o acesso de leitura necessário ao cluster.

ERROR_SCALA_INSTALLATION

SQLSTATE: nenhum atribuído

Falhei em instalar dependências de Java devido a problemas de permissões ou ficheiros em falta.

Descrição: Ocorre quando dependências de Java não podem ser instaladas, frequentemente devido a caminhos inválidos, URLs ou permissões insuficientes de ficheiros.

Ação Sugerida: Verificar os caminhos dos ficheiros e URLs, garantir as permissões adequadas e tentar novamente a instalação.

ERROR_SETUP_PY_FAILURE

SQLSTATE: nenhum atribuído

O setup.py do pacote Python não foi executado com êxito devido a problemas de compatibilidade, dependências ausentes ou erros de configuração. Verifique o arquivo de configuração de suas dependências.

Descrição: Ocorre quando o script setup.py do pacote falha devido a problemas de compatibilidade, dependências ausentes ou erros de configuração.

Ação sugerida: Atualizar versões de pacotes, instalar dependências ausentes, substituir pacotes preteridos e verificar o script setup.py.

ERROR_SSL_VIOLATION (Violação SSL)

SQLSTATE: nenhum atribuído

Pip encontrou problemas de handshake ou verificação de certificado SSL. Reveja as configurações e certificados SSL no seu computador ou espaço de trabalho.

Descrição: Ocorre quando o pip encontra problemas de handshake SSL ou de verificação de certificado ao conectar-se a repositórios de pacotes.

Ação sugerida: verifique se os certificados SSL são válidos, configure hosts confiáveis no pip ou verifique a configuração SSL da rede.

ERROR_UC_ASSET_NOT_FOUND

SQLSTATE: nenhum atribuído

Objeto Unity Catalog não encontrado. Verifique se o catálogo, o esquema e o volume existem.

Descrição: ocorre quando o volume, catálogo ou esquema do Catálogo Unity especificado não existe ou está inacessível

Ação sugerida: verifique se o caminho do objeto do Unity Catalog está correto e se o objeto existe na sua conta.

ERROR_UNSUPPORTED_LIBRARY_TYPE

SQLSTATE: nenhum atribuído

O tipo de biblioteca não é suportado neste cálculo. Verifique as bibliotecas suportadas para o tipo de computação.

Descrição: Ocorre ao tentar instalar um tipo de biblioteca que não é compatível com a computação selecionada.

Ação sugerida: use um tipo de biblioteca suportado para este cálculo ou alterne para um computador que ofereça suporte a este libraryType.

ERROR_UNSUPPORTED_PYTHON_VERSION (Erro: Versão do Python não suportada)

SQLSTATE: nenhum atribuído

A biblioteca Python é incompatível com a versão Python neste computador. Use um cálculo com uma versão compatível do Python.

Descrição: Ocorre quando a restrição de python_requires um pacote não corresponde à versão do Python em execução na computação.

Ação sugerida: instale uma versão do pacote que suporte a versão atual do Python ou altere a versão de computação.

ERROR_UNSUPPORTED_SSL_ENABLED

SQLSTATE: nenhum atribuído

A instalação falha quando a configuração spark.ssl.enabled está ativada, o que não é suportado para a instalação da biblioteca. Desative a configuração SSL e reinicie o cluster.

Descrição: Ocorre quando a configuração spark.ssl.enabled está ativada, o que não é suportado para a instalação da biblioteca.

Ação sugerida: desative a configuração SSL (por exemplo, defina spark.ssl.enabled=false ou defina spark.databricks.libraries.ignoreSSL=true) e reinicie o cluster.

ERROR_USER_NOT_FOUND_IN_WORKSPACE

SQLSTATE: nenhum atribuído

A instalação da biblioteca falhou porque o usuário não foi encontrado no espaço de trabalho. Isso normalmente acontece quando um usuário foi removido do espaço de trabalho, mas seu token ainda está sendo usado.

Descrição: ocorre quando o token de acesso de um usuário está em uso, mas o usuário não existe mais no espaço de trabalho especificado.

Ação sugerida: verifique se o usuário tem acesso ao espaço de trabalho ou atualize a configuração do cluster para usar as credenciais de um usuário válido.

ERROR_VOLUME_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

Permissões insuficientes no volume do Unity Catalog. Verifique os direitos de acesso ao volume UC ou solicite acesso ao proprietário do volume UC.

Descrição: ocorre quando o usuário não tem permissões no volume UC especificado.

Ação sugerida: solicite permissões de LEITURA no volume do Catálogo Unity ao proprietário ou administrador do volume.

ERROR_WHEEL_BUILD

SQLSTATE: nenhum atribuído

Pip não pôde construir a roda com êxito devido a dependências de compilação ausentes ou erros. Verifique o conteúdo e as dependências do pacote de roda.

Descrição: Ocorre quando pip não consegue construir uma roda para o pacote devido a dependências ou erros de compilação ausentes.

Ação sugerida: Certifique-se de que as ferramentas de construção e os cabeçalhos estão instalados ou instale uma roda pré-construída com --no-binary.

ERROR_WHEEL_INSTALLATION

SQLSTATE: nenhum atribuído

A roda é incompatível com o cálculo atual devido a incompatibilidade de tag de plataforma ou um arquivo de roda inválido. Por favor, verifique o conteúdo do pacote wheel, as dependências e a sua compatibilidade com o sistema de computação.

Descrição: Ocorre quando o arquivo Wheel é inválido ou as tags da plataforma não são compatíveis.

Ação sugerida: Use uma roda construída para a plataforma atual ou reconstrua a roda com tags apropriadas.

FAULT_CLOUD_STORAGE_INSTALLATION

SQLSTATE: nenhum atribuído

Não é possível baixar ou acessar os ativos de armazenamento em nuvem especificados, geralmente devido a configurações incorretas ou problemas de conectividade. Reveja a configuração de armazenamento na nuvem.

Descrição: ocorre quando a computação não pode baixar ou instalar arquivos de biblioteca do armazenamento em nuvem, geralmente devido a configurações incorretas ou problemas de rede.

Ação sugerida: verifique se os URIs de armazenamento em nuvem estão corretos, se as credenciais são válidas e se todos os proxies ou bibliotecas de rede necessários estão configurados corretamente e, em seguida, tente instalar novamente.

FAULT_DBR_VERSION_EOS

SQLSTATE: nenhum atribuído

A versão do Databricks Runtime na computação atingiu seu fim de suporte e não é mais suportada. Por favor, utilize uma versão de tempo de execução do Databricks que seja suportada.

Descrição: Ocorre quando a biblioteca é instalada em uma versão do Databricks Runtime que não recebe mais atualizações ou suporte.

Ação sugerida: atualize o cluster para uma versão suportada do Databricks Runtime e tente novamente a instalação.

FAULT_POLLER_ALLOWLIST_VALIDATION

SQLSTATE: nenhum atribuído

A instalação da biblioteca está bloqueada devido à falta na lista de permissões. Isso pode acontecer se uma biblioteca for removida da lista de permissões depois de ter sido adicionada a um cluster. Verifique a lista de permissões da biblioteca, solicite ao administrador que adicione bibliotecas à lista de permissões ou remova pacotes não autorizados do cluster.

Descrição: Ocorre quando uma ou mais bibliotecas solicitadas não são aprovadas na lista de permissões do metastore e são bloqueadas na instalação. Isso também pode acontecer se uma biblioteca foi permitida anteriormente, mas depois removida da lista de permissões.

Ação sugerida: verifique a lista de permissões do metastore, solicite ao administrador que adicione as bibliotecas ausentes à lista de permissões ou remova bibliotecas não autorizadas do cluster.

FAULT_POLLER_DBR_UNSUPPORTED

SQLSTATE: nenhum atribuído

A versão do Databricks Runtime no cluster atingiu seu fim de suporte e não é mais suportada. Por favor, utilize uma versão de tempo de execução do Databricks que seja suportada.

Descrição: Ocorre quando a biblioteca é instalada em uma versão do Databricks Runtime que não recebe mais atualizações ou suporte.

Ação sugerida: altere o cluster para usar uma versão suportada do Databricks Runtime e tente novamente a instalação.

FORMATO_DE_ARMAZENAMENTO_NÃO_SUPORTADO_PELA_BIBLIOTECA_DE_POLLING_DE_ERROS

SQLSTATE: nenhum atribuído

A versão selecionada do Databricks Runtime pode não suportar determinados formatos de armazenamento de biblioteca, como caminhos gs:// ou abfss://. Atualize o Databricks Runtime ou consulte o guia do usuário sobre os recursos para diferentes versões do Databricks Runtime.

Descrição: Ocorre quando a versão do Databricks Runtime não suporta o formato ou protocolo de armazenamento de biblioteca especificado.

Ação sugerida: use um esquema de armazenamento suportado ou atualize para uma versão do Databricks Runtime que suporte o formato de armazenamento desejado.

FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR (Erro: Catálogo de Unidade não disponível)

SQLSTATE: nenhum atribuído

A instalação da biblioteca requer o Unity Catalog, mas o Unity Catalog não está disponível no cluster ou no espaço de trabalho. Entre em contato com o administrador do espaço de trabalho para ativar esse recurso.

Descrição: Ocorre quando uma instalação de biblioteca requer o Unity Catalog, mas o Unity Catalog não está disponível no espaço de trabalho.

Ação sugerida: solicite a administração para habilitar o Catálogo Unity em seu espaço de trabalho ou use um cluster que ofereça suporte ao Catálogo Unity.

Falha de Acesso ao Armazenamento

SQLSTATE: nenhum atribuído

Não é possível acessar recursos de armazenamento em nuvem devido a problemas de credencial, rede ou permissão. Verifique a configuração de acesso ao armazenamento na nuvem.

Descrição: ocorre quando a computação não pode acessar os recursos de armazenamento em nuvem devido a problemas de credencial, rede ou permissão.

Ação sugerida: verifique as credenciais de armazenamento, a conectividade de rede e as permissões de acesso e, em seguida, tente instalar novamente.

Miscellaneous

ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION

SQLSTATE: nenhum atribuído

DBR versão <abacDBRMajorVersion>. <abacDBRMinorVersion> ou superior é necessário para consultar a tabela <tableFullName>, devido a ela estar protegida por uma política ABAC.

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE: nenhum atribuído

Credenciais do Azure Entra (também conhecido como Azure Ative Directory) ausentes.

Certifique-se de que tem sessão iniciada com a sua conta Entra

ou ter configurado um token de acesso pessoal (PAT) do Azure DevOps em Definições do Utilizador > Integração com Git.

Se não estiveres a usar um PAT, mas estiveres a usar o Azure DevOps com a API de Repos,

você deve usar um token de acesso do Azure Entra.

Consulte https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token as etapas para adquirir um token de acesso do Azure Entra.

<pickOrCreateNewCredential>

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE: nenhum atribuído

Encontrou um erro com suas credenciais do Azure Entra (Azure Ative Directory). Por favor, tente sair do

Entra (https://portal.azure.com) e efetua login novamente.

Como alternativa, você também pode visitar Configurações do Usuário > Integração do Git para definir

configurar um token de acesso pessoal do Azure DevOps.

<pickOrCreateNewCredential>

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE: nenhum atribuído

Encontrou um erro com suas credenciais do Azure Ative Directory. Por favor, tente sair do

Azure Active Directory (https://portal.azure.com) e efetuando login novamente.

<pickOrCreateNewCredential>

AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR

SQLSTATE: nenhum atribuído

Houve um erro com o Azure Workload Identity com uma Exceção do Azure: <azureWorkloadIdentityExceptionMessage>

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE: nenhum atribuído

A geração de credenciais para compartilhamento delta de sala limpa protegível não pode ser solicitada.

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

Protegível <securableName> com tipo <securableType> e tipo <securableKind> é gerenciado pelo sistema de sala limpa, o usuário não tem acesso.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: nenhum atribuído

Restrição com nome <constraintName> já existe, escolha um nome diferente.

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

A restrição <constraintName> não existe.

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE: nenhum atribuído

Não foi possível ler o repositório remoto (<repoUrl>).

Foi usada<because> a <credentialName> (<credentialId>) credencial.

O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.

Vá ao seu provedor Git remoto para garantir que:

  1. Seu URL de repositório Git remoto é válido.

  2. O seu token de acesso pessoal ou palavra-passe da aplicação tem o acesso correto ao repositório.

<pickOrCreateNewCredential>

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE: nenhum atribuído

Não foi possível resolver host para <repoUrl>.

Foi usada<because> a <credentialName> (<credentialId>) credencial.

O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE: nenhum atribuído

O parâmetro beginning_of_time não pode ser verdadeiro.

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE: nenhum atribuído

Token de continuação expirado. Causa: <msg>

CSMS_CREDENTIAL_NAME_MISSING

SQLSTATE: nenhum atribuído

O nome da credencial está em falta no pedido

CSMS_FILE_EVENTS_VALIDATION_USER_ERROR

SQLSTATE: nenhum atribuído

Validação de eventos do ficheiro falhou para operação <operation>: <message>

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE: nenhum atribuído

Token de continuação inválido. Causa: <msg>

CSMS_INVALID_FILE_EVENTS_QUEUE

SQLSTATE: nenhum atribuído

<missingField> está em falta no <queueType> pedido

CSMS_INVALID_MAX_OBJECTS

SQLSTATE: nenhum atribuído

Valor <value> inválido para o parâmetro max_objects, valor esperado em [<minValue>, <maxValue>]

CSMS_INVALID_SUBSCRIPTION_ID

SQLSTATE: nenhum atribuído

ID de subscrição inválida. Causa: <msg>

CSMS_INVALID_URI_FORMAT

SQLSTATE: nenhum atribuído

Formato URI inválido. É esperado um volume (por exemplo, "/Volumes/catalog/schema/volume") ou um caminho de armazenamento em nuvem (por exemplo, "s3://some-uri")

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE: nenhum atribuído

Deve fornecer um tópico Kafka

CSMS_LOCATION_ERROR

SQLSTATE: nenhum atribuído

Falha ao listar objetos. Há problemas no local que precisam ser resolvidos. Detalhes: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE: nenhum atribuído

Nenhum local encontrado para uri <path>

CSMS_METASTORE_ID_MISSING

SQLSTATE: nenhum atribuído

Deve fornecer o metastore uuid

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE: nenhum atribuído

Não é possível determinar um metastore para a solicitação.

CSMS_RESOLVE_CREDENTIAL_ID_FAILED

SQLSTATE: nenhum atribuído

Falharam a resolução do ID de credencial para credencial: <credentialName>

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE: nenhum atribuído

O CSMS não conseguiu resolver o nome do fragmento local

CSMS_SERVICE_DISABLED

SQLSTATE: nenhum atribuído

O serviço está desativado

CSMS_SHARD_NAME_MISSING_IN_REQUEST

SQLSTATE: nenhum atribuído

O nome do estilhaço está ausente de uma solicitação RPC para o CSMS

CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

A credencial de armazenamento não existe.

CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST

SQLSTATE: nenhum atribuído

A ID da assinatura está ausente na solicitação.

Assinatura do CSMS não encontrada

SQLSTATE: nenhum atribuído

Subscrição com id <id> não encontrada.

CSMS_UNITY_CATALOG_DISABLED

SQLSTATE: nenhum atribuído

O catálogo Unity está desativado para este espaço de trabalho

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE: nenhum atribuído

Entidade do Catálogo Unity não encontrada. Verifique se o catálogo, o esquema, o volume e/ou o local externo existem.

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

O local externo do Catálogo Unity não existe.

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE: nenhum atribuído

O URI sobrepõe-se a outros volumes

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

Não é possível determinar um metastore para a solicitação. Metastore não existe

CSMS_UNITY_CATALOG_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED

SQLSTATE: nenhum atribuído

URI aponta para uma tabela com filtro de nível de linha ou máscara de coluna. O acesso baseado em caminho a esta tabela não é permitido.

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

Permissão negada

CSMS_UNITY_CATALOG_RATE_LIMITED

SQLSTATE: nenhum atribuído

Limite de taxa de pedidos ultrapassado. Por favor, tenta novamente passado algum tempo.

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

A tabela Unity Catalog não existe.

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

O volume do Catálogo Unity não existe.

CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE

SQLSTATE: nenhum atribuído

Fila de eventos de ficheiros desconhecidos no pedido

CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE

SQLSTATE: nenhum atribuído

O tipo <resourceType> de recurso gerido não é suportado

CSMS_UNSUPPORTED_SECURABLE

SQLSTATE: nenhum atribuído

Securável sem suporte

CSMS_URI_MISSING

SQLSTATE: nenhum atribuído

Deve fornecer uma URI

CSMS_URI_TOO_LONG

SQLSTATE: nenhum atribuído

O URI fornecido é demasiado longo. O comprimento máximo permitido é <maxLength>.

CSMS_USER_CONTEXT_MISSING_IN_REQUEST

SQLSTATE: nenhum atribuído

O contexto do utilizador está ausente num pedido rpc para CSMS

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE: nenhum atribuído

O armazenamento padrão do Databricks não pode ser acessado usando a computação clássica. Use a computação sem servidor para acessar dados no armazenamento padrão

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE: nenhum atribuído

A operação falhou porque as credenciais do aplicativo GitHub vinculado não puderam ser atualizadas.

Tente novamente ou vá para Configurações do usuário > Integração do Git e tente revincular sua conta do provedor Git.

Se o problema persistir, envie um ticket de suporte.

<pickOrCreateNewCredential>

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE: nenhum atribuído

O link para sua conta do GitHub não tem acesso. Para corrigir este erro:

  1. Um administrador do repositório deve ir até https://github.com/apps/databricks/installations/new e instalar a aplicação Databricks GitHub no repositório.

Como alternativa, o proprietário de uma conta do GitHub pode instalar o aplicativo na conta para dar acesso aos repositórios da conta.

  1. Se a aplicação já estiver instalada, peça a um administrador para garantir que, ao usar o acesso delimitado com a opção 'Selecionar apenas repositórios', tenham incluído o acesso a este repositório ao selecioná-lo.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.

<pickOrCreateNewCredential>

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE: nenhum atribuído

As credenciais do aplicativo GitHub vinculado expiraram após 6 meses de inatividade.

Vá para Configurações do usuário, integração do Git >, e tente reassociar suas credenciais.

Se o problema persistir, envie um ticket de suporte.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE: nenhum atribuído

O link para sua conta do GitHub não tem acesso. Para corrigir este erro:

  1. O usuário <gitCredentialUsername> do GitHub deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo na conta <gitCredentialUsername> para permitir o acesso.

  2. Se o usuário <gitCredentialUsername> já instalou o aplicativo e está usando o acesso com escopo com a opção 'Somente selecionar repositórios', ele deve garantir que incluiu o acesso a este repositório selecionando-o.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE: nenhum atribuído

O link para sua conta do GitHub não tem acesso. Para corrigir este erro:

  1. Um proprietário da organização <organizationName> do GitHub deve ir a https://github.com/apps/databricks/installations/new e instalar a aplicação na organização <organizationName> para permitir o acesso.

  2. Se a aplicação já estiver instalada na organização <organizationName> do GitHub, certifique-se de que um proprietário dessa organização, ao usar o acesso com escopo utilizando a opção 'Somente selecionar repositórios', tenha incluído acesso a este repositório ao selecioná-lo.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE: nenhum atribuído

O link para sua conta do GitHub não tem acesso. Para corrigir este erro:

  1. Acesse https://github.com/apps/databricks/installations/new e instale a aplicação na sua conta <gitCredentialUsername> para conceder acesso.

  2. Se o aplicativo já estiver instalado e você estiver usando o acesso com escopo com a opção 'Somente selecionar repositórios', certifique-se de ter incluído o acesso a este repositório selecionando-o.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para mais informações.

<pickOrCreateNewCredential>

GIT_CLUSTER_NOT_READY

SQLSTATE: nenhum atribuído

O cluster Git não está pronto.

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE: nenhum atribuído

Credenciais inválidas do provedor Git para URL do repositório <repoUrl>.

Foi usada<because> a <credentialName> (<credentialId>) credencial.

O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.

Vá ao seu provedor Git remoto para garantir que:

  1. Você inseriu o e-mail ou nome de usuário correto do Git com suas credenciais de provedor do Git.

  2. O seu token tem o acesso correto ao repositório.

  3. Seu token não expirou.

  4. Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.

<pickOrCreateNewCredential>

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE: nenhum atribuído

Credenciais de Token de Acesso Pessoal do provedor Git inválidas para URL do repositório <repoUrl>.

Foi usada<because> a <credentialName> (<credentialId>) credencial.

O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.

Vá ao seu provedor Git remoto para garantir que:

  1. Você inseriu o e-mail ou nome de usuário correto do Git com suas credenciais de provedor do Git.

  2. O seu token tem o acesso correto ao repositório.

  3. Seu token não expirou.

  4. Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.

<pickOrCreateNewCredential>

.

GIT_CREDENTIAL_MISSING

SQLSTATE: nenhum atribuído

Nenhuma credencial Git configurada, mas credencial necessária para este repositório (<repoUrl>).

Vá para Configurações do usuário > integração do Git para configurar suas credenciais do Git.

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE: nenhum atribuído

Permissão de escrita no repositório <gitCredentialProvider> (<repoUrl>) não concedida.

Foi usada<because> a <credentialName> (<credentialId>) credencial.

O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.

Certifique-se de que você (<gitCredentialUsername>) tenha acesso de gravação a este repositório remoto.

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE: nenhum atribuído

Provedor de credenciais Git incorreto para o repositório.

Não tem uma credencial Git com um fornecedor Git (<repositoryGitProvider>) que corresponda à do fornecedor <repoUrl>Git do repositório.

Vá a Definições > de Utilizador Integração Git para criar uma nova credencial para o fornecedor <repositoryGitProvider>Git.

NOME_DO_ARQUIVO_NO_GIT_MUITO_LONGO

SQLSTATE: nenhum atribuído

Nome(s) de ficheiro ou pasta no caminho <path> excedem o limite máximo de <maxComponentBytes> bytes por componente.

Os sistemas baseados em Unix suportam apenas até <maxComponentBytes> bytes por nome de arquivo ou pasta.

Violações: <violations>

Por favor, reduza o(s) componente(s) ofensivo(s) para prosseguir.

GIT_PROVIDER_INFO_MISSING

SQLSTATE: nenhum atribuído

A informação do fornecedor Git está em falta ou está vazia.

Por favor, adicione a informação da credencial git e tente novamente.

Se o problema persistir, envie um ticket de suporte.

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE: nenhum atribuído

O cluster de proxy Git não está pronto.

GIT_PROXY_CONNECTION_FAILED

SQLSTATE: nenhum atribuído

Falha ao se conectar ao Git Proxy, verifique se o Git Proxy está instalado e funcionando.

Erro: <error>

GIT_SECRET_IN_CODE

SQLSTATE: nenhum atribuído

Segredos encontrados no commit. Detalhe: <secretDetail>. Para corrigir este erro:

Remova o segredo e tente novamente.

Se o problema persistir, envie um ticket de suporte.

GIT_STALE_REMOTE_REFS

SQLSTATE: nenhum atribuído

O git fetch foi concluído, mas não foi possível atualizar referências remotas obsoletas devido a conflitos no caminho do sistema de ficheiros (por exemplo, branches eliminadas ou 'feature' vs 'feature/sub').

Git error: <gitErrorMessage>

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE: nenhum atribuído

A conta de armazenamento do Azure não tem namespace hierárquico habilitado.

INVALID_FIELD_LENGTH

SQLSTATE: 54000

<rpcName> <fieldName> muito longo. O comprimento máximo é de <maxLength> caracteres.

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

<msg>

Para mais detalhes, ver INVALID_PARAMETER_VALUE

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE: nenhum atribuído

Task Framework: Não foi possível encontrar a saída de execução da tarefa para a tarefa com runId <runId> e orgId <orgId>.

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE: nenhum atribuído

Estrutura de Tarefas: Não foi possível encontrar o estado de execução para a tarefa com runId <runId> e orgId <orgId>.

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

A configuração do cliente RPC para a tarefa com o ID <taskId> não existe.

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE: nenhum atribuído

Tarefa com ID <taskId> não existe.

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE: nenhum atribuído

Registro de tarefas: JobTask não suportado ou desconhecido com classe <taskClassName>.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE: nenhum atribuído

Não é suportado o acesso baseado em caminho a tabela de clone superficial externa <tableFullName>. Em vez disso, use nomes de tabela para aceder ao clone superficial.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE: nenhum atribuído

A tabela de malha localizada em url '<url>' não foi encontrada. Use o comando REFRESH FOREIGN CATALOG para preencher tabelas Fabric.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE: nenhum atribuído

O acesso baseado em caminho à tabela <tableFullName> com filtro de linha ou máscara de coluna não é suportado.

PERMISSION_DENIED

SQLSTATE: nenhum atribuído

<principalName> não tem <msg> em <resourceType> '<resourceName>'.

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: nenhum atribuído

Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE: nenhum atribuído

Não é possível excluir objetos <resourceName> que não estão na lixeira

REDASH_PERMISSION_DENIED

SQLSTATE: nenhum atribuído

Não foi possível encontrar ou ter permissão para acessar o recurso <resourceId>

REDASH_QUERY_NOT_FOUND

SQLSTATE: nenhum atribuído

Não é possível localizar o recurso a partir da ID de consulta <queryId>

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE: nenhum atribuído

Não é possível criar um novo trecho de consulta

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE: nenhum atribuído

A cota para o número de trechos de consulta foi atingida. A quota atual é <quota>.

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE: nenhum atribuído

O gatilho especificado <trigger> já está em uso por outro trecho de consulta neste ambiente.

REDASH_RESOURCE_NOT_FOUND

SQLSTATE: nenhum atribuído

O recurso solicitado <resourceName> não existe

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: nenhum atribuído

Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE: nenhum atribuído

Não é possível restaurar objetos <resourceName> que não estão na lixeira

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE: nenhum atribuído

Não é possível lixar objetos já descartados <resourceName>

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE: nenhum atribuído

Não foi possível gerar o nome do recurso a partir do id <id>

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE: nenhum atribuído

Não é possível criar nova visualização

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE: nenhum atribuído

Não foi possível encontrar a visualização <visualizationId>

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE: nenhum atribuído

A cota para o número de visualizações na consulta <query_id> foi atingida. A quota atual é <quota>.

REPOSITORY_URL_NOT_FOUND

SQLSTATE: nenhum atribuído

Repositório remoto (<repoUrl>) não encontrado.

Foi usada<because> a <credentialName> (<credentialId>) credencial.

O fornecedor desta credencial Git é <gitCredentialProvider> e o email/nome de utilizador é <gitCredentialUsername>.

Vá ao seu provedor Git remoto para garantir que:

  1. Seu URL de repositório Git remoto é válido.

  2. O seu token de acesso pessoal ou palavra-passe da aplicação tem o acesso correto ao repositório.

<pickOrCreateNewCredential>

RESOURCE_ALREADY_EXISTS

SQLSTATE: 42710

<resourceType> '<resourceIdentifier>' já existe

RESOURCE_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<resourceIdentifier>' não existe.

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: nenhum atribuído

Consulta na tabela <tableFullName> com filtro de linha ou máscara de coluna não é suportada em clusters atribuídos.

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE: nenhum atribuído

A Tabela <tableFullName> está a ser partilhada com o Delta Sharing e não pode usar a segurança de linha/coluna.

SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE: nenhum atribuído

O serviço <serviceName> está temporariamente em manutenção. Tente novamente mais tarde.

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE: nenhum atribuído

A tabela <tableFullName> não pode ter simultaneamente segurança de linha/coluna e visões materializadas online.

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE: nenhum atribuído

Demasiadas linhas para atualizar, interrompendo a atualização.

UC_ABAC_UNSUPPORTED_TABLE_TYPE

SQLSTATE: nenhum atribuído

As políticas ABAC não são suportadas para o tipo <tableType>de tabela .