Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Note
Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Pré-Visualização Pública.
O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer disposições de Dados de Uso.
O pipelines grupo de comandos dentro da CLI do Databricks permite criar, editar, excluir, iniciar e exibir detalhes sobre pipelines. Veja Lakeflow Spark Declarative Pipelines.
Os pipelines do Databricks criam
Crie um novo pipeline de processamento de dados com base na configuração solicitada. Se for bem-sucedido, esse comando retornará a ID do novo pipeline.
databricks pipelines create [flags]
Arguments
None
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.
Exclusão de pipelines do Databricks
Exclua um pipeline.
databricks pipelines delete PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline a eliminar.
Opções
Os pipelines Databricks obtêm
Obtenha um pipeline.
databricks pipelines get PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O processo para obter.
Opções
Comandos das pipelines do Databricks para obter atualização
Obtenha uma atualização do pipeline em funcionamento.
databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]
Arguments
PIPELINE_ID
O ID do pipeline.
UPDATE_ID
A ID da atualização.
Opções
Databricks pipelines listar-eventos-de-pipeline
Recuperar eventos para um pipeline.
databricks pipelines list-pipeline-events PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para o qual os eventos serão recuperados.
Opções
--filter string
Critérios para selecionar um subconjunto de resultados, expressos usando uma sintaxe semelhante a SQL.
--max-results int
Número máximo de entradas a serem retornadas em uma única página.
--page-token string
Token da página devolvido pela chamada anterior.
pipelines databricks list-pipelines
Listar pipelines definidos no sistema Delta Live Tables.
databricks pipelines list-pipelines [flags]
Arguments
None
Opções
--filter string
Selecione um subconjunto de resultados com base nos critérios especificados.
--max-results int
O número máximo de entradas a serem retornadas em uma única página.
--page-token string
Token da página devolvido pela chamada anterior.
Atualizações de lista de pipelines do Databricks
Listar atualizações para um pipeline ativo.
databricks pipelines list-updates PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para retornar atualizações.
Opções
--max-results int
Número máximo de entradas a serem retornadas em uma única página.
--page-token string
Token da página devolvido pela chamada anterior.
--until-update-id string
Se presente, retorna atualizações até e incluindo este update_id.
Databricks pipelines iniciar-atualizar
Inicie uma nova atualização do pipeline. Se já houver uma atualização ativa para o pipeline, a solicitação falhará e a atualização ativa permanecerá em execução.
databricks pipelines start-update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para iniciar uma atualização.
Opções
--cause StartUpdateCause
Valores suportados: [API_CALL, TAREFA_JOB, REPETIR_EM_CASO_DE_FALHA, ALTERAÇÃO_DE_ESQUEMA, ATUALIZAÇÃO_DE_SERVIÇO, AÇÃO_DO_USUÁRIO]
--full-refresh
Se verdadeiro, esta atualização redefinirá todas as tabelas antes de ser executada.
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.
--validate-only
Se verdadeiro, esta atualização apenas valida a exatidão do código-fonte do pipeline, mas não materializa nem publica nenhum conjunto de dados.
Os pipelines do Databricks param
Pare o pipeline cancelando a atualização ativa. Se não houver nenhuma atualização ativa para o pipeline, essa solicitação será um no-op.
databricks pipelines stop PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O gasoduto para parar.
Opções
--no-wait
não espere para chegar ao estado IDLE
--timeout duration
tempo máximo para atingir o estado IDLE (padrão 20m0s)
Atualização de pipelines do Databricks
Atualize um pipeline com a configuração fornecida.
databricks pipelines update PIPELINE_ID [flags]
Arguments
PIPELINE_ID
Identificador exclusivo para esta linha de processamento.
Opções
--allow-duplicate-names
Se for falso, a implementação falhará se o nome tiver sido alterado e conflitar com o nome de outro pipeline.
--budget-policy-id string
Política orçamental deste gasoduto.
--catalog string
Um catálogo no Unity Catalog para publicar dados desse pipeline.
--channel string
Lakeflow Spark Declarative Pipelines Release Channel que especifica qual versão usar.
--continuous
Se o pipeline é contínuo ou acionado.
--development
Indica se o pipeline está em modo de desenvolvimento.
--edition string
Edição do produto Pipeline.
--expected-last-modified int
Se presente, a hora da última modificação das configurações do pipeline antes da edição.
--id string
Identificador exclusivo para esta linha de processamento.
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.
--name string
Identificador amigável para este fluxo de trabalho.
--photon
Se o Photon está habilitado para esse pipeline.
--pipeline-id string
Identificador exclusivo para esta linha de processamento.
--schema string
O esquema padrão (banco de dados) do qual as tabelas são lidas ou publicadas.
--serverless
Se a computação sem servidor está habilitada para esse pipeline.
--storage string
Diretório raiz DBFS para armazenar pontos de verificação e tabelas.
--target string
Esquema de destino (banco de dados) para ao qual adicionar tabelas neste pipeline.
níveis de permissão de pipelines databricks
Obter os níveis de permissão do pipeline.
databricks pipelines get-permission-levels PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para o qual obter ou gerenciar permissões.
Opções
Fluxos Databricks obter-permissões
Obtenha as permissões de um pipeline. Os pipelines podem herdar permissões do seu objeto raiz.
databricks pipelines get-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para o qual obter ou gerenciar permissões.
Opções
configurar-permissões de pipelines do Databricks
Defina as permissões do pipeline.
Define permissões em um objeto, substituindo as permissões existentes, se elas existirem. Exclui todas as permissões diretas se nenhuma for especificada. Os objetos podem herdar permissões de seu objeto raiz.
databricks pipelines set-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para o qual obter ou gerenciar permissões.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.
Permissões de atualização do Databricks Pipelines
Atualize as permissões em um pipeline. Os pipelines podem herdar permissões do seu objeto raiz.
databricks pipelines update-permissions PIPELINE_ID [flags]
Arguments
PIPELINE_ID
O pipeline para o qual obter ou gerenciar permissões.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.
Bandeiras globais
--debug
Se o log de depuração deve ser habilitado.
-h ou --help
Exiba a ajuda para a CLI do Databricks ou para o grupo de comandos relacionado ou para o comando relacionado.
--log-file string
Uma cadeia de caracteres que representa o ficheiro onde os registos de saída são gravados. Se esse sinalizador não for especificado, o padrão é gravar logs de saída no stderr.
--log-format Formato
O tipo de formato de log, text ou json. O valor predefinido é text.
--log-level string
Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desativado.
-o, --output tipo
O tipo de saída do comando, text ou json. O valor predefinido é text.
-p, --profile string
O nome do perfil no arquivo ~/.databrickscfg a ser usado para executar o comando. Se esse sinalizador não for especificado, se ele existir, o perfil nomeado DEFAULT será usado.
--progress-format Formato
O formato para exibir logs de progresso: default, append, inplace, ou json
-t, --target string
Se aplicável, o destino do pacote a ser usado