Partilhar via


pipelines grupo de comando

Note

Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Pré-Visualização Pública.

O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer disposições de Dados de Uso.

O pipelines grupo de comandos dentro da CLI do Databricks permite criar, editar, excluir, iniciar e exibir detalhes sobre pipelines. Veja Lakeflow Spark Declarative Pipelines.

Os pipelines do Databricks criam

Crie um novo pipeline de processamento de dados com base na configuração solicitada. Se for bem-sucedido, esse comando retornará a ID do novo pipeline.

databricks pipelines create [flags]

Arguments

None

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Exclusão de pipelines do Databricks

Exclua um pipeline.

databricks pipelines delete PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline a eliminar.

Opções

Bandeiras globais

Os pipelines Databricks obtêm

Obtenha um pipeline.

databricks pipelines get PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O processo para obter.

Opções

Bandeiras globais

Comandos das pipelines do Databricks para obter atualização

Obtenha uma atualização do pipeline em funcionamento.

databricks pipelines get-update PIPELINE_ID UPDATE_ID [flags]

Arguments

PIPELINE_ID

    O ID do pipeline.

UPDATE_ID

    A ID da atualização.

Opções

Bandeiras globais

Databricks pipelines listar-eventos-de-pipeline

Recuperar eventos para um pipeline.

databricks pipelines list-pipeline-events PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para o qual os eventos serão recuperados.

Opções

--filter string

    Critérios para selecionar um subconjunto de resultados, expressos usando uma sintaxe semelhante a SQL.

--max-results int

    Número máximo de entradas a serem retornadas em uma única página.

--page-token string

    Token da página devolvido pela chamada anterior.

Bandeiras globais

pipelines databricks list-pipelines

Listar pipelines definidos no sistema Delta Live Tables.

databricks pipelines list-pipelines [flags]

Arguments

None

Opções

--filter string

    Selecione um subconjunto de resultados com base nos critérios especificados.

--max-results int

    O número máximo de entradas a serem retornadas em uma única página.

--page-token string

    Token da página devolvido pela chamada anterior.

Bandeiras globais

Atualizações de lista de pipelines do Databricks

Listar atualizações para um pipeline ativo.

databricks pipelines list-updates PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para retornar atualizações.

Opções

--max-results int

    Número máximo de entradas a serem retornadas em uma única página.

--page-token string

    Token da página devolvido pela chamada anterior.

--until-update-id string

    Se presente, retorna atualizações até e incluindo este update_id.

Bandeiras globais

Databricks pipelines iniciar-atualizar

Inicie uma nova atualização do pipeline. Se já houver uma atualização ativa para o pipeline, a solicitação falhará e a atualização ativa permanecerá em execução.

databricks pipelines start-update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para iniciar uma atualização.

Opções

--cause StartUpdateCause

    Valores suportados: [API_CALL, TAREFA_JOB, REPETIR_EM_CASO_DE_FALHA, ALTERAÇÃO_DE_ESQUEMA, ATUALIZAÇÃO_DE_SERVIÇO, AÇÃO_DO_USUÁRIO]

--full-refresh

    Se verdadeiro, esta atualização redefinirá todas as tabelas antes de ser executada.

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

--validate-only

    Se verdadeiro, esta atualização apenas valida a exatidão do código-fonte do pipeline, mas não materializa nem publica nenhum conjunto de dados.

Bandeiras globais

Os pipelines do Databricks param

Pare o pipeline cancelando a atualização ativa. Se não houver nenhuma atualização ativa para o pipeline, essa solicitação será um no-op.

databricks pipelines stop PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O gasoduto para parar.

Opções

--no-wait

    não espere para chegar ao estado IDLE

--timeout duration

    tempo máximo para atingir o estado IDLE (padrão 20m0s)

Bandeiras globais

Atualização de pipelines do Databricks

Atualize um pipeline com a configuração fornecida.

databricks pipelines update PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    Identificador exclusivo para esta linha de processamento.

Opções

--allow-duplicate-names

    Se for falso, a implementação falhará se o nome tiver sido alterado e conflitar com o nome de outro pipeline.

--budget-policy-id string

    Política orçamental deste gasoduto.

--catalog string

    Um catálogo no Unity Catalog para publicar dados desse pipeline.

--channel string

    Lakeflow Spark Declarative Pipelines Release Channel que especifica qual versão usar.

--continuous

    Se o pipeline é contínuo ou acionado.

--development

    Indica se o pipeline está em modo de desenvolvimento.

--edition string

    Edição do produto Pipeline.

--expected-last-modified int

    Se presente, a hora da última modificação das configurações do pipeline antes da edição.

--id string

    Identificador exclusivo para esta linha de processamento.

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

--name string

    Identificador amigável para este fluxo de trabalho.

--photon

    Se o Photon está habilitado para esse pipeline.

--pipeline-id string

    Identificador exclusivo para esta linha de processamento.

--schema string

    O esquema padrão (banco de dados) do qual as tabelas são lidas ou publicadas.

--serverless

    Se a computação sem servidor está habilitada para esse pipeline.

--storage string

    Diretório raiz DBFS para armazenar pontos de verificação e tabelas.

--target string

    Esquema de destino (banco de dados) para ao qual adicionar tabelas neste pipeline.

Bandeiras globais

níveis de permissão de pipelines databricks

Obter os níveis de permissão do pipeline.

databricks pipelines get-permission-levels PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para o qual obter ou gerenciar permissões.

Opções

Bandeiras globais

Fluxos Databricks obter-permissões

Obtenha as permissões de um pipeline. Os pipelines podem herdar permissões do seu objeto raiz.

databricks pipelines get-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para o qual obter ou gerenciar permissões.

Opções

Bandeiras globais

configurar-permissões de pipelines do Databricks

Defina as permissões do pipeline.

Define permissões em um objeto, substituindo as permissões existentes, se elas existirem. Exclui todas as permissões diretas se nenhuma for especificada. Os objetos podem herdar permissões de seu objeto raiz.

databricks pipelines set-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para o qual obter ou gerenciar permissões.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Permissões de atualização do Databricks Pipelines

Atualize as permissões em um pipeline. Os pipelines podem herdar permissões do seu objeto raiz.

databricks pipelines update-permissions PIPELINE_ID [flags]

Arguments

PIPELINE_ID

    O pipeline para o qual obter ou gerenciar permissões.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Bandeiras globais

--debug

  Se o log de depuração deve ser habilitado.

-h ou --help

    Exiba a ajuda para a CLI do Databricks ou para o grupo de comandos relacionado ou para o comando relacionado.

--log-file string

    Uma cadeia de caracteres que representa o ficheiro onde os registos de saída são gravados. Se esse sinalizador não for especificado, o padrão é gravar logs de saída no stderr.

--log-format Formato

    O tipo de formato de log, text ou json. O valor predefinido é text.

--log-level string

    Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desativado.

-o, --output tipo

    O tipo de saída do comando, text ou json. O valor predefinido é text.

-p, --profile string

    O nome do perfil no arquivo ~/.databrickscfg a ser usado para executar o comando. Se esse sinalizador não for especificado, se ele existir, o perfil nomeado DEFAULT será usado.

--progress-format Formato

    O formato para exibir logs de progresso: default, append, inplace, ou json

-t, --target string

    Se aplicável, o destino do pacote a ser usado