Compartilhar via


Grupo de comandos jobs

Note

Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Visualização Pública.

O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer provisionamentos de Dados de Uso.

O jobs grupo de comandos dentro da CLI do Databricks permite que você crie, edite e exclua trabalhos. Consulte Trabalhos do Lakeflow.

trabalhos do databricks cancelar todas as execuções

Cancelar todas as execuções ativas de um trabalho. As execuções são canceladas de maneira assíncrona, portanto, não impede que novas execuções sejam iniciadas.

databricks jobs cancel-all-runs [flags]

Arguments

None

Opções

--all-queued-runs

    Parâmetro booliano opcional para cancelar todas as execuções em espera.

--job-id int

    O identificador canônico do trabalho cujas todas as execuções cancelar.

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

cancelar execução de trabalhos do databricks

Cancela uma execução.

Cancela uma execução de trabalho ou uma execução de tarefa. A execução é cancelada de forma assíncrona, portanto, ela ainda pode estar em execução quando essa solicitação for concluída.

databricks jobs cancel-run RUN_ID [flags]

Arguments

RUN_ID

    Este campo é necessário.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

--no-wait

    não espere até atingir o estado ENCERRADO ou IGNORADO

--timeout duration

    máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)

Sinalizadores globais

criação de jobs no Databricks

Criar um novo trabalho.

databricks jobs create [flags]

Arguments

None

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

excluir tarefas do databricks

Exclua um trabalho.

databricks jobs delete JOB_ID [flags]

Arguments

JOB_ID

    O identificador canônico do trabalho a ser deletado. Este campo é necessário.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

execução de exclusão de trabalhos do databricks

Excluir uma execução não ativa. Retornará um erro se a execução estiver ativa.

databricks jobs delete-run RUN_ID [flags]

Arguments

RUN_ID

    ID da execução a ser excluída.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

Tarefas Databricks exportar execução

Exportar e recuperar a tarefa de execução do trabalho.

databricks jobs export-run RUN_ID [flags]

Arguments

RUN_ID

    O identificador canônico da execução. Este campo é necessário.

Opções

--views-to-export ViewsToExport

    Quais exibições a serem exportadas. Valores com suporte: ALL, CODE, DASHBOARDS

Sinalizadores globais

obtenha trabalhos do Databricks

Obtém os detalhes de uma única tarefa.

Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para um único trabalho retornará todas as propriedades para esse trabalho e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, ambientes e parâmetros). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.

databricks jobs get JOB_ID [flags]

Arguments

JOB_ID

    O identificador canônico do trabalho sobre o qual as informações serão recuperadas. Este campo é necessário.

Opções

--page-token string

    Use o next_page_token retornado da resposta de GetJob anterior para solicitar a próxima página das propriedades de matriz do trabalho.

Sinalizadores globais

trabalhos do databricks get-run

Recupera os metadados de uma execução de tarefa.

Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades para essa execução e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.

databricks jobs get-run RUN_ID [flags]

Arguments

RUN_ID

    O identificador canônico da execução para a qual os metadados devem ser recuperados. Este campo é necessário.

Opções

--include-history

    Inclua o histórico de reparos na resposta.

--include-resolved-values

    Inclua valores de parâmetro resolvidos na resposta.

--page-token string

    Use o next_page_token retornado da resposta de GetRun anterior para solicitar a próxima página das propriedades de matriz da execução.

Sinalizadores globais

databricks jobs obter-saída-da-execução

Recupere a saída e os metadados de uma única execução de tarefa. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), você pode usar esse comando para recuperar esse valor. O Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar os resultados do trabalho em um serviço de armazenamento em nuvem.

Esse comando valida se o parâmetro run_id é válido e retorna um código de status HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se você quiser referenciá-los além de 60 dias, salve os resultados de execução antigos antes que eles expirem.

databricks jobs get-run-output RUN_ID [flags]

Arguments

RUN_ID

    O identificador canônico da execução.

Opções

Sinalizadores globais

lista de trabalhos do databricks

Recupere uma lista de trabalhos.

databricks jobs list [flags]

Arguments

None

Opções

--expand-tasks

    Se deseja incluir detalhes da tarefa e do cluster na resposta.

--limit int

    O número de trabalhos a serem retornados.

--name string

    Um filtro na lista com base no nome exato do trabalho (sem diferenciação entre maiúsculas e minúsculas).

--offset int

    A contrapartida do primeiro trabalho a ser retornado em relação ao trabalho criado mais recentemente.

--page-token string

    Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página de trabalhos ou a anterior, respectivamente.

Sinalizadores globais

execuções de lista de trabalhos do databricks

Liste as execuções de trabalho em ordem decrescente de hora de início.

databricks jobs list-runs [flags]

Arguments

None

Opções

--active-only

    Se o parâmetro active_only for verdadeiro, somente as execuções ativas serão incluídas nos resultados; caso contrário, lista tanto as execuções ativas quanto as concluídas.

--completed-only

    Se completed_only for verdadeiro, somente as execuções concluídas serão incluídas nos resultados. Caso contrário, as execuções ativas e concluídas serão listadas.

--expand-tasks

    Se deseja incluir detalhes da tarefa e do cluster na resposta.

--job-id int

    O trabalho para o qual as execuções são listadas.

--limit int

    O número de execuções a ser retornado.

--offset int

    O deslocamento da primeira execução a ser retornada em relação à última.

--page-token string

    Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página de execuções ou a anterior, respectivamente.

--run-type RunType

    O tipo de execuções a ser retornado. Valores com suporte: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]

--start-time-from int

    Mostrar execuções iniciadas em ou após esse valor.

--start-time-to int

    Mostrar execuções iniciadas em ou antes desse valor.

Sinalizadores globais

reparo de execução de trabalhos do Databricks

Execute novamente uma ou mais tarefas de trabalho. As tarefas são executadas novamente como parte da execução do trabalho original. Eles usam as configurações atuais de trabalho e tarefa, e podem ser exibidos no histórico da execução original do trabalho.

databricks jobs repair-run RUN_ID [flags]

Arguments

RUN_ID

    O ID de execução do trabalho da execução a ser reparada. A execução não deve estar em andamento.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

--latest-repair-id int

    O ID do reparo mais recente.

--no-wait

    não espere até atingir o estado ENCERRADO ou IGNORADO

--performance-target PerformanceTarget

    O modo de desempenho em um trabalho sem servidor. Valores com suporte: [PERFORMANCE_OPTIMIZED, STANDARD]

--rerun-all-failed-tasks

    Se for verdadeiro, corrija todas as tarefas com falha.

--rerun-dependent-tasks

    Se for verdadeiro, repare todas as tarefas que dependem das tarefas em rerun_tasks, mesmo que tenham sido bem-sucedidas anteriormente.

--timeout duration

    máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)

Sinalizadores globais

redefinição de trabalhos do databricks

Substitua todas as configurações do trabalho especificado. Use o comando para atualizar parcialmente as databricks jobs update configurações do trabalho.

databricks jobs reset [flags]

Arguments

None

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

trabalhos do databricks executados agora

Execute uma tarefa e retorne o run_id da execução iniciada.

databricks jobs run-now JOB_ID [flags]

Arguments

JOB_ID

    O ID do trabalho a ser executado

Opções

--idempotency-token string

    Um token opcional para garantir a idempotência das solicitações de execução de trabalho.

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

--no-wait

    não espere até atingir o estado ENCERRADO ou IGNORADO

--performance-target PerformanceTarget

    O modo de desempenho em um trabalho sem servidor. Valores com suporte: [PERFORMANCE_OPTIMIZED, STANDARD]

--timeout duration

    máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)

Sinalizadores globais

Submissão de tarefas do Databricks

Crie e desencadeie uma execução única. Isso permite que você envie uma carga de trabalho diretamente sem criar um trabalho.

databricks jobs submit [flags]

Note

Os trabalhos enviados com databricks jobs submit não são salvos como um trabalho. Eles não aparecem na interface do usuário e não tentam novamente quando falham. Como eles não são salvos, o Azure Databricks não pode otimizar automaticamente a computação sem servidor em caso de falha. Se o trabalho falhar, talvez você queira usar a computação clássica para especificar as necessidades de computação para o trabalho. Como alternativa, use jobs create e jobs run-now para criar e executar o trabalho.

Arguments

None

Opções

--budget-policy-id string

    A ID da política de orçamento especificada pelo usuário a ser usada para esta execução única.

--idempotency-token string

    Um token opcional que pode ser usado para garantir a idempotência das solicitações de execução de trabalho.

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

--no-wait

    não espere até atingir o estado ENCERRADO ou IGNORADO

--run-name string

    Um nome opcional para a execução.

--timeout duration

    máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)

--timeout-seconds int

    Um tempo limite opcional aplicado a cada execução dessa tarefa.

Sinalizadores globais

atualização de tarefas do Databricks

Adicione, atualize ou remova configurações específicas de um trabalho existente. Use reset para sobrescrever todas as configurações de trabalho.

databricks jobs update JOB_ID [flags]

Arguments

JOB_ID

    O identificador canônico do trabalho a ser atualizado. Este campo é necessário.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

databricks tarefas get-permission-levels

Obter níveis de permissão de tarefas.

databricks jobs get-permission-levels JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual serão obtidas ou gerenciadas permissões.

Opções

Sinalizadores globais

permissões de obtenção de trabalhos do databricks

Consiga as permissões de uma tarefa. Os trabalhos podem herdar permissões de seus objetos raiz.

databricks jobs get-permissions JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual serão obtidas ou gerenciadas permissões.

Opções

Sinalizadores globais

databricks jobs definir-permissões

Definir permissões de trabalho.

Define permissões em um objeto, substituindo as permissões existentes se elas existirem. Excluirá todas as permissões diretas se nenhuma for especificada. Os objetos podem herdar permissões de seu objeto raiz.

databricks jobs set-permissions JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual serão obtidas ou gerenciadas permissões.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

atualizar permissões de trabalhos do Databricks

Atualize as permissões em uma tarefa. Os trabalhos podem herdar permissões de seus objetos raiz.

databricks jobs update-permissions JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual serão obtidas ou gerenciadas permissões.

Opções

--json JSON

    A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.

Sinalizadores globais

Sinalizadores globais

--debug

  Indica se deve habilitar o registro em log de depuração.

-h ou --help

    Exiba ajuda para a CLI do Databricks ou o grupo de comandos relacionado ou o comando relacionado.

--log-file corda

    Uma cadeia de caracteres que representa o arquivo para o qual gravar logs de saída. Se esse sinalizador não for especificado, o padrão será gravar logs de saída no stderr.

--log-format formato

    O tipo de formato de log, text ou json. O valor padrão é text.

--log-level corda

    Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desabilitado.

-o, --output tipo

    O tipo de saída de comando, text ou json. O valor padrão é text.

-p, --profile corda

    O nome do perfil no arquivo ~/.databrickscfg para usar ao executar o comando. Se esse sinalizador não for especificado, se existir, o perfil nomeado DEFAULT será usado.

--progress-format formato

    O formato para exibir logs de progresso: default, append, inplace ou json

-t, --target corda

    Se aplicável, o destino do pacote a ser usado