Partilhar via


jobs grupo de comando

Note

Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Pré-Visualização Pública.

O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer disposições de Dados de Uso.

O jobs grupo de comandos dentro da CLI Databricks permite-te criar, editar e eliminar jobs. Veja Lakeflow Jobs.

Cancelar todas as execuções dos trabalhos do Databricks

Cancele todas as execuções ativas de uma tarefa. As execuções são canceladas de forma assíncrona, portanto, isso não impede que novas execuções sejam iniciadas.

databricks jobs cancel-all-runs [flags]

Arguments

None

Opções

--all-queued-runs

    Parâmetro booleano opcional para cancelar todas as execuções em fila.

--job-id int

    O identificador canônico do trabalho para cancelar todas as execuções.

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Tarefas do Databricks cancelar execução

Cancelar uma execução.

Cancela a execução de um trabalho ou de uma tarefa. A execução é cancelada de forma assíncrona, portanto, ainda pode estar em execução quando essa solicitação for concluída.

databricks jobs cancel-run RUN_ID [flags]

Arguments

RUN_ID

    Este campo é obrigatório.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

--no-wait

    não espere para alcançar o estado TERMINADO ou IGNORADO

--timeout duration

    tempo máximo para atingir o estado TERMINATED ou SKIPPED (padrão 20m0s)

Bandeiras globais

Criar tarefas Databricks

Crie um novo trabalho.

databricks jobs create [flags]

Arguments

None

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

databricks trabalhos excluir

Excluir um trabalho.

databricks jobs delete JOB_ID [flags]

Arguments

JOB_ID

    O identificador canónico do trabalho a eliminar. Este campo é obrigatório.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

databricks tarefas delete-run

Exclua uma execução não ativa. Retorna um erro se a execução estiver ativa.

databricks jobs delete-run RUN_ID [flags]

Arguments

RUN_ID

    ID da execução a ser excluída.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Trabalhos do Databricks Export-Run

Exportar e recuperar a execução de tarefas de trabalho.

databricks jobs export-run RUN_ID [flags]

Arguments

RUN_ID

    O identificador canônico para o processo. Este campo é obrigatório.

Opções

--views-to-export ViewsToExport

    Quais vistas exportar. Valores suportados: ALL, CODE, DASHBOARDS

Bandeiras globais

Databricks obter trabalhos

Recupera os detalhes de uma única tarefa.

Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para um único trabalho retornará todas as propriedades desse trabalho e os primeiros 100 elementos das propriedades da matriz (tarefas, job_clusters, ambientes e parâmetros). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se qualquer propriedade de matriz tiver mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. As matrizes sem resultados adicionais ficarão vazias nas páginas posteriores.

databricks jobs get JOB_ID [flags]

Arguments

JOB_ID

    O identificador canônico do trabalho sobre o qual recuperar informações. Este campo é obrigatório.

Opções

--page-token string

    Use o next_page_token retornado pela resposta GetJob anterior para solicitar a próxima página das propriedades do array do trabalho.

Bandeiras globais

Os trabalhos do Databricks são executados

Recupera os metadados de uma execução de tarefa.

Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades dessa execução e os primeiros 100 elementos das propriedades da matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se qualquer propriedade de matriz tiver mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. As matrizes sem resultados adicionais ficarão vazias nas páginas posteriores.

databricks jobs get-run RUN_ID [flags]

Arguments

RUN_ID

    O identificador principal da execução a partir do qual os metadados devem ser recuperados. Este campo é obrigatório.

Opções

--include-history

    Inclua o histórico de reparos na resposta.

--include-resolved-values

    Inclua valores de parâmetros resolvidos na resposta.

--page-token string

    Use o next_page_token retornado da resposta GetRun anterior para solicitar a próxima página das propriedades da matriz do run.

Bandeiras globais

Databricks Jobs Get-Run-Output

Recupere a saída e os metadados de uma única tarefa executada. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), é possível usar esse comando para obter esse valor. O Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar os resultados do trabalho em um serviço de armazenamento em nuvem.

Este comando valida que o parâmetro run_id é válido e devolve um código de estado HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se quiser fazer referência a eles além de 60 dias, salve os resultados de execução antigos antes que eles expirem.

databricks jobs get-run-output RUN_ID [flags]

Arguments

RUN_ID

    O identificador canônico para o processo.

Opções

Bandeiras globais

Lista de empregos do Databricks

Recupere uma lista de trabalhos.

databricks jobs list [flags]

Arguments

None

Opções

--expand-tasks

    Se os detalhes da tarefa e do cluster devem ser incluídos na resposta.

--limit int

    O número de empregos a serem retornados.

--name string

    Um filtro na lista com base no nome exato do trabalho (sem distinção entre maiúsculas e minúsculas).

--offset int

    O desfasamento da primeira tarefa a ser devolvida, em relação à tarefa criada mais recentemente.

--page-token string

    Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página ou a página anterior de empregos, respetivamente.

Bandeiras globais

Execuções na lista de trabalhos do Databricks

Listar execuções de trabalhos em ordem decrescente a partir da hora de início.

databricks jobs list-runs [flags]

Arguments

None

Opções

--active-only

    Se ative_only for verdadeiro, apenas as execuções ativas serão incluídas nos resultados; caso contrário, lista as execuções ativas e concluídas.

--completed-only

    Se completed_only for verdadeiro, apenas as execuções concluídas serão incluídas nos resultados; caso contrário, lista as execuções ativas e concluídas.

--expand-tasks

    Se os detalhes da tarefa e do cluster devem ser incluídos na resposta.

--job-id int

    O trabalho para o qual a lista de execução é feita.

--limit int

    O número de corridas a serem retornadas.

--offset int

    O desfasamento da primeira execução a retornar, em relação à execução mais recente.

--page-token string

    Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a página seguinte ou anterior de sequências de execuções, respectivamente.

--run-type RunType

    O tipo de corridas a retornar. Valores suportados: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]

--start-time-from int

    Mostrar execuções que começaram com ou após esse valor.

--start-time-to int

    Mostrar execuções que começaram em ou antes desse valor.

Bandeiras globais

Trabalhos de reparo do Databricks

Execute novamente uma ou mais tarefas de trabalho. As tarefas são executadas novamente como parte da execução original do trabalho. Eles usam as configurações atuais de trabalho e tarefa, que são visíveis no histórico da execução do trabalho original.

databricks jobs repair-run RUN_ID [flags]

Arguments

RUN_ID

    O ID de execução do trabalho a ser reparado. A corrida não deve estar em curso.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

--latest-repair-id int

    O ID da reparação mais recente.

--no-wait

    não espere para alcançar o estado TERMINADO ou IGNORADO

--performance-target PerformanceTarget

    O modo de desempenho em um trabalho sem servidor. Valores suportados: [PERFORMANCE_OPTIMIZED, STANDARD]

--rerun-all-failed-tasks

    Se verdadeiro, repare todas as tarefas falhadas.

--rerun-dependent-tasks

    Se verdadeiro, repare todas as tarefas que dependem das tarefas em rerun_tasks, mesmo que tenham sido bem-sucedidas anteriormente.

--timeout duration

    tempo máximo para atingir o estado TERMINATED ou SKIPPED (padrão 20m0s)

Bandeiras globais

redefinição de trabalhos do databricks

Substitua todas as configurações da tarefa determinada. Use o comando databricks jobs update para atualizar parcialmente as configurações de trabalho.

databricks jobs reset [flags]

Arguments

None

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Trabalhos do Databricks executados agora

Execute um trabalho e retorne o run_id da execução acionada.

databricks jobs run-now JOB_ID [flags]

Arguments

JOB_ID

    O ID do trabalho a ser realizado

Opções

--idempotency-token string

    Um token opcional para garantir a idempotência das solicitações de execução.

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

--no-wait

    não espere para alcançar o estado TERMINADO ou IGNORADO

--performance-target PerformanceTarget

    O modo de desempenho em um trabalho sem servidor. Valores suportados: [PERFORMANCE_OPTIMIZED, STANDARD]

--timeout duration

    tempo máximo para atingir o estado TERMINATED ou SKIPPED (padrão 20m0s)

Bandeiras globais

Envio de trabalhos do Databricks

Crie e acione uma execução única. Isso permite que você envie uma carga de trabalho diretamente sem criar um trabalho.

databricks jobs submit [flags]

Note

Os trabalhos submetidos com databricks jobs submit não são guardados como uma tarefa. Eles não aparecem na interface e não tentam novamente quando falham. Como não são guardados, o Azure Databricks não pode otimizar automaticamente a computação serverless em caso de falha. Se o teu trabalho falhar, podes querer usar computação clássica para especificar as necessidades de computação do trabalho. Em alternativa, use jobs create e jobs run-now para criar e executar o trabalho.

Arguments

None

Opções

--budget-policy-id string

    O utilizador especificou o ID da política de orçamento a ser usada para esta execução única.

--idempotency-token string

    Um token opcional que pode ser usado para garantir a idempotência das solicitações de execução de trabalho.

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

--no-wait

    não espere para alcançar o estado TERMINADO ou IGNORADO

--run-name string

    Um nome opcional para a execução.

--timeout duration

    tempo máximo para atingir o estado TERMINATED ou SKIPPED (padrão 20m0s)

--timeout-seconds int

    Um tempo limite opcional aplicado a cada execução desta tarefa.

Bandeiras globais

Atualização de tarefas do Databricks

Adicione, atualize ou remova configurações específicas de um trabalho existente. Use reset para substituir todas as definições de tarefas.

databricks jobs update JOB_ID [flags]

Arguments

JOB_ID

    O identificador canônico do trabalho a ser atualizado. Este campo é obrigatório.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

databricks tarefas obter-níveis-de-permissão

Obtenha níveis de permissão de trabalho.

databricks jobs get-permission-levels JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual obter ou gerir permissões.

Opções

Bandeiras globais

Obter permissões de tarefas do Databricks

Obtenha as permissões de uma tarefa. Os trabalhos podem herdar permissões do seu objeto raiz.

databricks jobs get-permissions JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual obter ou gerir permissões.

Opções

Bandeiras globais

Databricks Jobs Definir Permissões

Defina permissões de trabalho.

Define permissões em um objeto, substituindo as permissões existentes, se elas existirem. Exclui todas as permissões diretas se nenhuma for especificada. Os objetos podem herdar permissões de seu objeto raiz.

databricks jobs set-permissions JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual obter ou gerir permissões.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Permite atualizar permissões de trabalhos do Databricks

Atualize as permissões numa tarefa. Os trabalhos podem herdar permissões do seu objeto raiz.

databricks jobs update-permissions JOB_ID [flags]

Arguments

JOB_ID

    O trabalho para o qual obter ou gerir permissões.

Opções

--json JSON

    A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação.

Bandeiras globais

Bandeiras globais

--debug

  Se o log de depuração deve ser habilitado.

-h ou --help

    Exiba a ajuda para a CLI do Databricks ou para o grupo de comandos relacionado ou para o comando relacionado.

--log-file string

    Uma cadeia de caracteres que representa o ficheiro onde os registos de saída são gravados. Se esse sinalizador não for especificado, o padrão é gravar logs de saída no stderr.

--log-format Formato

    O tipo de formato de log, text ou json. O valor predefinido é text.

--log-level string

    Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desativado.

-o, --output tipo

    O tipo de saída do comando, text ou json. O valor predefinido é text.

-p, --profile string

    O nome do perfil no arquivo ~/.databrickscfg a ser usado para executar o comando. Se esse sinalizador não for especificado, se ele existir, o perfil nomeado DEFAULT será usado.

--progress-format Formato

    O formato para exibir logs de progresso: default, append, inplace, ou json

-t, --target string

    Se aplicável, o destino do pacote a ser usado