Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Grupo de comandos
Note
Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Visualização Pública.
O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer provisionamentos de Dados de Uso.
O jobs grupo de comandos dentro da CLI do Databricks permite que você crie, edite e exclua trabalhos. Consulte Trabalhos do Lakeflow.
trabalhos do databricks cancelar todas as execuções
Cancelar todas as execuções ativas de um trabalho. As execuções são canceladas de maneira assíncrona, portanto, não impede que novas execuções sejam iniciadas.
databricks jobs cancel-all-runs [flags]
Arguments
None
Opções
--all-queued-runs
Parâmetro booliano opcional para cancelar todas as execuções em espera.
--job-id int
O identificador canônico do trabalho cujas todas as execuções cancelar.
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
cancelar execução de trabalhos do databricks
Cancela uma execução.
Cancela uma execução de trabalho ou uma execução de tarefa. A execução é cancelada de forma assíncrona, portanto, ela ainda pode estar em execução quando essa solicitação for concluída.
databricks jobs cancel-run RUN_ID [flags]
Arguments
RUN_ID
Este campo é necessário.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
--no-wait
não espere até atingir o estado ENCERRADO ou IGNORADO
--timeout duration
máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)
criação de jobs no Databricks
Criar um novo trabalho.
databricks jobs create [flags]
Arguments
None
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
excluir tarefas do databricks
Exclua um trabalho.
databricks jobs delete JOB_ID [flags]
Arguments
JOB_ID
O identificador canônico do trabalho a ser deletado. Este campo é necessário.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
execução de exclusão de trabalhos do databricks
Excluir uma execução não ativa. Retornará um erro se a execução estiver ativa.
databricks jobs delete-run RUN_ID [flags]
Arguments
RUN_ID
ID da execução a ser excluída.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
Tarefas Databricks exportar execução
Exportar e recuperar a tarefa de execução do trabalho.
databricks jobs export-run RUN_ID [flags]
Arguments
RUN_ID
O identificador canônico da execução. Este campo é necessário.
Opções
--views-to-export ViewsToExport
Quais exibições a serem exportadas. Valores com suporte: ALL, CODE, DASHBOARDS
obtenha trabalhos do Databricks
Obtém os detalhes de uma única tarefa.
Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para um único trabalho retornará todas as propriedades para esse trabalho e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, ambientes e parâmetros). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.
databricks jobs get JOB_ID [flags]
Arguments
JOB_ID
O identificador canônico do trabalho sobre o qual as informações serão recuperadas. Este campo é necessário.
Opções
--page-token string
Use o next_page_token retornado da resposta de GetJob anterior para solicitar a próxima página das propriedades de matriz do trabalho.
trabalhos do databricks get-run
Recupera os metadados de uma execução de tarefa.
Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades para essa execução e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.
databricks jobs get-run RUN_ID [flags]
Arguments
RUN_ID
O identificador canônico da execução para a qual os metadados devem ser recuperados. Este campo é necessário.
Opções
--include-history
Inclua o histórico de reparos na resposta.
--include-resolved-values
Inclua valores de parâmetro resolvidos na resposta.
--page-token string
Use o next_page_token retornado da resposta de GetRun anterior para solicitar a próxima página das propriedades de matriz da execução.
databricks jobs obter-saída-da-execução
Recupere a saída e os metadados de uma única execução de tarefa. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), você pode usar esse comando para recuperar esse valor. O Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar os resultados do trabalho em um serviço de armazenamento em nuvem.
Esse comando valida se o parâmetro run_id é válido e retorna um código de status HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se você quiser referenciá-los além de 60 dias, salve os resultados de execução antigos antes que eles expirem.
databricks jobs get-run-output RUN_ID [flags]
Arguments
RUN_ID
O identificador canônico da execução.
Opções
lista de trabalhos do databricks
Recupere uma lista de trabalhos.
databricks jobs list [flags]
Arguments
None
Opções
--expand-tasks
Se deseja incluir detalhes da tarefa e do cluster na resposta.
--limit int
O número de trabalhos a serem retornados.
--name string
Um filtro na lista com base no nome exato do trabalho (sem diferenciação entre maiúsculas e minúsculas).
--offset int
A contrapartida do primeiro trabalho a ser retornado em relação ao trabalho criado mais recentemente.
--page-token string
Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página de trabalhos ou a anterior, respectivamente.
execuções de lista de trabalhos do databricks
Liste as execuções de trabalho em ordem decrescente de hora de início.
databricks jobs list-runs [flags]
Arguments
None
Opções
--active-only
Se o parâmetro active_only for verdadeiro, somente as execuções ativas serão incluídas nos resultados; caso contrário, lista tanto as execuções ativas quanto as concluídas.
--completed-only
Se completed_only for verdadeiro, somente as execuções concluídas serão incluídas nos resultados. Caso contrário, as execuções ativas e concluídas serão listadas.
--expand-tasks
Se deseja incluir detalhes da tarefa e do cluster na resposta.
--job-id int
O trabalho para o qual as execuções são listadas.
--limit int
O número de execuções a ser retornado.
--offset int
O deslocamento da primeira execução a ser retornada em relação à última.
--page-token string
Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página de execuções ou a anterior, respectivamente.
--run-type RunType
O tipo de execuções a ser retornado. Valores com suporte: [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]
--start-time-from int
Mostrar execuções iniciadas em ou após esse valor.
--start-time-to int
Mostrar execuções iniciadas em ou antes desse valor.
reparo de execução de trabalhos do Databricks
Execute novamente uma ou mais tarefas de trabalho. As tarefas são executadas novamente como parte da execução do trabalho original. Eles usam as configurações atuais de trabalho e tarefa, e podem ser exibidos no histórico da execução original do trabalho.
databricks jobs repair-run RUN_ID [flags]
Arguments
RUN_ID
O ID de execução do trabalho da execução a ser reparada. A execução não deve estar em andamento.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
--latest-repair-id int
O ID do reparo mais recente.
--no-wait
não espere até atingir o estado ENCERRADO ou IGNORADO
--performance-target PerformanceTarget
O modo de desempenho em um trabalho sem servidor. Valores com suporte: [PERFORMANCE_OPTIMIZED, STANDARD]
--rerun-all-failed-tasks
Se for verdadeiro, corrija todas as tarefas com falha.
--rerun-dependent-tasks
Se for verdadeiro, repare todas as tarefas que dependem das tarefas em rerun_tasks, mesmo que tenham sido bem-sucedidas anteriormente.
--timeout duration
máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)
redefinição de trabalhos do databricks
Substitua todas as configurações do trabalho especificado. Use o comando para atualizar parcialmente as databricks jobs update configurações do trabalho.
databricks jobs reset [flags]
Arguments
None
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
trabalhos do databricks executados agora
Execute uma tarefa e retorne o run_id da execução iniciada.
databricks jobs run-now JOB_ID [flags]
Arguments
JOB_ID
O ID do trabalho a ser executado
Opções
--idempotency-token string
Um token opcional para garantir a idempotência das solicitações de execução de trabalho.
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
--no-wait
não espere até atingir o estado ENCERRADO ou IGNORADO
--performance-target PerformanceTarget
O modo de desempenho em um trabalho sem servidor. Valores com suporte: [PERFORMANCE_OPTIMIZED, STANDARD]
--timeout duration
máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)
Submissão de tarefas do Databricks
Crie e desencadeie uma execução única. Isso permite que você envie uma carga de trabalho diretamente sem criar um trabalho.
databricks jobs submit [flags]
Note
Os trabalhos enviados com databricks jobs submit não são salvos como um trabalho. Eles não aparecem na interface do usuário e não tentam novamente quando falham. Como eles não são salvos, o Azure Databricks não pode otimizar automaticamente a computação sem servidor em caso de falha. Se o trabalho falhar, talvez você queira usar a computação clássica para especificar as necessidades de computação para o trabalho. Como alternativa, use jobs create e jobs run-now para criar e executar o trabalho.
Arguments
None
Opções
--budget-policy-id string
A ID da política de orçamento especificada pelo usuário a ser usada para esta execução única.
--idempotency-token string
Um token opcional que pode ser usado para garantir a idempotência das solicitações de execução de trabalho.
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
--no-wait
não espere até atingir o estado ENCERRADO ou IGNORADO
--run-name string
Um nome opcional para a execução.
--timeout duration
máximo de tempo para atingir o estado ENCERRADO ou IGNORADO (padrão de 20m0s)
--timeout-seconds int
Um tempo limite opcional aplicado a cada execução dessa tarefa.
atualização de tarefas do Databricks
Adicione, atualize ou remova configurações específicas de um trabalho existente. Use reset para sobrescrever todas as configurações de trabalho.
databricks jobs update JOB_ID [flags]
Arguments
JOB_ID
O identificador canônico do trabalho a ser atualizado. Este campo é necessário.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
databricks tarefas get-permission-levels
Obter níveis de permissão de tarefas.
databricks jobs get-permission-levels JOB_ID [flags]
Arguments
JOB_ID
O trabalho para o qual serão obtidas ou gerenciadas permissões.
Opções
permissões de obtenção de trabalhos do databricks
Consiga as permissões de uma tarefa. Os trabalhos podem herdar permissões de seus objetos raiz.
databricks jobs get-permissions JOB_ID [flags]
Arguments
JOB_ID
O trabalho para o qual serão obtidas ou gerenciadas permissões.
Opções
databricks jobs definir-permissões
Definir permissões de trabalho.
Define permissões em um objeto, substituindo as permissões existentes se elas existirem. Excluirá todas as permissões diretas se nenhuma for especificada. Os objetos podem herdar permissões de seu objeto raiz.
databricks jobs set-permissions JOB_ID [flags]
Arguments
JOB_ID
O trabalho para o qual serão obtidas ou gerenciadas permissões.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
atualizar permissões de trabalhos do Databricks
Atualize as permissões em uma tarefa. Os trabalhos podem herdar permissões de seus objetos raiz.
databricks jobs update-permissions JOB_ID [flags]
Arguments
JOB_ID
O trabalho para o qual serão obtidas ou gerenciadas permissões.
Opções
--json JSON
A cadeia de caracteres JSON inserida em linha ou o @path para o arquivo JSON com o corpo da solicitação.
Sinalizadores globais
--debug
Indica se deve habilitar o registro em log de depuração.
-h ou --help
Exiba ajuda para a CLI do Databricks ou o grupo de comandos relacionado ou o comando relacionado.
--log-file corda
Uma cadeia de caracteres que representa o arquivo para o qual gravar logs de saída. Se esse sinalizador não for especificado, o padrão será gravar logs de saída no stderr.
--log-format formato
O tipo de formato de log, text ou json. O valor padrão é text.
--log-level corda
Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desabilitado.
-o, --output tipo
O tipo de saída de comando, text ou json. O valor padrão é text.
-p, --profile corda
O nome do perfil no arquivo ~/.databrickscfg para usar ao executar o comando. Se esse sinalizador não for especificado, se existir, o perfil nomeado DEFAULT será usado.
--progress-format formato
O formato para exibir logs de progresso: default, append, inplace ou json
-t, --target corda
Se aplicável, o destino do pacote a ser usado