Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Importante
Esta documentação foi desativada e pode não ser atualizada.
Essas informações se aplicam às versões herdadas da CLI do Databricks 0.18 e inferiores. A Databricks recomenda que use uma versão mais recente do Databricks CLI, versão 0.205 ou superior. Consulte O que é a CLI do Databricks?. Para encontrar sua versão da CLI do Databricks, execute databricks -v.
Para migrar da CLI do Databricks versão 0.18 ou inferior para a CLI do Databricks versão 0.205 ou superior, consulte Migração da CLI do Databricks.
Você executa subcomandos da CLI de trabalhos do Databricks ao anexá-los a databricks jobs, e execuções de trabalhos do Databricks usam subcomandos da CLI ao anexá-los a databricks runs. Para que o trabalho Databricks execute subcomandos da CLI, consulte Executa CLI (legado). Juntamente, esses subcomandos chamam a API de Trabalhos e a API de Trabalhos 2.0.
Importante
A CLI de trabalhos do Databricks suporta chamadas para duas versões da API REST do Databricks Jobs: versões 2.1 e 2.0. A versão 2.1 adiciona suporte para orquestração de trabalhos com várias tarefas; consulte Lakeflow Jobs e Updating from Jobs API 2.0 to 2.1. O Databricks recomenda que você chame a versão 2.1, a menos que você tenha scripts herdados que dependem da versão 2.0 e que não podem ser migrados.
A menos que especificado de outra forma, os comportamentos programáticos descritos neste artigo aplicam-se igualmente às versões 2.1 e 2.0.
Requisitos para aceder à API REST de Tarefas 2.1
Para configurar e usar a CLI de trabalhos do Databricks (e a CLI de execução de trabalhos) para invocar a API REST Jobs 2.1, faça o seguinte:
Atualize a CLI para a versão 0.16.0 ou superior.
Execute um dos seguintes procedimentos:
- Execute o comando
databricks jobs configure --version=2.1. Isso adiciona a configuraçãojobs-api-version = 2.1ao arquivo~/.databrickscfgno Unix, Linux ou macOS, ou%USERPROFILE%\.databrickscfgno Windows. Todos os subcomandos da CLI de trabalhos (e da CLI de execuções de trabalhos) chamarão a API REST de Jobs 2.1 por padrão. - Adicione manualmente a configuração
jobs-api-version = 2.1ao arquivo~/.databrickscfgno Unix, Linux ou macOS, ou%USERPROFILE%\.databrickscfgno Windows. Todos os subcomandos da CLI de trabalhos (e da CLI de execuções de trabalhos) chamarão a API REST de Jobs 2.1 por padrão. - Anexe a opção
--version=2.1(por exemplo,databricks jobs list --version=2.1) para instruir a CLI de Jobs a chamar a API REST de Jobs 2.1 apenas para essa requisição.
Se não executar nenhuma das ações anteriores, a CLI de trabalhos (e a CLI de execução de trabalhos) chamará por padrão a API REST de Trabalhos 2.0.
- Execute o comando
Requisitos para chamar a API REST Jobs 2.0
Para configurar e usar a CLI dos trabalhos do Databricks (e a CLI de execução de trabalhos) para chamar a API REST de trabalhos 2.0, siga um destes procedimentos:
- Use uma versão da CLI do Databricks abaixo de 0.16.0 ou
-
Atualize a CLI para a versão X.Y.Z ou superior e siga um destes procedimentos:
- Execute o comando
databricks jobs configure --version=2.0. Isso adiciona a configuraçãojobs-api-version = 2.0ao arquivo~/.databrickscfgno Unix, Linux ou macOS, ou%USERPROFILE%\.databrickscfgno Windows. Todos os subcomandos de CLI de trabalhos (e CLI de execução de trabalhos) chamam, por padrão, a API REST Jobs 2.0. - Adicione manualmente a configuração
jobs-api-version = 2.0ao arquivo~/.databrickscfgno Unix, Linux ou macOS, ou%USERPROFILE%\.databrickscfgno Windows. Todos os subcomandos de CLI de trabalhos (e CLI de execução de trabalhos) chamam, por padrão, a API REST Jobs 2.0. - Anexe a opção
--version=2.1(por exemplo,databricks jobs list --version=2.0) para instruir a CLI de trabalhos a chamar a API REST de trabalhos 2.0 apenas para essa chamada.
- Execute o comando
Se não executar nenhuma das ações anteriores, a CLI de trabalhos (e a CLI de execução de trabalhos) chamará por padrão a API REST de Trabalhos 2.0.
Subcomandos e uso geral
databricks jobs -h
Usage: databricks jobs [OPTIONS] COMMAND [ARGS]...
Utility to interact with jobs.
Job runs are handled by ``databricks runs``.
Options:
-v, --version [VERSION]
-h, --help Show this message and exit.
Commands:
create Creates a job.
Options:
--json-file PATH File containing JSON request to POST to /api/2.0/jobs/create.
--json JSON JSON string to POST to /api/2.0/jobs/create.
delete Deletes a job.
Options:
--job-id JOB_ID Can be found in the URL at https://<databricks-instance>/?o=<16-digit-number>#job/$JOB_ID. [required]
get Describes the metadata for a job.
Options:
--job-id JOB_ID Can be found in the URL at https://<databricks-instance>/?o=<16-digit-number>#job/$JOB_ID. [required]
list Lists the jobs in the Databricks Job Service.
reset Resets (edits) the definition of a job.
Options:
--job-id JOB_ID Can be found in the URL at https://<databricks-instance>/?o=<16-digit-number>#job/$JOB_ID. [required]
--json-file PATH File containing JSON request to POST to /api/2.0/jobs/create.
--json JSON JSON string to POST to /api/2.0/jobs/create.
run-now Runs a job with optional per-run parameters.
Options:
--job-id JOB_ID Can be found in the URL at https://<databricks-instance>/#job/$JOB_ID. [required]
--jar-params JSON JSON string specifying an array of parameters. i.e. '["param1", "param2"]'
--notebook-params JSON JSON string specifying a map of key-value pairs. i.e. '{"name": "john doe", "age": 35}'
--python-params JSON JSON string specifying an array of parameters. i.e. '["param1", "param2"]'
--spark-submit-params JSON JSON string specifying an array of parameters. i.e. '["--class", "org.apache.spark.examples.SparkPi"]'
Criar um trabalho
Para exibir a documentação de uso, execute databricks jobs create --help.
Utilização geral
databricks jobs create --json-file create-job.json
Notas de uso da Jobs CLI 2.1 e exemplo de solicitação
Consulte Criar em Atualizações da API de Trabalhos 2.0 para 2.1.
Exemplo de carga útil da solicitação e resposta da Jobs CLI 2.0
create-job.json:
{
"name": "my-job",
"existing_cluster_id": "1234-567890-reef123",
"notebook_task": {
"notebook_path": "/Users/someone@example.com/My Notebook"
},
"email_notifications": {
"on_success": ["someone@example.com"],
"on_failure": ["someone@example.com"]
}
}
{ "job_id": 246 }
Gorjeta
Para copiar um trabalho, execute o create comando e passe um objeto JSON com as configurações do trabalho a ser copiado. Este exemplo copia as configurações do trabalho com a ID de 246 em um novo trabalho. Requer o o utilitário jq.
SETTINGS_JSON=$(databricks jobs get --job-id 246 | jq .settings)
databricks jobs create --json "$SETTINGS_JSON"
{ "job_id": 247 }
Eliminar um trabalho
Para exibir a documentação de uso, execute databricks jobs delete --help.
databricks job delete --job-id 246
Se for bem-sucedida, nenhuma saída será exibida.
Gorjeta
Para excluir vários trabalhos com a mesma configuração, obtenha a lista de IDs de trabalho que correspondem a essa configuração e execute o delete comando para cada ID de trabalho correspondente. Este exemplo exclui todos os trabalhos com o nome do trabalho de Untitled. Requer o o utilitário jq.
databricks jobs list --output json | jq '.jobs[] | select(.settings.name == "Untitled") | .job_id' | xargs -n 1 databricks jobs delete --job-id
Listar informações sobre um trabalho
Para exibir a documentação de uso, execute databricks jobs get --help.
Utilização geral
databricks jobs get --job-id 246
Notas de utilização e exemplo de resposta do Jobs CLI 2.1
Consulte Obter em Atualização da API de trabalhos 2.0 para 2.1.
Exemplo de resposta do Jobs CLI 2.0
{
"job_id": 246,
"settings": {
"name": "my-job",
"existing_cluster_id": "1234-567890-reef123",
"email_notifications": {
"on_success": [
"someone@example.com"
],
"on_failure": [
"someone@example.com"
]
},
"timeout_seconds": 0,
"notebook_task": {
"notebook_path": "/Users/someone@example.com/My Notebook"
},
"max_concurrent_runs": 1
},
"created_time": 1620163107742,
"creator_user_name": "someone@example.com"
}
Listar informações sobre vagas disponíveis
Para exibir a documentação de uso, execute databricks jobs list --help.
Utilização geral
databricks jobs list
Notas de utilização e exemplo de resposta do Jobs CLI 2.1
Consulte Lista em Atualização da API de Jobs 2.0 para 2.1.
Exemplo de resposta do Jobs CLI 2.0
{
"jobs": [
{
"job_id": 246,
"settings": {
"name": "my-job",
"existing_cluster_id": "1234-567890-reef123",
"email_notifications": {
"on_success": [
"someone@example.com"
],
"on_failure": [
"someone@example.com"
]
},
"timeout_seconds": 0,
"notebook_task": {
"notebook_path": "/Users/someone@example.com/My Notebook"
},
"max_concurrent_runs": 1
},
"created_time": 1620163107742,
"creator_user_name": "someone@example.com"
},
...
]
}
Listar todos os trabalhos (somente API 2.1)
Para instruir a CLI a retornar todos os trabalhos fazendo chamadas sequenciais para a API, use a --all opção. Para usar a --all opção, você deve definir a versão da API como 2.1.
databricks jobs list --all
Paginar a lista de trabalhos (somente API 2.1)
Para retornar uma lista de trabalhos paginados, use os --limit argumentos e --offset . Por padrão, a lista de trabalhos é retornada como uma tabela que contém a ID e o nome do trabalho. Para retornar opcionalmente um documento JSON contendo informações de trabalho, use o --output JSON argumento.
Para usar os --limit e os --offset argumentos, deves definir a versão da API como 2.1.
Ao usar --output JSON, a lista é retornada em ordem decrescente por data de criação da tarefa. Ao usar --output TABLEo , a lista é retornada em ordem decrescente por data de criação do trabalho e, em seguida, ordenada alfabeticamente pelo nome do trabalho.
As páginas de exemplo a seguir passam pela lista de trabalhos 10 trabalhos de cada vez e retornam os resultados no formato JSON:
databricks jobs list --output JSON --limit 10
databricks jobs list --output JSON --limit 10 --offset 10
databricks jobs list --output JSON --limit 10 --offset 20
Alterar as configurações de um trabalho
Para exibir a documentação de uso, execute databricks jobs reset --help.
Utilização geral
databricks jobs reset --job-id 246 --json-file reset-job.json
Notas de uso da Jobs CLI 2.1 e exemplo de solicitação
Consulte Atualizar e Redefinir em Atualização da API de Trabalhos 2.0 para 2.1.
Exemplo de solicitação da CLI 2.0 de trabalhos
reset-job.json:
{
"job_id": 246,
"existing_cluster_id": "2345-678901-batch234",
"name": "my-changed-job",
"notebook_task": {
"notebook_path": "/Users/someone@example.com/My Other Notebook"
},
"email_notifications": {
"on_success": ["someone-else@example.com"],
"on_failure": ["someone-else@example.com"]
}
}
Se for bem-sucedida, nenhuma saída será exibida.
Executar uma tarefa
Para exibir a documentação de uso, execute databricks jobs run-now --help.
databricks jobs run-now --job-id 246
{
"run_id": 122,
"number_in_job": 1
}