Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Note
Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Visualização Pública.
O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer disposições de Dados de Uso.
O clusters grupo de comandos dentro da CLI do Databricks permite criar, iniciar, editar, listar, encerrar e excluir clusters.
Um cluster Databricks é um conjunto de recursos e configurações de computação nos quais você executa cargas de trabalho de engenharia de dados, ciência de dados e análise de dados, como pipelines de ETL de produção, análise de streaming, análise ad-hoc e aprendizado de máquina. Consulte Visão geral da computação clássica.
Important
O Databricks retém informações de configuração de cluster para clusters encerrados por 30 dias. Para manter uma configuração de cluster multiuso mesmo depois de encerrada por mais de 30 dias, um administrador pode fixar um cluster na lista de clusters.
Alterar proprietário dos clusters no Databricks
Altere o proprietário do cluster. Você deve ser um administrador e o cluster deve ser encerrado para executar essa operação. O ID do aplicativo principal de serviço pode ser fornecido como um argumento para owner_username.
databricks clusters change-owner CLUSTER_ID OWNER_USERNAME [flags]
Arguments
CLUSTER_ID
O ID do cluster.
OWNER_USERNAME
Novo proprietário do cluster_id após a execução deste RPC.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
Criar clusters do Databricks
Crie um novo cluster. Esse comando adquire novas instâncias do provedor de nuvem, se necessário. Este comando é assíncrono; O cluster_id retornado pode ser usado para sondar o status do cluster. Quando este comando regressa, o cluster está num estado PENDENTE. O cluster pode ser usado assim que entra num estado EM EXECUÇÃO. A Databricks pode não ser capaz de adquirir alguns dos nós solicitados, devido a limitações do provedor de nuvem (limites de conta, preço à vista, etc.) ou problemas transitórios de rede.
Se o Databricks adquirir pelo menos 85% dos nós sob demanda solicitados, a criação do cluster será bem-sucedida. Caso contrário, o cluster termina com uma mensagem de erro informativa.
Em vez de criar a definição JSON do respetivo cluster do zero, o Databricks recomenda preencher a interface de utilizador de criação de computação e, em seguida, copiar a definição JSON gerada da interface do utilizador.
databricks clusters create SPARK_VERSION [flags]
Arguments
SPARK_VERSION
A versão Spark do cluster, por exemplo, 13.3.x-scala2.12. Uma lista de versões disponíveis do Spark pode ser recuperada usando a API Listar versões disponíveis do Spark .
Opções
--apply-policy-default-values
Quando definidos como verdadeiros, os valores fixos e predefinidos da política são usados para campos que são omitidos.
--autotermination-minutes int
Encerra automaticamente o cluster depois que ele fica inativo por esse tempo em minutos.
--cluster-name string
Nome do cluster solicitado pelo usuário.
--data-security-mode DataSecurityMode
O modo de segurança de dados decide qual modelo de governança de dados usar ao acessar dados de um cluster. Valores suportados: DATA_SECURITY_MODE_AUTO, DATA_SECURITY_MODE_DEDICATED, DATA_SECURITY_MODE_STANDARD, LEGACY_PASSTHROUGH, LEGACY_SINGLE_USER, LEGACY_SINGLE_USER_STANDARD, LEGACY_TABLE_ACLNONESINGLE_USER,USER_ISOLATION
--driver-instance-pool-id string
O ID opcional do pool de instâncias ao qual pertence o driver do cluster.
--driver-node-type-id string
O tipo de nó do driver do Spark.
--enable-elastic-disk
Dimensionamento automático do Armazenamento Local: quando ativado, esse cluster adquirirá dinamicamente espaço em disco adicional quando seus trabalhadores do Spark estiverem com pouco espaço em disco.
--enable-local-disk-encryption
Se o LUKS deve ser habilitado nos discos locais das VMs de cluster.
--instance-pool-id string
A ID opcional do pool de instâncias ao qual o cluster pertence.
--is-single-node
Este campo só pode ser utilizado quando o tipo = CLASSIC_PREVIEW.
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--kind Kind
O tipo de computação descrito por esta especificação de computação. Valores suportados: CLASSIC_PREVIEW
--no-wait
Não aguarde para atingir o estado RUNNING
--node-type-id string
Este campo codifica, através de um único valor, os recursos disponíveis para cada um dos nós do Spark neste cluster.
--num-workers int
Número de nós de trabalho que este cluster deve possuir.
--policy-id string
A ID da política de cluster usada para criar o cluster, se aplicável.
--runtime-engine RuntimeEngine
Determina o mecanismo de tempo de execução do cluster, padrão ou Photon. Valores suportados: NULL, PHOTON, STANDARD
--single-user-name string
Nome de usuário único se data_security_mode for SINGLE_USER.
--timeout duration
tempo máximo para atingir o estado RUNNING (padrão 20m0s)
--use-ml-runtime
Este campo só pode ser utilizado quando o tipo = CLASSIC_PREVIEW.
Exclusão dos clusters Databricks
Encerre o cluster com a ID especificada. O cluster é removido de forma assíncrona. Uma vez concluída a terminação, o cluster entra num TERMINATED estado. Se o aglomerado já estiver num estado TERMINATING ou TERMINATED, nada acontece.
databricks clusters delete CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster a ser encerrado.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--no-wait
Não espere para alcançar TERMINATED estado
--timeout duration
A quantidade máxima de tempo para atingir o estado TERMINATED (padrão 20 min 0 s)
Clusters Databricks Editar
Atualize a configuração de um cluster para corresponder aos atributos e tamanho fornecidos. Um cluster pode ser atualizado se estiver num estado de EXECUÇÃO ou TERMINADO.
Se um cluster for atualizado enquanto está em estado RUNNING, é reiniciado para que os novos atributos possam entrar em vigor.
Se um cluster for atualizado enquanto estiver num estado TERMINADO, permanece TERMINADO. Da próxima vez que for iniciado usando a API de clusters/start, os novos atributos entram em vigor. Qualquer tentativa de atualizar um cluster noutro estado é rejeitada com um código de erro INVALID_STATE.
Os clusters criados pelo serviço Databricks Jobs não podem ser editados.
databricks clusters edit CLUSTER_ID SPARK_VERSION [flags]
Arguments
CLUSTER_ID
ID do cluster
SPARK_VERSION
A versão Spark do cluster, por exemplo, 13.3.x-scala2.12. Uma lista de versões disponíveis do Spark pode ser recuperada usando a API Listar versões disponíveis do Spark .
Opções
--apply-policy-default-values
Use valores fixos e padrão da política para campos que são omitidos.
--autotermination-minutes int
Encerre automaticamente o cluster após ele estar inativo durante este tempo, em minutos.
--cluster-name string
Nome do cluster solicitado pelo usuário.
--data-security-mode DataSecurityMode
O modo de segurança de dados decide qual modelo de governança de dados usar ao acessar dados de um cluster. Valores suportados: DATA_SECURITY_MODE_AUTO, DATA_SECURITY_MODE_DEDICATED``, DATA_SECURITY_MODE_STANDARD, LEGACY_PASSTHROUGH, LEGACY_SINGLE_USER, LEGACY_SINGLE_USER_STANDARD, LEGACY_TABLE_ACL, NONE, SINGLE_USER, , USER_ISOLATION
--driver-instance-pool-id string
O ID opcional do pool de instâncias ao qual pertence o driver do cluster.
--driver-node-type-id string
O tipo de nó do driver do Spark.
--enable-elastic-disk
Dimensionamento automático do Armazenamento Local: quando ativado, esse cluster adquirirá dinamicamente espaço em disco adicional quando seus trabalhadores do Spark estiverem com pouco espaço em disco.
--enable-local-disk-encryption
Se o LUKS deve ser habilitado nos discos locais das VMs de cluster.
--instance-pool-id string
A ID opcional do pool de instâncias ao qual o cluster pertence.
--is-single-node
Este campo só pode ser utilizado quando o tipo = CLASSIC_PREVIEW.
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--kind Kind
O tipo de computação descrito por esta especificação de computação. Valores suportados: CLASSIC_PREVIEW
--no-wait
não aguarde para alcançar o estado RUNNING
--node-type-id string
Este campo codifica, através de um único valor, os recursos disponíveis para cada um dos nós do Spark neste cluster.
--num-workers int
Número de nós de trabalho que este cluster deve possuir.
--policy-id string
A ID da política de cluster usada para criar o cluster, se aplicável.
--runtime-engine RuntimeEngine
Determina o mecanismo de tempo de execução do cluster, padrão ou Photon. Valores suportados: NULL, PHOTON, STANDARD
--single-user-name string
Nome de usuário único se data_security_mode estiver SINGLE_USER.
--timeout duration
tempo máximo para atingir o estado RUNNING (padrão 20m0s)
--use-ml-runtime
Este campo só pode ser utilizado quando o tipo = CLASSIC_PREVIEW.
Eventos de clusters Databricks
Listar eventos sobre a atividade de um cluster. Esta API é paginada. Se houver mais eventos para ler, a resposta inclui todos os parâmetros necessários para solicitar a próxima página de eventos.
databricks clusters events CLUSTER_ID [flags]
Arguments
CLUSTER_ID
A ID do cluster sobre a qual recuperar eventos.
Opções
--end-time int
O tempo final em milissegundos de época.
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--limit int
Preterido: use page_token em combinação com page_size em vez disso.
--offset int
Preterido: use page_token em combinação com page_size em vez disso.
--order GetEventsOrder
A ordem para listar os eventos. Valores suportados: ASC, DESC
--page-size int
O número máximo de eventos a incluir numa página de eventos.
--page-token string
Use next_page_token ou prev_page_token retornados da requisição anterior para listar a página seguinte ou anterior de eventos, respetivamente.
--start-time int
A hora de início em milissegundos de época.
Obtém clusters Databricks
Obtém as informações de um cluster dado o seu identificador. Os clusters podem ser descritos enquanto estão em execução ou até 60 dias após serem encerrados.
databricks clusters get CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster sobre o qual se deve obter informações.
Opções
Lista de Clusters Databricks
Liste informações sobre todos os clusters fixos e ativos e todos os clusters encerrados nos últimos 30 dias. Os clusters terminados antes deste período não estão incluídos.
databricks clusters list [flags]
Arguments
None
Opções
--cluster-sources []string
Filtrar clusters por origem
--cluster-states []string
Filtrar clusters por estados
--is-pinned
Filtrar clusters por status fixado
--page-size int
Use este campo para especificar o número máximo de resultados a serem retornados pelo servidor.
--page-token string
Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a página seguinte ou anterior de clusters, respectivamente.
--policy-id string
Filtrar clusters por ID de política
Tipos de lista de nó de clusters Databricks
Liste os tipos de nó Spark suportados. Esses tipos de nó podem ser usados para iniciar um cluster.
databricks clusters list-node-types [flags]
Arguments
None
Opções
Zonas de lista de clusters Databricks
Liste as zonas de disponibilidade nas quais os clusters podem ser criados (por exemplo, us-west-2a). Essas zonas podem ser usadas para iniciar um cluster.
databricks clusters list-zones [flags]
Arguments
None
Opções
Databricks clusters exclusão permanente
Excluir cluster permanentemente. Esse cluster é encerrado e os recursos são removidos de forma assíncrona.
Além disso, os usuários não verão mais clusters excluídos permanentemente na lista de clusters e os usuários da API não poderão mais executar nenhuma ação em clusters excluídos permanentemente.
databricks clusters permanent-delete CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster a ser excluído.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
fixação de clusters do Databricks
Fixe um cluster para garantir que o cluster sempre será retornado pela API ListClusters. Fixar um cluster que já está fixado não terá efeito. Essa API só pode ser chamada por administradores de espaço de trabalho.
databricks clusters pin CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O ID do cluster.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
Redimensionamento de clusters Databricks
Redimensione o cluster para ter um número desejado de trabalhadores. Isto falhará a menos que o cluster esteja no estado RUNNING.
databricks clusters resize CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster que será redimensionado.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--no-wait
Não aguarde para atingir o estado RUNNING
--num-workers int
Número de nós de trabalho que este cluster deve possuir.
--timeout duration
A quantidade máxima de tempo para atingir o estado RUNNING (padrão 20m0s)
Reinício dos clusters do Databricks
Reinicie um cluster com a ID especificada. Se o cluster não estiver atualmente em estado EM EXECUÇÃO, nada acontece.
databricks clusters restart CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster a ser iniciado.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--no-wait
Não aguarde para atingir o estado RUNNING
--restart-user string
Usuário que reiniciou o cluster.
--timeout duration
A quantidade máxima de tempo para atingir o estado RUNNING (padrão 20m0s)
clusters do databricks versões do spark
Liste as versões disponíveis do Spark. Essas versões podem ser usadas para iniciar um cluster.
databricks clusters spark-versions [flags]
Arguments
None
Opções
Início dos clusters Databricks
Inicie um cluster encerrado com a ID especificada. Isso funciona de forma semelhante a createCluster, exceto: - A ID do cluster anterior e os atributos são preservados. - O cluster começa com o último tamanho de cluster especificado. - Se o cluster anterior era um cluster de dimensionamento automático, o cluster atual começa com o número mínimo de nós. - Se o cluster não estiver atualmente num estado TERMINADO, nada acontece. - Os clusters iniciados para executar um trabalho não podem ser iniciados.
databricks clusters start CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster a ser iniciado.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--no-wait
Não aguarde para atingir o estado RUNNING
--timeout duration
A quantidade máxima de tempo para atingir o estado RUNNING (padrão 20m0s)
Clusters de Databricks desafixar
Desafixar um cluster para permitir que o cluster seja eventualmente removido da API ListClusters. Desafixar um cluster que não está fixado não terá efeito. Essa API só pode ser chamada por administradores de espaço de trabalho.
databricks clusters unpin CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O ID do cluster.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
Atualização de Databricks clusters
Atualize a configuração de um cluster para corresponder ao conjunto parcial de atributos e tamanho. Denote quais campos atualizar usando o campo update_mask no corpo da solicitação. Um cluster pode ser atualizado se estiver num estado de EXECUÇÃO ou TERMINADO. Se um cluster for atualizado enquanto estiver em um estado RUNNING, ele será reiniciado para que os novos atributos possam entrar em vigor. Se um cluster for atualizado enquanto estiver no estado TERMINADO, ele permanecerá TERMINADO. Os atributos atualizados entrarão em vigor na próxima vez que o cluster for iniciado usando a API de início de clusters. As tentativas de atualizar um cluster em qualquer outro estado serão rejeitadas com um código de erro INVALID_STATE. Os clusters criados pelo serviço Databricks Jobs não podem ser atualizados.
databricks clusters update CLUSTER_ID UPDATE_MASK [flags]
Arguments
CLUSTER_ID
ID do cluster.
UPDATE_MASK
Usado para especificar quais atributos de cluster e campos de tamanho devem ser atualizados. Consulte https://google.aip.dev/161 para obter mais detalhes. A máscara de campo deve ser uma única cadeia de caracteres, com vários campos separados por vírgulas (sem espaços). O caminho do campo é relativo ao objeto de recurso, usando um ponto (.) para navegar em subcampos (por exemplo, author.given_name). A especificação de elementos em campos de sequência ou mapa não é permitida, pois apenas todo o campo de coleta pode ser especificado. Os nomes de campo devem corresponder exatamente aos nomes de campo de recurso. Uma máscara de campo de _ indica substituição completa. Recomenda-se sempre listar explicitamente os campos que estão sendo atualizados e evitar o uso _ de curingas, pois isso pode levar a resultados não intencionais se a API mudar no futuro.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
--no-wait
Não aguarde para atingir o estado RUNNING
--timeout duration
A quantidade máxima de tempo para atingir o estado RUNNING (padrão 20m0s)
Clusters do Databricks obter níveis de permissão
Obtenha os níveis de permissão do cluster.
databricks clusters get-permission-levels CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster para o qual obter ou gerenciar permissões.
Opções
Obter permissões dos clusters Databricks
Obtenha permissões de cluster. Os clusters podem herdar permissões de seu objeto raiz.
databricks clusters get-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster para o qual obter ou gerenciar permissões.
Opções
Clusters do Databricks definir permissões
Defina permissões de cluster, substituindo as permissões existentes, se existirem. Exclui todas as permissões diretas se nenhuma for especificada. Os objetos podem herdar permissões de seu objeto raiz.
databricks clusters set-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster para o qual obter ou gerenciar permissões.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
Atualizar permissões de clusters no Databricks
Atualize as permissões em um cluster. Os clusters podem herdar permissões de seu objeto raiz.
databricks clusters update-permissions CLUSTER_ID [flags]
Arguments
CLUSTER_ID
O cluster para o qual obter ou gerenciar permissões.
Opções
--json JSON
A cadeia de caracteres JSON embutida ou o @path para o arquivo JSON com o corpo da solicitação
Bandeiras globais
--debug
Se o log de depuração deve ser habilitado.
-h ou --help
Exiba a ajuda para a CLI do Databricks ou para o grupo de comandos relacionado ou para o comando relacionado.
--log-file string
Uma cadeia de caracteres que representa o arquivo para gravar logs de saída. Se esse sinalizador não for especificado, o padrão é gravar logs de saída no stderr.
--log-format Formato
O tipo text de formato de log ou json. O valor predefinido é text.
--log-level string
Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desativado.
-o, --output tipo
O tipo de saída do comando, text ou json. O valor predefinido é text.
-p, --profile string
O nome do perfil no ~/.databrickscfg arquivo a ser usado para executar o comando. Se esse sinalizador não for especificado, se ele existir, o perfil nomeado DEFAULT será usado.
--progress-format Formato
O formato para exibir logs de progresso: default, append, inplace, ou json
-t, --target string
Se aplicável, o destino do pacote a ser usado