Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Aplica-se a:SQL Server 2019 (15.x)
Important
Os Clusters de Big Data do Microsoft SQL Server 2019 foram desativados. O suporte para clusters de Big Data do SQL Server 2019 terminou em 28 de fevereiro de 2025. Para obter mais informações, consulte a postagem no blog de anúncios e as opções de Big Data na plataforma microsoft SQL Server.
O gerenciamento de configuração permite que os administradores garantam que seu cluster de Big Data esteja sempre preparado para suas necessidades de carga de trabalho. Com essa funcionalidade, os administradores de cluster podem alterar ou ajustar várias partes do cluster de Big Data no momento da implantação ou pós-implantação e obter informações mais profundas sobre as configurações em execução em seu cluster de Big Data.
O gerenciamento de configuração permite que um administrador habilite o SQL Agent, defina os recursos de linha de base para os trabalhos do Spark de sua organização ou até mesmo veja quais configurações são configuráveis em cada escopo. No momento da implantação, as configurações podem ser configuradas por meio do arquivo de implantação bdc.json e pós-implantação por meio da CLI do azdata.
Configuration Scopes
A configuração de Clusters de Big Data tem três níveis de escopo: cluster, servicee resource. A hierarquia das configurações também segue essa ordem, da mais alta para a mais baixa. Os componentes BDC levarão o valor da configuração definida no escopo mais baixo. Se a configuração não estiver definida em um determinado escopo, ela herdará o valor de seu escopo pai mais alto.
Por exemplo, talvez você queira definir o número padrão de núcleos que o driver Spark usará no pool de armazenamento e Sparkhead nos recursos. Para definir o número padrão de núcleos, você pode executar uma das seguintes ações:
Especificar um valor de núcleos padrão no escopo do
SparkserviçoEspecificar um valor de núcleos padrão no escopo e
storage-0nosparkheadrecurso
No primeiro cenário, todos os recursos de escopo inferior do serviço Spark (pool de armazenamento e Sparkhead) herdarão o número padrão de núcleos do valor padrão do serviço Spark.
No segundo cenário, cada recurso usará o valor definido em seu respectivo escopo.
Se o número padrão de núcleos estiver configurado no escopo do serviço e do recurso, o valor com escopo de recurso substituirá o valor com escopo de serviço, pois esse é o escopo configurado pelo usuário mais baixo para a configuração determinada.
Next steps
Para obter informações específicas sobre a configuração, consulte os artigos apropriados:
- Personalizar a implantação de Clusters de Big Data
- Configurar clusters de Big Data após a implantação
- Configurar Clusters de Big Data – versão cu8 e anterior
Reference: