Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
APLICA-SE A:
Azure Data Factory
Azure Synapse Analytics
Gorjeta
Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange tudo, desde a movimentação de dados até ciência de dados, análises em tempo real, business intelligence e relatórios. Saiba como iniciar uma nova avaliação gratuitamente!
Este artigo descreve como usar a Atividade de Cópia em um pipeline do Azure Data Factory ou do Synapse Analytics para copiar dados do Hive. Ele se baseia no artigo de visão geral da atividade de cópia que apresenta uma visão geral da atividade de cópia.
Importante
O conector Hive versão 1.0 está em fase de remoção. Recomenda-se atualizar o conector Hive da versão 1.0 para 2.0.
Capacidades suportadas
Este conector Hive é suportado para os seguintes recursos:
| Capacidades suportadas | IR |
|---|---|
| Atividade de cópia (fonte/-) | (1) (2) |
| Mapeando o fluxo de dados (fonte/-) | (1) |
| Atividade de Pesquisa | (1) (2) |
(1) Tempo de execução de integração do Azure (2) Tempo de execução de integração auto-hospedado
Para obter uma lista de armazenamentos de dados suportados como fontes/coletores pela atividade de cópia, consulte a tabela Armazenamentos de dados suportados.
O serviço fornece um driver interno para habilitar a conectividade, portanto, você não precisa instalar manualmente nenhum driver usando esse conector.
O conector suporta as versões do Windows neste artigo.
Pré-requisitos
Se seu armazenamento de dados estiver localizado dentro de uma rede local, uma rede virtual do Azure ou a Amazon Virtual Private Cloud, você precisará configurar um tempo de execução de integração auto-hospedado para se conectar a ele.
Se o seu armazenamento de dados for um serviço de dados de nuvem gerenciado, você poderá usar o Tempo de Execução de Integração do Azure. Se o acesso for restrito a IPs aprovados nas regras de firewall, você poderá adicionar IPs do Azure Integration Runtime à lista de permissões.
Você também pode usar o recurso de tempo de execução de integração de rede virtual gerenciada no Azure Data Factory para acessar a rede local sem instalar e configurar um tempo de execução de integração auto-hospedado.
Para obter mais informações sobre os mecanismos de segurança de rede e as opções suportadas pelo Data Factory, consulte Estratégias de acesso a dados.
Observação
Versão 2.0 é suportada com a runtime de integração autogerida versão 5.54 ou superior.
Introdução
Para executar a atividade de cópia com um pipeline, você pode usar uma das seguintes ferramentas ou SDKs:
- Ferramenta Copiar dados
- portal do Azure
- SDK do .NET
- Python SDK
- Azure PowerShell
- API REST
- Modelo Azure Resource Manager
Criar um serviço vinculado ao Hive usando a interface do usuário
Use as etapas a seguir para criar um serviço vinculado ao Hive na interface do usuário do portal do Azure.
Navegue até a guia Gerenciar em seu espaço de trabalho do Azure Data Factory ou Synapse e selecione Serviços Vinculados e clique em Novo:
Procure Hive e selecione o conector Hive.
Configure os detalhes do serviço, teste a conexão e crie o novo serviço vinculado.
Detalhes de configuração do conector
As seções a seguir fornecem detalhes sobre as propriedades usadas para definir entidades do Data Factory específicas para o conector do Hive.
Propriedades do serviço vinculado
O conector Hive agora suporta a versão 2.0. Consulte esta seção para atualizar o conector Hive da versão 1.0 para uma versão mais recente. Para obter os detalhes da propriedade, consulte as seções correspondentes.
Versão 2.0
O serviço vinculado do Hive suporta as seguintes propriedades quando aplicar a versão 2.0:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type deve ser definida como: Hive | Sim |
| versão | A versão que especificares. O valor é 2.0. |
Sim |
| alojar | Endereço IP ou nome de host do servidor Hive. | Sim |
| porta | A porta TCP que o servidor Hive usa para escutar conexões de cliente. Se você se conectar ao Azure HDInsight, especifique a porta como 443. | Sim |
| Tipo de servidor | O tipo de servidor Hive. O valor permitido é: HiveServer2 |
Não |
| thriftTransportProtocol | O protocolo de transporte a ser usado na camada Thrift. Os valores permitidos são: Binary, SASL, HTTP |
Não |
| tipo de autenticação | O método de autenticação usado para acessar o servidor Hive. Os valores permitidos são: Anonymous, UsernameAndPassword, WindowsAzureHDInsightService. A autenticação Kerberos não é suportada agora. |
Sim |
| nome de utilizador | O nome de usuário que você usa para acessar o Hive Server. | Não |
| palavra-passe | A senha correspondente ao usuário. Marque este campo como um SecureString para armazená-lo com segurança ou faça referência a um segredo armazenado no Cofre de Chaves do Azure. | Não |
| httpCaminho | A URL parcial correspondente ao servidor Hive. Para o tipo de autenticação WindowsAzureHDInsightService, o valor padrão é /hive2. |
Não |
| habilitarSsl | Especifica se as conexões com o servidor são criptografadas usando TLS. O valor padrão é true. | Não |
| ativarValidaçãoDeCertificadoDoServidor | Especifique se deseja habilitar a validação do certificado SSL do servidor quando você se conectar. Use sempre o Repositório de Confiança do Sistema. O valor padrão é true. | Não |
| storageReference | Uma referência ao serviço vinculado da conta de armazenamento usada para preparar dados no mapeamento do fluxo de dados. Isso é necessário somente ao usar o serviço vinculado do Hive no mapeamento do fluxo de dados. | Não |
| ConecteVia | O tempo de execução de integração a ser usado para se conectar ao armazenamento de dados. Saiba mais na seção Pré-requisitos . Se não for especificado, ele usará o Tempo de Execução de Integração do Azure padrão. Pode-se usar o runtime de integração auto-hospedado e a sua versão deve ser 5.54 ou superior. | Não |
Exemplo:
{
"name": "HiveLinkedService",
"properties": {
"type": "Hive",
"version": "2.0",
"typeProperties": {
"host" : "<host>",
"port" : "<port>",
"authenticationType" : "WindowsAzureHDInsightService",
"username" : "<username>",
"password": {
"type": "SecureString",
"value": "<password>"
},
"serverType": "HiveServer2",
"thriftTransportProtocol": "HTTP",
"enableSsl": true,
"enableServerCertificateValidation": true
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Versão 1.0
As seguintes propriedades são suportadas para o serviço vinculado do Hive quando se aplica a versão 1.0:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type deve ser definida como: Hive | Sim |
| alojar | Endereço IP ou nome de host do servidor Hive, separados por ';' para vários hosts (somente quando serviceDiscoveryMode está habilitado). | Sim |
| porta | A porta TCP que o servidor Hive usa para escutar conexões de cliente. Se você se conectar ao Azure HDInsight, especifique a porta como 443. | Sim |
| Tipo de servidor | O tipo de servidor Hive. Os valores permitidos são: HiveServer1, HiveServer2, HiveThriftServer |
Não |
| thriftTransportProtocol | O protocolo de transporte a ser usado na camada Thrift. Os valores permitidos são: Binary, SASL, HTTP |
Não |
| tipo de autenticação | O método de autenticação usado para acessar o servidor Hive. Os valores permitidos são: Anonymous, Username, UsernameAndPassword, WindowsAzureHDInsightService. A autenticação Kerberos não é suportada agora. |
Sim |
| modoDeDescobertaDeServiço | true para indicar usando o serviço ZooKeeper, false not. | Não |
| zooKeeperNameSpace | O namespace no ZooKeeper sob o qual os nós do Hive Server 2 são adicionados. | Não |
| useNativeQuery | Especifica se o driver usa consultas HiveQL nativas ou as converte em um formulário equivalente no HiveQL. | Não |
| nome de utilizador | O nome de usuário que você usa para acessar o Hive Server. | Não |
| palavra-passe | A senha correspondente ao usuário. Marque este campo como um SecureString para armazená-lo com segurança ou faça referência a um segredo armazenado no Cofre de Chaves do Azure. | Não |
| httpCaminho | A URL parcial correspondente ao servidor Hive. | Não |
| habilitarSsl | Especifica se as conexões com o servidor são criptografadas usando TLS. O valor predefinido é false. | Não |
| trustedCertPath | O caminho completo do arquivo .pem contendo certificados de CA confiáveis para verificar o servidor ao se conectar por TLS. Essa propriedade só pode ser definida ao usar TLS em IR auto-hospedado. O valor padrão é o arquivo cacerts.pem instalado com o IR. | Não |
| utilizarORepositórioDeConfiançaDoSistema | Especifica se um certificado de autoridade de certificação deve ser usado do armazenamento confiável do sistema ou de um arquivo PEM especificado. O valor predefinido é false. | Não |
| permitirDesajusteNomeAnfitriãoCN | Especifica se um nome de certificado TLS/SSL emitido pela CA deve corresponder ao nome do host do servidor ao se conectar por TLS. O valor predefinido é false. | Não |
| permitirCertificadoDeServidorAutoAssinado | Especifica se os certificados autoassinados do servidor devem ser permitidos. O valor predefinido é false. | Não |
| ConecteVia | O tempo de execução de integração a ser usado para se conectar ao armazenamento de dados. Saiba mais na seção Pré-requisitos . Se não for especificado, ele usará o Tempo de Execução de Integração do Azure padrão. | Não |
| storageReference | Uma referência ao serviço vinculado da conta de armazenamento usada para preparar dados no mapeamento do fluxo de dados. Isso é necessário somente ao usar o serviço vinculado do Hive no mapeamento do fluxo de dados | Não |
Exemplo:
{
"name": "HiveLinkedService",
"properties": {
"type": "Hive",
"typeProperties": {
"host" : "<cluster>.azurehdinsight.net",
"port" : "<port>",
"authenticationType" : "WindowsAzureHDInsightService",
"username" : "<username>",
"password": {
"type": "SecureString",
"value": "<password>"
}
}
}
}
Propriedades do conjunto de dados
Para obter uma lista completa de seções e propriedades disponíveis para definir conjuntos de dados, consulte o artigo sobre conjuntos de dados. Esta seção fornece uma lista de propriedades suportadas pelo conjunto de dados do Hive.
Para copiar dados do Hive, defina a propriedade type do conjunto de dados como HiveObject. As seguintes propriedades são suportadas:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type do conjunto de dados deve ser definida como: HiveObject | Sim |
| esquema | Nome do esquema. | Não (se "consulta" na fonte da atividade for especificado) |
| tabela | Nome da tabela. | Não (se "consulta" na fonte da atividade for especificado) |
| nome da tabela | Nome da tabela, incluindo a parte do esquema. Esta propriedade é suportada para compatibilidade com versões anteriores. Para nova carga de trabalho, use schema e table. |
Não (se "consulta" na fonte da atividade for especificado) |
Exemplo
{
"name": "HiveDataset",
"properties": {
"type": "HiveObject",
"typeProperties": {},
"schema": [],
"linkedServiceName": {
"referenceName": "<Hive linked service name>",
"type": "LinkedServiceReference"
}
}
}
Propriedades da atividade Copy
Para obter uma lista completa de seções e propriedades disponíveis para definir atividades, consulte o artigo Pipelines . Esta seção fornece uma lista de propriedades suportadas pela fonte do Hive.
HiveSource como fonte
Para copiar dados do Hive, defina o tipo de origem na atividade de cópia como HiveSource. As seguintes propriedades são suportadas na seção de origem da atividade de cópia:
| Propriedade | Descrição | Obrigatório |
|---|---|---|
| tipo | A propriedade type da fonte de atividade de cópia deve ser definida como: HiveSource | Sim |
| consulta | Use a consulta SQL personalizada para ler dados. Por exemplo: "SELECT * FROM MyTable". |
Não (se "tableName" no conjunto de dados for especificado) |
Exemplo:
"activities":[
{
"name": "CopyFromHive",
"type": "Copy",
"inputs": [
{
"referenceName": "<Hive input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "HiveSource",
"query": "SELECT * FROM MyTable"
},
"sink": {
"type": "<sink type>"
}
}
}
]
Mapeando propriedades de fluxo de dados
O conector hive é suportado como uma fonte de conjunto de dados embutido no mapeamento de fluxos de dados. Leia usando uma consulta ou diretamente de uma tabela do Hive no HDInsight. Os dados do Hive são preparados em uma conta de armazenamento como arquivos parquet antes de serem transformados como parte de um fluxo de dados.
Propriedades de origem
A tabela abaixo lista as propriedades suportadas por uma fonte de hive. Você pode editar essas propriedades na guia Opções de origem .
| Nome | Descrição | Obrigatório | Valores permitidos | Propriedade do script de fluxo de dados |
|---|---|---|---|---|
| Store | A loja deve ser hive |
sim | hive |
armazenar |
| Formato | Se você está lendo a partir de uma tabela ou consulta | sim |
table ou query |
Formato |
| Nome do esquema | Se estiver lendo de uma tabela, o esquema da tabela de origem | Sim, se o formato for table |
Cordão | nomeDoEsquema |
| Nome da tabela | Se estiver lendo de uma tabela, o nome da tabela | Sim, se o formato for table |
Cordão | nome da tabela |
| Pergunta | Se format for query, a consulta de origem no serviço vinculado do Hive |
Sim, se o formato for query |
Cordão | consulta |
| Encenado | A mesa de colmeia será sempre encenada. | sim | true |
encenado |
| Contentor de Armazenamento | Recipiente de armazenamento usado para preparar dados antes de ler do Hive ou gravar no Hive. O cluster de hive deve ter acesso a esse contêiner. | sim | Cordão | recipiente de armazenamento |
| Banco de dados de preparo | O esquema/banco de dados ao qual a conta de usuário especificada no serviço vinculado tem acesso. Ele é usado para criar tabelas externas durante o preparo e descartado depois | não |
true ou false |
stagingDatabaseName |
| Scripts pré-SQL | Código SQL a ser executado na tabela Hive antes de ler os dados | não | Cordão | pré-SQLs |
Exemplo de fonte
Abaixo está um exemplo de uma configuração de origem do Hive:
Essas configurações se traduzem no seguinte script de fluxo de dados:
source(
allowSchemaDrift: true,
validateSchema: false,
ignoreNoFilesFound: false,
format: 'table',
store: 'hive',
schemaName: 'default',
tableName: 'hivesampletable',
staged: true,
storageContainer: 'khive',
storageFolderPath: '',
stagingDatabaseName: 'default') ~> hivesource
Limitações conhecidas
- Tipos complexos, como matrizes, mapas, estruturas e uniões não são suportados para leitura.
- O conector do Hive suporta apenas tabelas do Hive no Azure HDInsight da versão 4.0 ou superior (Apache Hive 3.1.0)
- Por padrão, o driver do Hive fornece "tableName.columnName" no coletor. Se você não deseja ver o nome da tabela no nome da coluna, então há duas maneiras de corrigir isso. a) Verifique a configuração "hive.resultset.use.unique.column.names" no lado do servidor Hive e defina-a como false. b) Use o mapeamento de coluna para renomear o nome da coluna.
Mapeamento de tipo de dados para o Hive
Quando você copia dados de e para o Hive, os mapeamentos de tipo de dados provisórios a seguir são usados no serviço. Para saber como a atividade de cópia mapeia o esquema de origem e o tipo de dados para o destino, consulte Mapeamentos de esquema e tipo de dados.
| Tipo de dados do Hive | Tipo de dados de serviço provisório (para a versão 2.0) | Tipo de dados de serviço provisório (para a versão 1.0) |
|---|---|---|
| TINYINT | Sbyte | Int16 |
| SMALLINT | Int16 | Int16 |
| INT | Int32 | Int32 |
| BIGINT | Int32 | Int64 |
| BOOLEANO | booleano | booleano |
| FLUTUAR | Solteiro | Solteiro |
| DUPLO | Duplo | Duplo |
| DECIMAL | Decimal | Decimal String (precisão > 28) |
| cadeia de caracteres | Cordão | Cordão |
| VARCHAR | Cordão | Cordão |
| CHAR | Cordão | Cordão |
| DATA E HORA | Desvio de Data e Hora | Data e Hora |
| DATA | Data e Hora | Data e Hora |
| BINÁRIO | Byte[] | Byte[] |
| MATRIZ | Cordão | Cordão |
| MAPA | Cordão | Cordão |
| ESTRUTURA | Cordão | Cordão |
Propriedades da atividade de pesquisa
Para saber detalhes sobre as propriedades, verifique Atividade de pesquisa.
Ciclo de vida e atualização do conector do Hive
A tabela a seguir mostra o estágio de lançamento e os registos de alterações para diferentes versões do conector Hive.
| Versão | Fase de lançamento | Registo de alterações |
|---|---|---|
| Versão 1.0 | Removed | Não aplicável. |
| Versão 2.0 | Versão GA disponível | • A versão do runtime de integração auto-hospedado deve ser 5.54 ou superior. • enableServerCertificateValidation é suportado. • O valor padrão de enableSSL é true. • Para o tipo de autenticação WindowsAzureHDInsightService, o valor padrão de httpPath é /hive2. • DECIMAL é lido como tipo de dados decimal. • TINYINT é lido como tipo de dados SByte. • TIMESTAMP é lido como o tipo de dados DateTimeOffset. trustedCertPath• , useSystemTrustStoree allowHostNameCNMismatchallowSelfSignedServerCert não são suportados. • O uso de ';' para separar vários hosts (somente quando serviceDiscoveryMode está ativado) não é suportado. • HiveServer1 e HiveThriftServer não são suportados para ServerType. • O tipo de autenticação de nome de utilizador não é suportado. O protocolo de transporte SASL suporta apenas o tipo de autenticação UsernameAndPassword. O protocolo de transporte binário suporta apenas o tipo de autenticação anônima. serviceDiscoveryMode• , zooKeeperNameSpace e useNativeQuery não são suportados. |
Atualize o conector Hive da versão 1.0 para a versão 2.0
Na página Editar serviço vinculado , selecione a versão 2.0 e configure o serviço vinculado consultando as propriedades do serviço vinculado versão 2.0.
O mapeamento de tipo de dados para o serviço vinculado do Hive versão 2.0 é diferente do da versão 1.0. Para saber o mapeamento de tipo de dados mais recente, consulte Mapeamento de tipo de dados para o Hive.
Utilize um runtime de integração auto-hospedado com a versão 5.54 ou superior.
Conteúdos relacionados
Para obter uma lista de armazenamentos de dados suportados como fontes e coletores pela atividade de cópia, consulte Armazenamentos de dados suportados.