Perplexidade AI (Editora Independente) (Preview)
Desbloqueie o mais poderoso assistente de pesquisa de IA. Eleve a Perplexidade para o próximo nível com mais Copilot, IA atualizada, upload ilimitado de arquivos e acesso a serviços da Web. Atualize para Claude-2 ou GPT-4 para respostas mais precisas, os modelos de linguagem pplx, Mistral e Llama também estarão disponíveis.
Este conector está disponível nos seguintes produtos e regiões:
| Serviço | Class | Regiões |
|---|---|---|
| Estúdio Copiloto | Premium | Todas as regiões do Power Automatic , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Aplicações Lógicas | Standard | Todas as regiões do Logic Apps , exceto as seguintes: - Regiões do Azure Government - Regiões do Azure China - Departamento de Defesa dos EUA (DoD) |
| Aplicações Power | Premium | Todas as regiões do Power Apps , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Automatize o poder | Premium | Todas as regiões do Power Automatic , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Troia Taylor |
| URL | https://www.hitachisolutions.com |
| ttaylor@hitachisolutions.com |
| Metadados do conector | |
|---|---|
| Editora | Troia Taylor |
| Sítio Web | https://www.perplexity.ai/ |
| Política de privacidade | https://blog.perplexity.ai/legal/privacy-policy |
| Categorias | IA |
A criar uma ligação
O conector suporta os seguintes tipos de autenticação:
| Predefinição | Parâmetros para criar conexão. | Todas as regiões | Não compartilhável |
Padrão
Aplicável: Todas as regiões
Parâmetros para criar conexão.
Esta conexão não é compartilhável. Se o aplicativo avançado for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Chave API (no formato 'Bearer YOUR_API_KEY') | securestring | A chave API (no formato 'Bearer YOUR_API_KEY') para esta api | Verdade |
Limites de Limitação
| Name | Chamadas | Período de Renovação |
|---|---|---|
| Chamadas de API por conexão | 100 | 60 segundos |
Ações
| Obter conclusão do chat |
Gera a resposta de um modelo para a conversa de bate-papo dada. |
Obter conclusão do chat
Gera a resposta de um modelo para a conversa de bate-papo dada.
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
Modelo
|
model | True | string |
O nome do modelo que completará o prompt. |
|
Funções
|
role | True | string |
O papel do orador neste turno de conversa. Após a mensagem (opcional) do sistema, as funções de usuário e assistente devem alternar com usuário e assistente, terminando em usuário. |
|
Content
|
content | True | string |
O conteúdo da mensagem neste turno de conversa. |
|
Fichas máximas
|
max_tokens | integer |
O número máximo de tokens de conclusão retornados pela API. O número total de tokens solicitados em max_tokens mais o número de tokens de prompt enviados em mensagens não deve exceder o limite de token da janela de contexto do modelo solicitado. Se não for especificado, o modelo gerará tokens até atingir seu token de parada ou o final de sua janela de contexto. |
|
|
Temperatura
|
temperature | double |
A quantidade de aleatoriedade na resposta, avaliada entre 0 inclusive e 2 exclusiva. Valores mais altos são mais aleatórios e valores mais baixos são mais determinísticos. Você deve definir a temperatura ou top_p, mas não ambos. |
|
|
Topo P
|
top_p | double |
O limiar de amostragem do núcleo, avaliado entre 0 e 1 inclusive. Para cada token subsequente, o modelo considera os resultados dos tokens com top_p massa de probabilidade. Deve alterar a temperatura ou top_p, mas não ambos. |
|
|
Topo K
|
top_k | double |
O número de tokens a serem mantidos para a filtragem top-k mais alta, especificado como um inteiro entre 0 e 2048, inclusive. Se definido como 0, a filtragem top-k será desativada. |
|
|
Penalidade de Presença
|
presence_penalty | double |
Um valor entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Incompatível com a penalidade de frequência. |
|
|
Penalidade de Frequência
|
frequency_penalty | double |
Uma pena multiplicativa superior a 0. Valores superiores a 1,0 penalizam novos tokens com base na frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir literalmente a mesma linha. Um valor de 1,0 significa que não há penalização. Incompatível com pena de presença. |
Devoluções
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
ID
|
id | string |
O identificador. |
|
Modelo
|
model | string |
O modelo. |
|
Objeto
|
object | string |
O objeto. |
|
Criado
|
created | integer |
Quando criado. |
|
Choices
|
choices | array of object | |
|
Index
|
choices.index | integer |
O índice. |
|
Motivo do Término
|
choices.finish_reason | string |
A razão final |
|
Content
|
choices.message.content | string |
O conteúdo. |
|
Funções
|
choices.message.role | string |
O papel. |
|
Content
|
choices.delta.content | string |
O conteúdo. |
|
Funções
|
choices.delta.role | string |
O papel. |
|
Prompt Tokens
|
usage.prompt_tokens | integer |
Os tokens de prompt usados. |
|
Tokens de conclusão
|
usage.completion_tokens | integer |
Os tokens de conclusão usados. |
|
Total Tokens
|
usage.total_tokens | integer |
O total de tokens usados. |