Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
Este documento refere-se ao portal do Microsoft Foundry (clássico ).
🔍 Exiba a documentação do Microsoft Foundry (novo) para saber mais sobre o novo portal.
Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.
Inferência do plano de dados
O restante do artigo aborda nossa nova versão prévia da API v1 da especificação de inferência do plano de dados do Azure OpenAI. Saiba mais em nosso guia de ciclo de vida da API.
Se você estiver procurando documentação sobre a versão mais recente da API GA V1, consulte a API de inferência do plano de dados GA mais recente
Criar discurso
POST {endpoint}/openai/v1/audio/speech?api-version=preview
Gera áudio de conversão de texto em fala do texto de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Microsoft Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para o qual gerar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| instructions | cadeia | Controle a voz do áudio gerado com instruções adicionais. Não funciona com tts-1 ou tts-1-hd. |
No | |
| modelo | cadeia | O modelo a ser usado para essa solicitação de conversão de texto em fala. | Yes | |
| response_format | objeto | Os formatos de saída de áudio com suporte para conversão de texto em fala. | No | |
| speed | number | A velocidade da fala do áudio gerado. Os valores são válidos no intervalo de 0,25 a 4,0, com 1,0 os valores padrão e mais altos correspondentes à fala mais rápida. | No | 1 |
| stream_format | enumeração | O formato para transmitir o áudio. Os formatos com suporte são sse e audio.
sse não há suporte para tts-1 ou tts-1-hd.Valores possíveis: sse, audio |
No | |
| voice | objeto | Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | cadeia |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Sintetiza o áudio a partir do texto fornecido.
POST {endpoint}/openai/v1/audio/speech?api-version=preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3",
"model": "tts-1"
}
Respostas: Código de Status: 200
{
"body": "101010101"
}
Criar transcrição
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
Transcreve o áudio no idioma de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | objeto | No | ||
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). | No | 300 |
| └─ duração_do_silêncio_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. | No | 200 |
| └─ limite | number | Limite de sensibilidade (0.0 a 1.0) para detecção de atividade de voz. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. | No | 0.5 |
| └─ tipo | enumeração | Deve ser definido para server_vad a fim de habilitar o agrupamento manual usando o VAD do lado do servidor.Valores possíveis: server_vad |
No | |
| arquivo | cadeia | Yes | ||
| filename | cadeia | O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio. | No | |
| include[] | matriz | Informações adicionais a serem incluídas na resposta de transcrição.
logprobs retornará as probabilidades logarítmicas dos tokens na resposta para entender a confiança do modelo na transcrição.
logprobs funciona somente quando o response_format está definido como json e apenas com os modelos gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe e gpt-4o-mini-transcribe-2025-12-15. |
No | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhorará a precisão e a latência. |
No | |
| modelo | cadeia | O modelo a ser usado para essa solicitação de transcrição. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. | No | |
| response_format | objeto | No | ||
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. Observação: o streaming não tem suporte para o whisper-1 modelo e será ignorado. |
No | False |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição.
response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. |
No | ['segment'] |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranscriptionResponse | |
| text/plain | cadeia |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Respostas: Código de Status: 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Criar tradução
POST {endpoint}/openai/v1/audio/translations?api-version=preview
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | Yes | ||
| filename | cadeia | O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio | No | |
| modelo | cadeia | O modelo a ser usado nessa solicitação de tradução. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | No | |
| response_format | objeto | No | ||
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranslationResponse | |
| text/plain | cadeia |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST {endpoint}/openai/v1/audio/translations?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Respostas: Código de Status: 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Criar conclusão de chat
POST {endpoint}/openai/v1/chat/completions?api-version=preview
Cria uma conclusão de chat.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ Formato | enumeração | Especifica o formato do áudio de saída. Deve ser um de wav, mp3, ,flacopus, ou pcm16.Valores possíveis: wav, , aac, mp3, flac, , opuspcm16 |
No | |
| └─ voz | objeto | No | ||
| data_sources | matriz | As fontes de dados a serem usadas para o recurso On Your Data, exclusivo do Azure OpenAI. | No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. | No | 0 |
| function_call | enumeração | Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.Valores possíveis: none, auto |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. | No | None |
| logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. Esse valor pode ser usado para controlar os custos do texto gerado por meio da API. Esse valor agora foi preterido em favor de max_completion_tokens, e não é compatível com modelos da série o1. |
No | |
| messages | matriz | Uma lista de mensagens que resumem a conversa até agora. Dependendo do modelo usado, há suporte para diferentes tipos de mensagens (modalidades), como texto, imagens e áudio. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modalities | objeto | Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| modelo | cadeia | O identificador de implantação de modelo a ser usado para a solicitação de conclusão do chat. | Yes | |
| n | inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
No | 1 |
| parallel_tool_calls | objeto | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | |
| previsão | objeto | Representação base da saída prevista de um modelo. | No | |
| └─ tipo | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. | No | 0 |
| reasoning_effort | objeto |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| response_format | objeto | No | ||
| └─ tipo | enumeração | Valores possíveis: text, , json_objectjson_schema |
No | |
| seed | inteiro | Esse recurso está em Versão Beta. Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar alterações no backend. |
No | |
| stop | objeto | Modelos de raciocínio mais recentes o3 e o4-mini não são suportados.Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada. |
No | |
| armazenar | boolean | Caso queira ou não armazenar a saída dessa solicitação de conclusão de chat para uso em produtos de destilação ou avaliação de modelo. | No | False |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. | No | False |
| stream_options | objeto | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | |
| └─ include_usage | boolean | Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia.Todas as outras partes também incluirão um campo usage, mas com um valor nulo.
NOTA: Se o fluxo for interrompido, você poderá não receber a parte de uso final que contém o uso total do token para a solicitação. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas.Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.none é o padrão quando não há nenhuma ferramenta presente.
auto é o padrão se ferramentas estiverem presente. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. | No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | No | |
| user_security_context | AzureUserSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureCreateChatCompletionResponse | |
| text/event-stream | AzureCreateChatCompletionStreamResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.
POST {endpoint}/openai/v1/chat/completions?api-version=preview
{
"model": "gpt-4o-mini",
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Criar inserção
POST {endpoint}/openai/v1/embeddings?api-version=preview
Cria um vetor de inserção que representa o texto de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dimensions | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
No | |
| encoding_format | enumeração | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64.Valores possíveis: float, base64 |
No | |
| entrada | cadeia de caracteres ou matriz | Yes | ||
| modelo | cadeia | O modelo a ser usado para a solicitação de inserção. | Yes | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Retorne as inserções para um determinado prompt.
POST {endpoint}/openai/v1/embeddings?api-version=preview
{
"model": "text-embedding-ada-002",
"input": [
"this is a test"
]
}
Respostas: Código de Status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196,
-0.020365695,
-0.009631885,
-0.007647093,
0.0033837722,
-0.026764825,
-0.010501476,
0.020219658,
0.024640633,
-0.0066912062,
-0.036456455,
-0.0040923897,
-0.013966565,
0.017816665,
0.005366905,
0.022835068,
0.0103488,
-0.0010811808,
-0.028942121,
0.0074280356,
-0.017033368,
0.0074877786,
0.021640211,
0.002499245,
0.013316032,
0.0021524043,
0.010129742,
0.0054731146,
0.03143805,
0.014856071,
0.0023366117,
-0.0008243692,
0.022781964,
0.003038591,
-0.017617522,
0.0013309394,
0.0022154662,
0.00097414135,
0.012041516,
-0.027906578,
-0.023817508,
0.013302756,
-0.003003741,
-0.006890349,
0.0016744611
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Listar valores
GET {endpoint}/openai/v1/evals?api-version=preview
Liste as avaliações de um projeto.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| after | consulta | No | cadeia | Identificador da última avaliação da solicitação de paginação anterior. |
| limit | consulta | No | inteiro | Um limite no número de avaliações a serem retornados em uma única resposta de paginação. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordem de classificação das avaliações por carimbo de data/hora. Use asc para ordem crescente ou desc para ordem decrescente. |
| ordenar_por | consulta | No | cadeia Valores possíveis: created_at, updated_at |
Os valores podem ser ordenados por hora de criação ou hora da última atualização. Use created_at para a hora de criação ou updated_at para a hora da última atualização. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalList |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createeval
POST {endpoint}/openai/v1/evals?api-version=preview
Crie a estrutura de uma avaliação que pode ser usada para testar o desempenho de um modelo.
Uma avaliação é um conjunto de critérios de teste e uma fonte de dados. Depois de criar uma avaliação, você pode executá-la em diferentes modelos e parâmetros de modelo. Oferecemos suporte a vários tipos de grades e fontes de dados.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| configuração_da_fonte_de_dados | objeto | Yes | ||
| └─ tipo | OpenAI.EvalDataSourceConfigType | No | ||
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome da avaliação. | No | |
| statusCode | enumeração | Valores possíveis: 201 |
Yes | |
| critérios_de_teste | matriz | Uma lista de avaliadores para todas as execuções de avaliação neste grupo. Os avaliadores podem fazer referência a variáveis na fonte de dados usando a notação de chaves duplas, como {{item.variable_name}}. Para referenciar a saída do modelo, use o namespace sample (ou seja, {{sample.output_text}}). |
Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter avaliação
GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Recupere uma avaliação por sua ID. Recupera uma avaliação por sua ID.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Atualizar a avaliação
POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Atualize as propriedades selecionáveis e mutáveis de uma avaliação especificada.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | OpenAI.MetadataPropertyForRequest | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Excluir a avaliação
DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Exclua uma avaliação especificada.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter execuções de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Recupere uma lista de execuções para uma avaliação especificada.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia | |
| after | consulta | No | cadeia | |
| limit | consulta | No | inteiro | |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
|
| status | consulta | No | cadeia Valores possíveis: queued, , in_progress, completed, canceled, failed |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunList |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar execução de avaliação
POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Crie uma nova execução de avaliação, iniciando o processo de classificação.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fonte_de_dados | objeto | Yes | ||
| └─ tipo | OpenAI.EvalRunDataSourceType | No | ||
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome da execução. | No |
Responses
Código de status: 201
Descrição: a solicitação foi bem-sucedida e um novo recurso foi criado como resultado.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter execução de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Recupere uma avaliação específica executada por sua ID.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia | |
| run_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Cancelar execução de avaliação
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Cancele uma avaliação específica executada por sua ID.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia | |
| run_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Deleteevalrun
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Exclua uma avaliação específica executada por sua ID.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia | |
| run_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter itens de saída de execução de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview
Obtenha uma lista de itens de saída para uma execução de avaliação especificada.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia | |
| run_id | caminho | Yes | cadeia | |
| after | consulta | No | cadeia | |
| limit | consulta | No | inteiro | |
| status | consulta | No | cadeia Valores possíveis: fail, pass |
|
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter item de saída de execução de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview
Recupere um item de saída específico de uma avaliação executada por sua ID.
OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| aoai-evals | cabeçalho | Yes | cadeia Valores possíveis: preview |
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso. Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”. |
| eval_id | caminho | Yes | cadeia | |
| run_id | caminho | Yes | cadeia | |
| output_item_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar arquivo
POST {endpoint}/openai/v1/files?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | objeto | Yes | ||
| └─ âncora | AzureFileExpiryAnchor | No | ||
| └─ segundos | inteiro | No | ||
| arquivo | cadeia | Yes | ||
| purpose | enumeração | A finalidade pretendida do arquivo carregado. Um de: - assistants: usado na API de Assistentes - batch: usado na API do Lote - fine-tune: usado para ajuste fino - evals: usado nos conjuntos de dados de avaliaçãoValores possíveis: assistants, , batch, fine-tuneevals |
Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
POST {endpoint}/openai/v1/files?api-version=preview
Listar arquivos
GET {endpoint}/openai/v1/files?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| purpose | consulta | No | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureListFilesResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Recuperar o arquivo
GET {endpoint}/openai/v1/files/{file_id}?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| file_id | caminho | Yes | cadeia | A ID do arquivo a ser usado nessa solicitação. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Excluir arquivo
DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| file_id | caminho | Yes | cadeia | A ID do arquivo a ser usado nessa solicitação. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Fazer download do arquivo
GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| file_id | caminho | Yes | cadeia | A ID do arquivo a ser usado nessa solicitação. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | cadeia |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Rungrader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview
Execute um avaliador.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| motoniveladora | objeto | Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. | Yes | |
| └─ calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | No | |
| └─ métrica_de_avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
No | |
| └─ graders | objeto | No | ||
| └─ etiqueta_de_imagem | cadeia | A marca da imagem a ser usada no script python. | No | |
| └─ entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | No | |
| └─ modelo | cadeia | O modelo a ser usado para a avaliação. | No | |
| └─ nome | cadeia | O nome do avaliador. | No | |
| └─ Operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
No | |
| └─ intervalo | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| └─ Referência | cadeia | O texto de referência para avaliação. | No | |
| └─ sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| └─ origem | cadeia | O código-fonte do script python. | No | |
| └─ tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
No | |
| item | O item de conjunto de dados fornecido ao avaliador. Isso será usado para preencher o item namespace. |
No | ||
| model_sample | cadeia | O exemplo de modelo a ser avaliado. Esse valor será usado para preencher o sample namespace. A output_json variável será preenchida se o exemplo de modelo for uma cadeia de caracteres JSON válida. |
Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Validar o avaliador
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview
Valide um avaliador.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| motoniveladora | objeto | Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. | Yes | |
| └─ calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | No | |
| └─ métrica_de_avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
No | |
| └─ graders | objeto | No | ||
| └─ etiqueta_de_imagem | cadeia | A marca da imagem a ser usada no script python. | No | |
| └─ entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | No | |
| └─ modelo | cadeia | O modelo a ser usado para a avaliação. | No | |
| └─ nome | cadeia | O nome do avaliador. | No | |
| └─ Operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
No | |
| └─ intervalo | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| └─ Referência | cadeia | O texto de referência para avaliação. | No | |
| └─ sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| └─ origem | cadeia | O código-fonte do script python. | No | |
| └─ tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar um trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Cria um trabalho de ajuste fino que inicia o processo de criação de um novo modelo a partir de um determinado conjunto de dados.
A resposta inclui detalhes do trabalho enfileirado, incluindo o status do trabalho e o nome dos modelos ajustados após a conclusão.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hiperparâmetros | objeto | Os hiperparâmetros usados no trabalho de ajuste fino. Agora, esse valor foi preterido em favor de method, e deve ser passado sob o parâmetro method. |
No | |
| └─ tamanho_do_lote (batch_size) | enumeração | Valores possíveis: auto |
No | |
| └─ multiplicador_da_taxa_de_aprendizagem | enumeração | Valores possíveis: auto |
No | |
| └─ n_epochs | enumeração | Valores possíveis: auto |
No | |
| Integrações | matriz | Uma lista de integrações para habilitar seu trabalho de ajuste fino. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| método | OpenAI.FineTuneMethod | O método usado no ajuste fino. | No | |
| modelo | cadeia de caracteres (veja os modelos válidos abaixo) | O nome do modelo a ser refinado. | Yes | |
| seed | inteiro | A semente controla a reprodutibilidade do trabalho. Passar os mesmos parâmetros iniciais e de trabalho deve produzir os mesmos resultados, mas pode diferir em casos raros. Se uma semente não for especificada, uma será gerada para você. |
No | |
| suffix | cadeia | Uma cadeia de caracteres de até 64 caracteres que será adicionada ao seu nome de modelo ajustado. Por exemplo, um suffix "custom-model-name" produz um nome de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| arquivo_de_treinamento | cadeia | A ID de um arquivo carregado que contém dados de treinamento. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Além disso, você deve carregar seu arquivo com a finalidade fine-tune.O conteúdo do arquivo deve diferir dependendo se o modelo usa o formato de chat, conclusões ou se o método de ajuste fino usa o formato de preferência. |
Yes | |
| arquivo_de_validação | cadeia | A ID de um arquivo carregado que contém os dados de validação. Se você fornecer esse arquivo, os dados serão usados para gerar métricas de validação periodicamente durante o ajuste fino. Essas métricas podem ser exibidas no arquivo de resultados de ajuste fino. Os mesmos dados não devem estar presentes nos arquivos de treinamento e validação. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Você deve carregar seu arquivo com a finalidade fine-tune. |
No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar trabalhos de ajuste fino paginados
GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Liste os trabalhos de ajuste fino da sua organização
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| after | consulta | No | cadeia | Identificador do último trabalho da solicitação de paginação anterior. |
| limit | consulta | No | inteiro | Número de trabalhos de ajuste fino a serem recuperados. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Recuperar o trabalho de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview
Obtenha informações sobre um trabalho de ajuste fino.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| fine_tuning_job_id | caminho | Yes | cadeia | A ID do trabalho de ajuste fino. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Cancelar o trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview
Cancele imediatamente um trabalho de ajuste fino.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| fine_tuning_job_id | caminho | Yes | cadeia | A ID do trabalho de ajuste fino a ser cancelado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar pontos de verificação de trabalho de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview
Liste os pontos de verificação para um trabalho de ajuste fino.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| fine_tuning_job_id | caminho | Yes | cadeia | A ID do trabalho de ajuste fino para o qual obter pontos de verificação. |
| after | consulta | No | cadeia | Identificador da última ID do ponto de verificação da solicitação de paginação anterior. |
| limit | consulta | No | inteiro | Número de pontos de verificação a serem recuperados. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar eventos de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview
Obtenha atualizações de status para um trabalho de ajuste fino.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| fine_tuning_job_id | caminho | Yes | cadeia | A ID do trabalho de ajuste fino para o qual obter eventos. |
| after | consulta | No | cadeia | Identificador do último evento da solicitação de paginação anterior. |
| limit | consulta | No | inteiro | Número de eventos a serem recuperados. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Pausar o trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview
Pausar um trabalho de ajuste fino.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| fine_tuning_job_id | caminho | Yes | cadeia | A ID do trabalho de ajuste fino a ser pausado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retomar o trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview
Retomar uma tarefa de ajuste fino pausada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| fine_tuning_job_id | caminho | Yes | cadeia | A ID do trabalho de ajuste fino a ser retomado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar edição de imagem
POST {endpoint}/openai/v1/images/edits?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | enumeração | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.Valores possíveis: transparent, , opaqueauto |
No | |
| imagem | cadeia de caracteres ou matriz | Yes | ||
| máscara | cadeia | No | ||
| modelo | cadeia | A implantação de modelo a ser usada para a operação de edição de imagem. | Yes | |
| n | inteiro | O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. | No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com os formatos de saída webp ou jpeg, e usa como valor padrão 100. |
No | 100 |
| output_format | enumeração | O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.O valor padrão é png.Valores possíveis: png, , jpegwebp |
No | |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 1000 caracteres para dall-e-2 e 32.000 caracteres para modelos da série gpt-image-1. |
Yes | |
| quality | enumeração | A qualidade da imagem que será gerada.
high, medium e low só têm suporte para gpt-image-1modelos de série.
dall-e-2 só dá suporte à qualidade standard. Usa auto como padrão.Valores possíveis: standard, , low, medium, high, auto |
No | |
| response_format | enumeração | O formato no qual as imagens geradas são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro só tem suporte para dall-e-2modelos de série, pois gpt-image-1os modelos de série sempre retornarão imagens codificadas em base64.Valores possíveis: url, b64_json |
No | |
| size | enumeração | O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série e um de 256x256, 512x512ou 1024x1024 para dall-e-2.Valores possíveis: 256x256, , 512x512, 1024x1024, 1536x1024, , 1024x1536auto |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar imagem
POST {endpoint}/openai/v1/images/generations?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | enumeração | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.Valores possíveis: transparent, , opaqueauto |
No | |
| modelo | cadeia | A implantação de modelo a ser usada para a geração de imagem. | Yes | |
| moderation | enumeração | Controlar o nível de moderação de conteúdo para imagens geradas por modelos da série gpt-image-1. Deve ser low para filtragem menos restritiva ou auto (valor padrão).Valores possíveis: low, auto |
No | |
| n | inteiro | O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. Para dall-e-3, apenas n=1 é suportado. |
No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro é suportado apenas para os modelos da série gpt-image-1 com os formatos de saída webp ou jpeg e tem como valor padrão 100. |
No | 100 |
| output_format | enumeração | O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.Valores possíveis: png, , jpegwebp |
No | |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1, 1.000 caracteres para dall-e-2 e 4.000 caracteres para dall-e-3. |
Yes | |
| quality | enumeração | A qualidade da imagem que será gerada. - auto (valor padrão) selecionará automaticamente a melhor qualidade para o modelo fornecido.- high
medium e low são compatíveis com os modelos de série gpt-image-1.- hd e standard têm suporte para dall-e-3.- standard é a única opção para dall-e-2.Valores possíveis: standard, , hd, low, medium, , highauto |
No | |
| response_format | enumeração | O formato no qual imagens geradas com dall-e-2 e dall-e-3 são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.Valores possíveis: url, b64_json |
No | |
| size | enumeração | O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série, um de 256x256, 512x512ou 1024x1024 para dall-e-2, e um de 1024x1024, 1792x1024ou 1024x1792 para dall-e-3.Valores possíveis: auto, , 1024x1024, 1536x1024, 1024x1536, 256x256, 512x512, , , 1792x10241024x1792 |
No | |
| estilo | enumeração | O estilo das imagens geradas. Esse parâmetro só tem suporte para dall-e-3. Deve ser um de vivid ou natural. O Vivid faz com que o modelo se incline para gerar imagens hiper-reais e dramáticas. A função "Natural" faz com que o modelo produza imagens mais naturais e menos hiper-realistas.Valores possíveis: vivid, natural |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Cria imagens a partir de uma solicitação.
POST {endpoint}/openai/v1/images/generations?api-version=preview
{
"model": "dall-e-3",
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Listar modelos
GET {endpoint}/openai/v1/models?api-version=preview
Lista os modelos disponíveis no momento e fornece informações básicas sobre cada um deles, como o proprietário e a disponibilidade.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Recuperar modelo
GET {endpoint}/openai/v1/models/{model}?api-version=preview
Recupera uma instância de modelo, fornecendo informações básicas sobre o modelo, como o proprietário e permissões.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| modelo | caminho | Yes | cadeia | A ID do modelo a ser usado nssa solicitação. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Model |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar resposta
POST {endpoint}/openai/v1/responses?api-version=preview
Cria uma resposta de modelo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| include | matriz | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são: - code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.- message.output_text.logprobs: inclua os logprobs com mensagens de assistente.- reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero). |
No | |
| entrada | cadeia de caracteres ou matriz | No | ||
| instructions | cadeia | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | A implantação do modelo a ser usada para a criação dessa resposta. | Yes | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| solicitação | objeto | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ id | cadeia | O identificador exclusivo do modelo de prompt a ser usado. | No | |
| └─ variáveis | OpenAI.ResponsePromptVariables | Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. | No | |
| └─ versão | cadeia | Versão opcional do modelo de prompt. | No | |
| reasoning | objeto |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ esforço | OpenAI.ReasoningEffort |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| └─ gerar_resumo | enumeração |
Preterido: use summary em vez disso.Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| └─ resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| armazenar | boolean | Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. | No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. | No | False |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | objeto | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
No | |
| └─ tipo | OpenAI.ToolChoiceObjectType | Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. | No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo, como a pesquisa de arquivos. - Chamadas de função (ferramentas personalizadas): Funções definidas por você, permitindo que o modelo chame seu próprio código. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse | |
| text/event-stream | OpenAI.ResponseStreamEvent |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Criar uma resposta de modelo
POST {endpoint}/openai/v1/responses?api-version=preview
Obter resposta
GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Recupera uma resposta de modelo com a ID fornecida.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| response_id | caminho | Yes | cadeia | |
| include[] | consulta | No | matriz |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Excluir resposta
DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Exclui uma resposta por ID.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| response_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar itens de entrada
GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview
Retorna uma lista de itens de entrada para uma determinada resposta.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| response_id | caminho | Yes | cadeia | |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente edesc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar os repositórios de vetores
GET {endpoint}/openai/v1/vector_stores?api-version=preview
Retorna uma lista de repositórios de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente edesc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar o repositório de vetores
POST {endpoint}/openai/v1/vector_stores?api-version=preview
Cria um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | objeto | A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400. |
No | |
| └─ estático | OpenAI.StaticChunkingStrategy | No | ||
| └─ tipo | enumeração | Sempre static.Valores possíveis: static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Arquivo de exemplo não encontrado: ./examples/vector_stores.json
Obter o repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Recupera um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser recuperado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Modificar o repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Modifica um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser modificado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | objeto | A política de expiração de um repositório de vetores. | No | |
| └─ âncora | enumeração | Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.Valores possíveis: last_active_at |
No | |
| └─ dias | inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Excluir o repositório de vetores
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Exclui um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser excluído. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar o lote de arquivos do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview
Crie um lote de arquivos de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores para o qual criar um lote de arquivos. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter o lote de arquivos do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview
Recupera um lote de arquivos de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | O ID do lote de arquivos que está sendo recuperado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Cancelar o lote de arquivos do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview
Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos a ser cancelada. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar os arquivos no lote do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview
Retorna uma lista de arquivos de repositório de vetores em um lote.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos à qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente edesc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listar os arquivos do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Retorna uma lista de arquivos de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente edesc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Criar o arquivo do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores para o qual criar um Arquivo. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obter o arquivo do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Recupera um arquivo de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo que está sendo recuperado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Atualizar os atributos de arquivo do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | |
| file_id | caminho | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Excluir o arquivo do repositório de vetores
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o próprio arquivo não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo a ser excluído. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Trabalhos de geração de vídeo – Criar
POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Cria um novo trabalho de geração de vídeo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| height | inteiro | A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes | |
| modelo | cadeia | O nome da implantação a ser usada para essa solicitação. | Yes | |
| n_seconds | inteiro | A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. | No | 5 |
| n_variants | inteiro | O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. | No | 1 |
| solicitação | cadeia | A solicitação para esse trabalho de geração de vídeo. | Yes | |
| width | inteiro | A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| files | matriz | Yes | ||
| height | inteiro | A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes | |
| inpaint_items | matriz | Itens opcionais de preenchimento para esse trabalho de geração de vídeo. | No | |
| modelo | cadeia | O nome da implantação a ser usada para essa solicitação. | Yes | |
| n_seconds | inteiro | A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. | No | 5 |
| n_variants | inteiro | O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. | No | 1 |
| solicitação | cadeia | A solicitação para esse trabalho de geração de vídeo. | Yes | |
| width | inteiro | A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Arquivo de exemplo não encontrado: ./examples/create_video_generation_job_simple.json
Trabalhos de geração de vídeo – Lista
GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Lista os trabalhos de geração de vídeo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| before | consulta | No | cadeia | |
| after | consulta | No | cadeia | |
| limit | consulta | Yes | inteiro | |
| statuses | consulta | No | matriz |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJobList |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Arquivo de exemplo não encontrado: ./examples/get_video_generation_job_list.json
Trabalhos de geração de vídeo – Obter
GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Recupera as propriedades de um trabalho de geração de vídeo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| job-id | caminho | Yes | cadeia | A ID do trabalho de geração de vídeo a ser usada para a solicitação do Azure OpenAI. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Arquivo de exemplo não encontrado: ./examples/get_video_generation_job.json
Trabalhos de geração de vídeo – Excluir
DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Exclui um trabalho de geração de vídeo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| job-id | caminho | Yes | cadeia | A ID do trabalho de geração de vídeo a ser usada para a solicitação do Azure OpenAI. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de status: 204
Descrição: não há conteúdo a ser enviado para essa solicitação, mas os cabeçalhos podem ser úteis.
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Gerações de vídeo – Obter
GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview
Recupera uma geração de vídeo por ID.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| generation-id | caminho | Yes | cadeia | A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGeneration |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Arquivo de exemplo não encontrado: ./examples/get_video_generation.json
Gerações de vídeo – Recuperar miniatura
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview
Recupera uma miniatura do conteúdo do vídeo gerado.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| generation-id | caminho | Yes | cadeia | A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| image/jpg | cadeia |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Gerações de vídeo - Recuperar o conteúdo de vídeo
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Recupera o conteúdo do vídeo gerado.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| generation-id | caminho | Yes | cadeia | A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI. |
| quality | consulta | No |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
| Content-Type | Type | Description |
|---|---|---|
| video/mp4 | cadeia |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Gerações de vídeo - Recuperar somente os cabeçalhos de videocontent
HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Recupera os cabeçalhos do conteúdo do vídeo gerado.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | No | A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
|
| generation-id | caminho | Yes | cadeia | A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI. |
| quality | consulta | No |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: a solicitação foi bem-sucedida.
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Components
AudioTaskLabel
Define os possíveis descritores para respostas de operação de áudio disponíveis.
| Property | Value |
|---|---|
| Description | Define os possíveis descritores para respostas de operação de áudio disponíveis. |
| Type | cadeia |
| Values | transcribetranslate |
AudioTranslationSegment
Informações estendidas sobre um único segmento de dados de áudio traduzidos. Geralmente, os segmentos representam cerca de 5 a 10 segundos de fala. Normalmente, os limites de segmento ocorrem entre palavras, mas não necessariamente frases.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | A probabilidade média de log associada a esse segmento de áudio. | Yes | |
| compression_ratio | number | A taxa de compactação desse segmento de áudio. | Yes | |
| end | number | A hora em que esse segmento terminou em relação ao início do áudio traduzido. | Yes | |
| id | inteiro | O índice baseado em 0 desse segmento em uma tradução. | Yes | |
| no_speech_prob | number | A probabilidade de não haver detecção de fala nesse segmento de áudio. | Yes | |
| seek | inteiro | A posição de busca associada ao processamento desse segmento de áudio. As posições de busca são expressas como centésimos de segundos. O modelo pode processar vários segmentos de uma única posição de busca, portanto, embora a posição de busca nunca represente um horário posterior ao início do segmento, o início do segmento pode representar um tempo significativamente mais tarde do que a posição de busca associada do segmento. |
Yes | |
| start | number | A hora em que esse segmento começou em relação ao início do áudio traduzido. | Yes | |
| temperature | number | A pontuação de temperatura associada a esse segmento de áudio. | Yes | |
| enviar SMS | cadeia | O texto traduzido que fazia parte desse segmento de áudio. | Yes | |
| tokens | matriz | As IDs de token que correspondem ao texto traduzido nesse segmento de áudio. | Yes |
AzureAIFoundryModelsApiVersion
| Property | Value |
|---|---|
| Type | cadeia |
| Values | v1preview |
AzureAudioTranscriptionResponse
Informações de resultado de uma operação que transscreveu áudio falado em texto escrito.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| duration | number | A duração total do áudio processado para produzir informações de transcrição que acompanham. | No | |
| linguagem | cadeia | O idioma falado detectado nos dados de áudio transcritos. Isso é expresso como um código de idioma ISO-639-1 de duas letras, como 'en' ou 'fr'. |
No | |
| segments | matriz | Uma coleção de informações sobre o tempo, as probabilidades e outros detalhes de cada segmento de áudio processado. | No | |
| tarefa | objeto | Define os possíveis descritores para respostas de operação de áudio disponíveis. | No | |
| enviar SMS | cadeia | O texto transcrito para os dados de áudio fornecidos. | Yes | |
| words | matriz | Uma coleção de informações sobre o tempo de cada palavra processada. | No |
AzureAudioTranslationResponse
Informações sobre o resultado de uma operação que traduziu áudio falado em texto escrito.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| duration | number | A duração total do áudio processado para produzir informações de tradução que o acompanham. | No | |
| linguagem | cadeia | O idioma falado que foi detectado nos dados de áudio traduzidos. Isso é expresso como um código de idioma ISO-639-1 de duas letras, como 'en' ou 'fr'. |
No | |
| segments | matriz | Uma coleção de informações sobre o tempo, as probabilidades e outros detalhes de cada segmento de áudio processado. | No | |
| tarefa | objeto | Define os possíveis descritores para respostas de operação de áudio disponíveis. | No | |
| enviar SMS | cadeia | O texto traduzido para os dados de áudio fornecidos. | Yes |
AzureChatCompletionResponseMessage
O componente de modelo de resposta estendida para mensagens de conclusão de chat no serviço Azure OpenAI. Esse modelo adiciona suporte para o contexto de mensagem de chat, usado pelo recurso On Your Data para intenção, citações e outras informações relacionadas à geração aumentada de recuperação executada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | matriz | Anotações para a mensagem, quando aplicável, como ao usar a ferramenta de pesquisa na Web. | No | |
| audio | objeto | Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. | No | |
| └─ dados | cadeia | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. | No | |
| └─ data_de_expiração | inteiro | O carimbo de data/hora Unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos. | No | |
| └─ id | cadeia | Identificador único para essa resposta de áudio. | No | |
| └─ transcrição | cadeia | Transcrição do áudio gerado pelo modelo. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| contexto | objeto | Uma propriedade adicional, adicionada às mensagens de resposta de conclusão de chat, produzidas pelo serviço OpenAI do Azure ao usar o comportamento da extensão. Isso inclui informações de intenção e citação do recurso On Your Data. | No | |
| └─ todos_os_documentos_recuperados | objeto | Informações resumidas sobre documentos recuperados pela operação de recuperação de dados. | No | |
| └─ chunk_id | cadeia | A ID da parte da citação. | No | |
| └─ conteúdo | cadeia | O conteúdo da citação. | No | |
| └─ índice_fonte_de_dados | inteiro | O índice da fonte de dados usada para recuperação. | No | |
| └─ caminho do arquivo | cadeia | O caminho do arquivo para a citação. | No | |
| └─ motivo_do_filtro | enumeração | Se aplicável, uma indicação de por que o documento foi filtrado. Valores possíveis: score, rerank |
No | |
| └─ pontuação_original_de_busca | number | A pontuação de pesquisa original para a recuperação. | No | |
| └─ pontuação_de_reclassificação | number | Pontuação de reclassificação para a recuperação. | No | |
| └─ consultas_de_busca | matriz | As consultas de pesquisa executadas para recuperar documentos. | No | |
| └─ título | cadeia | O título da citação. | No | |
| └─ URL | cadeia | A URL da citação. | No | |
| └─ citações | matriz | As citações produzidas pela recuperação de dados. | No | |
| └─ intent | cadeia | A intenção detectada do histórico de chat, que é usada para levar o contexto da conversa entre interações | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ Argumentos | cadeia | No | ||
| └─ nome | cadeia | No | ||
| reasoning_content | cadeia | Uma propriedade de extensão específica do Azure contendo conteúdo de raciocínio gerado por modelos suportados. | No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| função | enumeração | A função do autor dessa mensagem. Valores possíveis: assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
AzureChatCompletionStreamResponseDelta
O modelo de resposta estendida para uma mensagem de resposta de chat de streaming no serviço Azure OpenAI. Esse modelo adiciona suporte para o contexto de mensagem de chat, usado pelo recurso On Your Data para intenção, citações e outras informações relacionadas à geração aumentada de recuperação executada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | No | ||
| └─ dados | cadeia | No | ||
| └─ data_de_expiração | inteiro | No | ||
| └─ id | cadeia | No | ||
| └─ transcrição | cadeia | No | ||
| conteúdo | cadeia | O conteúdo da mensagem de parte. | No | |
| contexto | objeto | Uma propriedade adicional, adicionada às mensagens de resposta de conclusão de chat, produzidas pelo serviço OpenAI do Azure ao usar o comportamento da extensão. Isso inclui informações de intenção e citação do recurso On Your Data. | No | |
| └─ todos_os_documentos_recuperados | objeto | Informações resumidas sobre documentos recuperados pela operação de recuperação de dados. | No | |
| └─ chunk_id | cadeia | A ID da parte da citação. | No | |
| └─ conteúdo | cadeia | O conteúdo da citação. | No | |
| └─ índice_fonte_de_dados | inteiro | O índice da fonte de dados usada para recuperação. | No | |
| └─ caminho do arquivo | cadeia | O caminho do arquivo para a citação. | No | |
| └─ motivo_do_filtro | enumeração | Se aplicável, uma indicação de por que o documento foi filtrado. Valores possíveis: score, rerank |
No | |
| └─ pontuação_original_de_busca | number | A pontuação de pesquisa original para a recuperação. | No | |
| └─ pontuação_de_reclassificação | number | Pontuação de reclassificação para a recuperação. | No | |
| └─ consultas_de_busca | matriz | As consultas de pesquisa executadas para recuperar documentos. | No | |
| └─ título | cadeia | O título da citação. | No | |
| └─ URL | cadeia | A URL da citação. | No | |
| └─ citações | matriz | As citações produzidas pela recuperação de dados. | No | |
| └─ intent | cadeia | A intenção detectada do histórico de chat, que é usada para levar o contexto da conversa entre interações | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ Argumentos | cadeia | No | ||
| └─ nome | cadeia | No | ||
| reasoning_content | cadeia | Uma propriedade de extensão específica do Azure contendo conteúdo de raciocínio gerado por modelos suportados. | No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | No | |
| função | objeto | A função do autor de uma mensagem | No | |
| tool_calls | matriz | No |
AzureChatDataSource
Uma representação de dados de configuração para uma única fonte de dados de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Discriminador para AzureChatDataSource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
azure_search |
AzureSearchChatDataSource |
azure_cosmos_db |
AzureCosmosDBChatDataSource |
elasticsearch |
ElasticsearchChatDataSource |
pinecone |
PineconeChatDataSource |
mongo_db |
MongoDBChatDataSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | objeto | Yes |
AzureChatDataSourceAccessTokenAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| access_token | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: access_token |
Yes |
AzureChatDataSourceApiKeyAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: api_key |
Yes |
AzureChatDataSourceAuthenticationOptions
Discriminador para AzureChatDataSourceAuthenticationOptions
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
system_assigned_managed_identity |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions |
access_token |
AzureChatDataSourceAccessTokenAuthenticationOptions |
connection_string |
AzureChatDataSourceConnectionStringAuthenticationOptions |
key_and_key_id |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions |
username_and_password |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | AzureChatDataSourceAuthenticationOptionsType | Yes |
AzureChatDataSourceAuthenticationOptionsType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | api_keyusername_and_passwordconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identity |
AzureChatDataSourceConnectionStringAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| connection_string | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: connection_string |
Yes |
AzureChatDataSourceDeploymentNameVectorizationSource
Representa uma fonte de vetorização que faz chamadas de serviço internas em uma implantação de modelo de inserção do OpenAI do Azure. Em contraste com a fonte de vetorização baseada em ponto de extremidade, uma fonte de vetorização baseada em nome de implantação deve fazer parte do mesmo recurso do OpenAI do Azure, mas pode ser usada até mesmo em redes privadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | cadeia | A implantação do modelo de inserção a ser usada para vetorização. Essa implantação deve existir no mesmo recurso do OpenAI do Azure que a implantação de modelo que está sendo usada para conclusões de chat. | Yes | |
| dimensions | inteiro | O número de dimensões a serem solicitadas em inserções. Só há suporte em modelos 'text-embedding-3' e posteriores. |
No | |
| tipo | enumeração | O identificador de tipo, sempre 'deployment_name' para esse tipo de origem de vetorização. Valores possíveis: deployment_name |
Yes |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: encoded_api_key |
Yes |
AzureChatDataSourceEndpointVectorizationSource
Representa uma fonte de vetorização que faz chamadas de serviço público em uma implantação de modelo de inserção do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | objeto | Yes | ||
| └─ token_de_acesso | cadeia | No | ||
| └─ chave | cadeia | No | ||
| └─ tipo | enumeração | Valores possíveis: access_token |
No | |
| dimensions | inteiro | O número de dimensões a serem solicitadas em inserções. Só há suporte em modelos 'text-embedding-3' e posteriores. |
No | |
| ponto de extremidade | cadeia | Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas. Ele deve estar no formato de: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. |
Yes | |
| tipo | enumeração | O identificador de tipo, sempre 'endpoint' para esse tipo de origem de vetorização. Valores possíveis: endpoint |
Yes |
AzureChatDataSourceIntegratedVectorizationSource
Representa uma fonte de vetorização integrada, conforme definido no recurso de pesquisa de suporte.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O identificador de tipo, sempre 'integrated' para esse tipo de origem de vetorização. Valores possíveis: integrated |
Yes |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | Yes | ||
| key_id | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: key_and_key_id |
Yes |
AzureChatDataSourceModelIdVectorizationSource
Representa uma fonte de vetorização que faz chamadas de serviço com base em uma ID do modelo de serviço de pesquisa. Atualmente, esse tipo de origem só tem suporte do Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| model_id | cadeia | A ID de build do modelo de inserção a ser usada para vetorização. | Yes | |
| tipo | enumeração | O identificador de tipo, sempre 'model_id' para esse tipo de origem de vetorização. Valores possíveis: model_id |
Yes |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: system_assigned_managed_identity |
Yes |
AzureChatDataSourceType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | azure_searchazure_cosmos_dbelasticsearchpineconemongo_db |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: user_assigned_managed_identity |
Yes |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| senha | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: username_and_password |
Yes | |
| nome de usuário | cadeia | Yes |
AzureChatDataSourceVectorizationSource
Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados.
Discriminador para AzureChatDataSourceVectorizationSource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
deployment_name |
AzureChatDataSourceDeploymentNameVectorizationSource |
integrated |
AzureChatDataSourceIntegratedVectorizationSource |
model_id |
AzureChatDataSourceModelIdVectorizationSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | objeto | Yes |
AzureChatDataSourceVectorizationSourceType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | endpointdeployment_namemodel_idintegrated |
AzureChatMessageContext
Uma propriedade adicional, adicionada às mensagens de resposta de conclusão de chat, produzidas pelo serviço OpenAI do Azure ao usar o comportamento da extensão. Isso inclui informações de intenção e citação do recurso On Your Data.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | objeto | Informações resumidas sobre documentos recuperados pela operação de recuperação de dados. | No | |
| └─ chunk_id | cadeia | A ID da parte da citação. | No | |
| └─ conteúdo | cadeia | O conteúdo da citação. | No | |
| └─ índice_fonte_de_dados | inteiro | O índice da fonte de dados usada para recuperação. | No | |
| └─ caminho do arquivo | cadeia | O caminho do arquivo para a citação. | No | |
| └─ motivo_do_filtro | enumeração | Se aplicável, uma indicação de por que o documento foi filtrado. Valores possíveis: score, rerank |
No | |
| └─ pontuação_original_de_busca | number | A pontuação de pesquisa original para a recuperação. | No | |
| └─ pontuação_de_reclassificação | number | Pontuação de reclassificação para a recuperação. | No | |
| └─ consultas_de_busca | matriz | As consultas de pesquisa executadas para recuperar documentos. | No | |
| └─ título | cadeia | O título da citação. | No | |
| └─ URL | cadeia | A URL da citação. | No | |
| citations | matriz | As citações produzidas pela recuperação de dados. | No | |
| intenção | cadeia | A intenção detectada do histórico de chat, que é usada para levar o contexto da conversa entre interações | No |
AzureContentFilterBlocklistResult
Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. | No | |
| filtered | boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | Yes |
AzureContentFilterCompletionTextSpan
Uma representação de um intervalo de texto de conclusão, conforme usado pelos resultados do filtro de conteúdo do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset em intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. | Yes | |
| completion_start_offset | inteiro | Deslocamento do ponto de código UTF32 que inicia o intervalo. | Yes |
AzureContentFilterCompletionTextSpanDetectionResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | Informações detalhadas sobre os intervalos de texto de conclusão detectados. | Yes | |
| detected | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Yes | |
| filtered | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Yes |
AzureContentFilterCustomTopicResult
Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | Os pares de IDs de tópicos individuais e se eles foram detectados. | No | |
| filtered | boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | Yes |
AzureContentFilterDetectionResult
Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Yes | |
| filtered | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Yes |
AzureContentFilterImagePromptResults
Um resultado do filtro de conteúdo para o conteúdo da solicitação de entrada de uma operação de geração de imagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | objeto | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | No | |
| └─ detalhes | matriz | Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. | No | |
| └─ filtrado | boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | No | |
| custom_topics | objeto | Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados. | No | |
| └─ detalhes | matriz | Os pares de IDs de tópicos individuais e se eles foram detectados. | No | |
| └─ filtrado | boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | No | |
| jailbreak | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | Yes | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| profanity | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No |
AzureContentFilterImageResponseResults
Um resultado de filtro de conteúdo para o conteúdo de resposta de saída de uma operação de geração de imagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hate | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| self_harm | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| sexual | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| violence | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No |
AzureContentFilterResultForChoice
Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | objeto | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | No | |
| └─ detalhes | matriz | Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. | No | |
| └─ filtrado | boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | No | |
| custom_topics | objeto | Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados. | No | |
| └─ detalhes | matriz | Os pares de IDs de tópicos individuais e se eles foram detectados. | No | |
| └─ filtrado | boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | No | |
| erro | objeto | Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. | No | |
| └─ código | inteiro | Um código distinto e legível pelo computador associado ao erro. | No | |
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | No | |
| hate | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| profanity | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| protected_material_code | objeto | Um resultado de detecção que descreve uma correspondência com o código licenciado ou outro material de origem protegido. | No | |
| └─ citação | objeto | Se disponível, os detalhes da citação que descrevem a licença associada e sua localização. | No | |
| └─ URL | cadeia | A URL associada à licença. | No | |
| └─ Licença | cadeia | O nome ou identificador da licença associada à detecção. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| protected_material_text | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| self_harm | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| sexual | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| violence | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No |
AzureContentFilterResultForPrompt
Um resultado de filtro de conteúdo associado a um único item de solicitação de entrada em um sistema de IA generativa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | objeto | Os detalhes da categoria de filtro de conteúdo para o resultado. | No | |
| └─ listas_personalizadas_de_bloqueio | objeto | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | No | |
| └─ detalhes | matriz | Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. | No | |
| └─ filtrado | boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | No | |
| └─ tópicos_personalizados | objeto | Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados. | No | |
| └─ detalhes | matriz | Os pares de IDs de tópicos individuais e se eles foram detectados. | No | |
| └─ filtrado | boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | No | |
| └─ erro | objeto | Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. | No | |
| └─ código | inteiro | Um código distinto e legível pelo computador associado ao erro. | No | |
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | No | |
| └─ ódio | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| └─ ataque_indireto | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ desbloqueio | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ palavrões | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. | No | |
| └─ detectado | boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | No | |
| └─ filtrado | boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ automutilação | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| └─ sexual | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| └─ violência | objeto | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. | No | |
| └─ filtrado | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | No | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
No | |
| prompt_index | inteiro | O índice da solicitação de entrada associado às categorias de resultado do filtro de conteúdo que acompanham. | No |
AzureContentFilterSeverityResult
Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Yes | |
| severity | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Yes |
AzureCosmosDBChatDataSource
Representa uma configuração de fonte de dados que usará um recurso do Azure CosmosDB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | objeto | As informações de parâmetro para controlar o uso da fonte de dados do Azure CosmosDB. | Yes | |
| └─ permitir_resultado_parcial | boolean | Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| └─ autenticação | AzureChatDataSourceConnectionStringAuthenticationOptions | No | ||
| └─ container_name | cadeia | No | ||
| └─ nome_do_banco_de_dados | cadeia | No | ||
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados. | No | |
| └─ mapeamento_de_campos | objeto | No | ||
| └─ campos_de_conteúdo | matriz | No | ||
| └─ separador_dos_campos_de_conteúdo | cadeia | No | ||
| └─ campo_caminho_do_arquivo | cadeia | No | ||
| └─ campo_do_título | cadeia | No | ||
| └─ campo_de_url | cadeia | No | ||
| └─ campos_de_vetores | matriz | No | ||
| └─ in_scope | boolean | Se as consultas devem ser restritas ao uso dos dados indexados. | No | |
| └─ incluir_contextos | matriz | As propriedades de contexto de saída a serem incluídas na resposta. Por padrão, as citações e a intenção serão solicitadas. |
No | ['citações', 'intenções'] |
| └─ nome_do_índice | cadeia | No | ||
| └─ consultas_de_busca_máximas | inteiro | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário. Por padrão, o sistema fará uma determinação automática. |
No | |
| └─ rigidez | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta. |
No | |
| └─ top_n_documents | inteiro | O número configurado de documentos a serem apresentados na consulta. | No | |
| tipo | enumeração | O identificador de tipo discriminado, que é sempre "azure_cosmos_db". Valores possíveis: azure_cosmos_db |
Yes |
AzureCreateChatCompletionRequest
O modelo de solicitação estendida para conclusões de chat no serviço OpenAI do Azure. Isso adiciona a capacidade de fornecer fontes de dados para o recurso On Your Data.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ Formato | enumeração | Especifica o formato do áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16.Valores possíveis: wav, , aac, mp3, flac, , opuspcm16 |
No | |
| └─ voz | objeto | No | ||
| data_sources | matriz | As fontes de dados a serem usadas para o recurso On Your Data, exclusivo do Azure OpenAI. | No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. | No | 0 |
| function_call | enumeração | Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.Valores possíveis: none, auto |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. Esse valor pode ser usado para controlar os custos do texto gerado por meio da API. Esse valor agora foi preterido em favor de max_completion_tokens, e não é compatível com modelos da série o1. |
No | |
| messages | matriz | Uma lista de mensagens que resumem a conversa até agora. Dependendo do modelo usado, há suporte para diferentes tipos de mensagens (modalidades), como texto, imagens e áudio. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modalities | objeto | Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| modelo | cadeia | O identificador de implantação de modelo a ser usado para a solicitação de conclusão do chat. | Yes | |
| n | inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
No | 1 |
| parallel_tool_calls | objeto | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | |
| previsão | objeto | Representação base da saída prevista de um modelo. | No | |
| └─ tipo | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. | No | 0 |
| reasoning_effort | objeto |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| response_format | objeto | No | ||
| └─ tipo | enumeração | Valores possíveis: text, , json_objectjson_schema |
No | |
| seed | inteiro | Esse recurso está em Versão Beta. Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar alterações no backend. |
No | |
| stop | objeto | Modelos de raciocínio mais recentes o3 e o4-mini não são suportados.Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada. |
No | |
| armazenar | boolean | Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em produtos de destilação de modelo ou de avaliação. | No | False |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. | No | False |
| stream_options | objeto | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | |
| └─ include_usage | boolean | Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia.Todas as outras partes também incluirão um campo usage, mas com um valor nulo.
NOTA: Se o fluxo for interrompido, você poderá não receber a parte de uso final que contém o uso total do token para a solicitação. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas.Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.none é o padrão quando não há nenhuma ferramenta presente.
auto é o padrão se ferramentas estiverem presente. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. | No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | No | |
| user_security_context | AzureUserSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | No |
AzureCreateChatCompletionResponse
O modelo de resposta de conclusão de chat de nível superior estendido para o serviço OpenAI do Azure. Esse modelo adiciona anotações de filtro de conteúdo de IA responsável para entrada de solicitação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Yes | ||
| created | inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Yes | |
| id | cadeia | Identificador exclusivo para conclusão de chat. | Yes | |
| modelo | cadeia | O modelo usado para a conclusão do chat. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| prompt_filter_results | matriz | As anotações de filtro de conteúdo de IA responsável associadas a entradas de solicitação em conclusões de chat. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
No | |
| uso | OpenAI.CompletionUsage | Estatísticas de uso para a solicitação de preenchimento. | No |
AzureCreateChatCompletionStreamResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. Também pode estar vazio para a última parte se você definir stream_options: {"include_usage": true}. |
Yes | |
| content_filter_results | AzureContentFilterResultForChoice | Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo. | No | |
| created | inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Cada parte tem o mesmo carimbo de data/hora. | Yes | |
| delta | AzureChatCompletionStreamResponseDelta | O modelo de resposta estendida para uma mensagem de resposta de chat de streaming no serviço Azure OpenAI. Esse modelo adiciona suporte para o contexto de mensagem de chat, usado pelo recurso On Your Data para intenção, citações e outras informações relacionadas à geração aumentada de recuperação executada. |
No | |
| id | cadeia | Identificador exclusivo para conclusão de chat. Cada parte tem a mesma ID. | Yes | |
| modelo | cadeia | O modelo para gerar a conclusão. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
No | |
| uso | objeto | Estatísticas de uso para a solicitação de preenchimento. | No | |
| └─ completion_tokens | inteiro | Número de tokens na conclusão gerada. | No | 0 |
| └─ completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | No | |
| └─ tokens_de_predição_aceitos | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. | No | 0 |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio gerados pelo modelo. | No | 0 |
| └─ tokens_de_raciocínio | inteiro | Tokens gerados pelo modelo para raciocínio. | No | 0 |
| └─ rejected_prediction_tokens | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contabilizados no total de tokens de conclusão para fins de cobrança, saída e limites da janela de contexto. | No | 0 |
| └─ prompt_tokens | inteiro | Número de tokens no prompt. | No | 0 |
| └─ prompt_tokens_details | objeto | Divisão de tokens usados na solicitação. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio presentes na solicitação. | No | 0 |
| └─ tokens em cache | inteiro | Tokens armazenados em cache presentes no prompt. | No | 0 |
| └─ total_tokens | inteiro | Número total de tokens utilizados na solicitação (prompt + conclusão). | No | 0 |
AzureCreateEmbeddingRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dimensions | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
No | |
| encoding_format | enumeração | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64.Valores possíveis: float, base64 |
No | |
| entrada | cadeia de caracteres ou matriz | Yes | ||
| modelo | cadeia | O modelo a ser usado para a solicitação de inserção. | Yes | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
AzureCreateFileRequestMultiPart
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | objeto | Yes | ||
| └─ âncora | AzureFileExpiryAnchor | No | ||
| └─ segundos | inteiro | No | ||
| arquivo | cadeia | Yes | ||
| purpose | enumeração | A finalidade pretendida do arquivo carregado. Um de: — assistants: usado na API de Assistentes — batch: usado na API do Lote — fine-tune: usado para ajuste fino — evals: usado nos conjuntos de dados de avaliação. Valores possíveis: assistants, , batch, fine-tuneevals |
Yes |
AzureCreateImageEditRequestMultiPart
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | enumeração | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.Valores possíveis: transparent, , opaqueauto |
No | |
| imagem | cadeia de caracteres ou matriz | Yes | ||
| máscara | cadeia | No | ||
| modelo | cadeia | A implantação de modelo a ser usada para a operação de edição de imagem. | Yes | |
| n | inteiro | O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. | No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só é compatível com modelos da série gpt-image-1 que possuam os formatos de saída webp ou jpeg, e tem o valor padrão de 100. |
No | 100 |
| output_format | enumeração | O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.O valor padrão é png.Valores possíveis: png, , jpegwebp |
No | |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 1.000 caracteres para dall-e-2, e 32.000 caracteres para gpt-image-1 modelos da série. |
Yes | |
| quality | enumeração | A qualidade da imagem que será gerada.
high, medium e low só têm suporte para gpt-image-1modelos de série.
dall-e-2 só dá suporte à qualidade standard. Usa auto como padrão.Valores possíveis: standard, , low, medium, high, auto |
No | |
| response_format | enumeração | O formato no qual as imagens geradas são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro só tem suporte para dall-e-2modelos de série, pois gpt-image-1os modelos de série sempre retornarão imagens codificadas em base64.Valores possíveis: url, b64_json |
No | |
| size | enumeração | O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série e um de 256x256, 512x512ou 1024x1024 para dall-e-2.Valores possíveis: 256x256, , 512x512, 1024x1024, 1536x1024, , 1024x1536auto |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
AzureCreateImageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | enumeração | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.Valores possíveis: transparent, , opaqueauto |
No | |
| modelo | cadeia | A implantação de modelo a ser usada para a geração de imagem. | Yes | |
| moderation | enumeração | Controlar o nível de moderação de conteúdo para imagens geradas por modelos de série gpt-image-1. Deve ser low para filtragem menos restritiva ou auto (valor padrão).Valores possíveis: low, auto |
No | |
| n | inteiro | O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. Para dall-e-3, apenas n=1 é suportado. |
No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com os formatos de saída webp ou jpeg e tem o valor padrão de 100. |
No | 100 |
| output_format | enumeração | O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.Valores possíveis: png, , jpegwebp |
No | |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1, 1.000 caracteres para dall-e-2 e 4.000 caracteres para dall-e-3. |
Yes | |
| quality | enumeração | A qualidade da imagem que será gerada. - auto (valor padrão) selecionará automaticamente a melhor qualidade para o modelo fornecido.- high
medium e low são compatíveis com os modelos de série gpt-image-1.- hd e standard têm suporte para dall-e-3.- standard é a única opção para dall-e-2.Valores possíveis: standard, , hd, low, medium, , highauto |
No | |
| response_format | enumeração | O formato no qual imagens geradas com dall-e-2 e dall-e-3 são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.Valores possíveis: url, b64_json |
No | |
| size | enumeração | O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série, um de 256x256, 512x512ou 1024x1024 para dall-e-2, e um de 1024x1024, 1792x1024ou 1024x1792 para dall-e-3.Valores possíveis: auto, , 1024x1024, 1536x1024, 1024x1536, 256x256, 512x512, , , 1792x10241024x1792 |
No | |
| estilo | enumeração | O estilo das imagens geradas. Esse parâmetro só tem suporte para dall-e-3. Deve ser um de vivid ou natural. O Vivid faz com que o modelo se incline para gerar imagens hiper-reais e dramáticas. A função "Natural" faz com que o modelo produza imagens mais naturais e menos hiper-realistas.Valores possíveis: vivid, natural |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
AzureCreateResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| include | matriz | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são: - code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.- message.output_text.logprobs: inclua os logprobs com mensagens de assistente.- reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero). |
No | |
| entrada | cadeia de caracteres ou matriz | No | ||
| instructions | cadeia | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | A implantação do modelo a ser usada para a criação dessa resposta. | Yes | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| solicitação | objeto | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ id | cadeia | O identificador exclusivo do modelo de prompt a ser usado. | No | |
| └─ variáveis | OpenAI.ResponsePromptVariables | Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. | No | |
| └─ versão | cadeia | Versão opcional do modelo de prompt. | No | |
| reasoning | objeto |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ esforço | OpenAI.ReasoningEffort |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| └─ gerar_resumo | enumeração |
Preterido: use summary em vez disso.Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| └─ resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| armazenar | boolean | Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. | No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. | No | False |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | objeto | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
No | |
| └─ tipo | OpenAI.ToolChoiceObjectType | Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. | No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo, como a pesquisa de arquivos. - Chamadas de função (ferramentas personalizadas): Funções definidas por você, permitindo que o modelo chame seu próprio código. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No |
AzureCreateSpeechRequestMultiPart
Uma representação das opções de solicitação que controlam o comportamento de uma operação de conversão de texto em fala.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para o qual gerar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| instructions | cadeia | Controle a voz do áudio gerado com instruções adicionais. Não funciona com tts-1 ou tts-1-hd. |
No | |
| modelo | cadeia | O modelo a ser usado para essa solicitação de conversão de texto em fala. | Yes | |
| response_format | objeto | Os formatos de saída de áudio com suporte para conversão de texto em fala. | No | |
| speed | number | A velocidade da fala do áudio gerado. Os valores são válidos no intervalo de 0,25 a 4,0, com 1,0 os valores padrão e mais altos correspondentes à fala mais rápida. | No | 1 |
| stream_format | enumeração | O formato para transmitir o áudio. Os formatos com suporte são sse e audio.
sse não há suporte para tts-1 ou tts-1-hd.Valores possíveis: sse, audio |
No | |
| voice | objeto | Yes |
AzureCreateTranscriptionRequestMultiPart
As informações de configuração de uma solicitação de transcrição de áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | objeto | No | ||
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). | No | 300 |
| └─ duração_do_silêncio_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | 200 |
| └─ limite | number | Limite de sensibilidade (0.0 a 1.0) para detecção de atividade de voz. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. | No | 0.5 |
| └─ tipo | enumeração | Deve ser definido para server_vad a fim de habilitar o agrupamento manual usando o VAD do lado do servidor.Valores possíveis: server_vad |
No | |
| arquivo | cadeia | Yes | ||
| filename | cadeia | O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio. | No | |
| include[] | matriz | Informações adicionais a serem incluídas na resposta de transcrição.logprobs retornará as probabilidades logarítmicas dos tokens na resposta para entender a confiança do modelo na transcrição.logprobs funciona somente quando o response_format está definido como json e apenas com os modelos gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe e gpt-4o-mini-transcribe-2025-12-15. |
No | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhorará a precisão e a latência. |
No | |
| modelo | cadeia | O modelo a ser usado para essa solicitação de transcrição. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. | No | |
| response_format | objeto | No | ||
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. Observação: o streaming não tem suporte para o whisper-1 modelo e será ignorado. |
No | False |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição.
response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. |
No | ['segment'] |
AzureCreateTranslationRequestMultiPart
As informações de configuração de uma solicitação de transcrição de áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | Yes | ||
| filename | cadeia | O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio | No | |
| modelo | cadeia | O modelo a ser usado nessa solicitação de tradução. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | No | |
| response_format | objeto | No | ||
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
AzureErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | objeto | Os detalhes do erro. | No | |
| └─ código | cadeia | O identificador distinto gerado pelo computador para o erro. | No | |
| └─ erro_interno | No | |||
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | No | |
| └─ param | cadeia | Se aplicável, o parâmetro de entrada de solicitação associado ao erro | No | |
| └─ tipo | enumeração | O tipo de objeto, sempre 'error.' Valores possíveis: error |
No |
AzureEvalAPICompletionsSamplingParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | matriz | No |
AzureEvalAPIModelSamplingParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| max_tokens | inteiro | O número máximo de tokens na saída gerada. | No | |
| reasoning_effort | enumeração | Controla o nível de esforço de raciocínio aplicado durante a geração. Valores possíveis: low, , mediumhigh |
No | |
| seed | inteiro | Um valor inicial para inicializar a aleatoriedade durante a amostragem. | No | |
| temperature | number | Uma temperatura mais alta aumenta a aleatoriedade nas saídas. | No | |
| top_p | number | Uma alternativa à temperatura para amostragem de núcleo; 1.0 inclui todos os tokens. | No |
AzureEvalAPIResponseSamplingParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | matriz | No |
AzureFileExpiryAnchor
| Property | Value |
|---|---|
| Type | cadeia |
| Values | created_at |
AzureFineTuneReinforcementMethod
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| motoniveladora | objeto | Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. | Yes | |
| └─ calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | No | |
| └─ métrica_de_avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
No | |
| └─ graders | objeto | No | ||
| └─ entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | No | |
| └─ modelo | cadeia | O modelo a ser usado para a avaliação. | No | |
| └─ nome | cadeia | O nome do avaliador. | No | |
| └─ Operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
No | |
| └─ intervalo | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| └─ Referência | cadeia | O texto de referência para avaliação. | No | |
| └─ sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| └─ tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
No | |
| hiperparâmetros | OpenAI.FineTuneReinforcementHyperparameters | Os hiperparâmetros usados no trabalho de ajuste fino de reforço. | No | |
| response_format | objeto | No | ||
| └─ esquema_json | objeto | Esquema JSON para o formato de resposta | No | |
| └─ tipo | enumeração | Tipo de formato de resposta. Valores possíveis: json_schema |
No |
AzureImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| b64_json | cadeia | O JSON codificado em base64 da imagem gerada. Valor padrão para modelos da série gpt-image-1, e presente somente se response_format for definido como b64_json para dall-e-2 e dall-e-3. |
No | |
| content_filter_results | AzureContentFilterImageResponseResults | Um resultado de filtro de conteúdo para o conteúdo de resposta de saída de uma operação de geração de imagem. | Yes | |
| prompt_filter_results | AzureContentFilterImagePromptResults | Um resultado do filtro de conteúdo para o conteúdo da solicitação de entrada de uma operação de geração de imagem. | Yes | |
| revised_prompt | cadeia | Somente dall-e-3 para o prompt revisado que foi usado para gerar a imagem. |
No | |
| url | cadeia | Ao usar dall-e-2 ou dall-e-3, a URL da imagem gerada se response_format estiver definida como url (valor padrão). Sem suporte para modelos da série gpt-image-1. |
No |
AzureImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | enumeração | O parâmetro de plano de fundo usado na geração de imagem.
transparent ou opaque.Valores possíveis: transparent, opaque |
No | |
| created | inteiro | O timestamp Unix (em segundos) indicando quando a imagem foi criada. | Yes | |
| dados | matriz | No | ||
| output_format | enumeração | O formato de saída da geração de imagem.
png, webp ou jpeg.Valores possíveis: png, , webpjpeg |
No | |
| quality | enumeração | A qualidade da imagem gerada.
low, medium ou high.Valores possíveis: low, , mediumhigh |
No | |
| size | enumeração | O tamanho da imagem gerada.
1024x1024, 1024x1536 ou 1536x1024.Valores possíveis: 1024x1024, , 1024x15361536x1024 |
No | |
| uso | objeto | Somente para os modelos da série gpt-image-1, as informações de uso do token para a geração de imagens. |
No | |
| └─ tokens de entrada | inteiro | O número de tokens (imagens e texto) na solicitação de entrada. | No | |
| └─ detalhes_de_tokens_de_entrada | objeto | As informações detalhadas dos tokens de entrada para a geração de imagem. | No | |
| └─ image_tokens | inteiro | O número de tokens de imagem na solicitação de entrada. | No | |
| └─ text_tokens | inteiro | O número de tokens de texto na solicitação de entrada. | No | |
| └─ tokens_de_saída | inteiro | O número de tokens de imagem na imagem de saída. | No | |
| └─ total_tokens | inteiro | O número total de tokens (imagens e texto) usados para a geração de imagem. | No |
AzureListFilesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
AzureOpenAIFile
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | inteiro | O tamanho do arquivo, em bytes. | Yes | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) da data em que o arquivo foi criado. | Yes | |
| expires_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o arquivo expirará. | No | |
| filename | cadeia | O nome do arquivo. | Yes | |
| id | cadeia | O identificador do arquivo, que pode ser referenciado nos pontos finais da API. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre file.Valores possíveis: file |
Yes | |
| purpose | enumeração | A finalidade pretendida do arquivo. Os valores com suporte são assistants, assistants_output, batch, batch_output, fine-tune e fine-tune-results.Valores possíveis: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals |
Yes | |
| status | enumeração | Valores possíveis: uploaded, pending, running, processed, error, deleting, deleted |
Yes | |
| detalhes_do_status | cadeia | Preterido. Para obter detalhes sobre por que um arquivo de treinamento de ajuste fino falhou na validação, consulte o error campo em fine_tuning.job. |
No |
AzureOpenAIVideoGenerationErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O identificador distinto gerado pelo computador para o erro. | No | |
| inner_error | objeto | Se aplicável, um erro upstream que originou esse erro. | No | |
| └─ código | enumeração | O código associado ao erro interno. Valores possíveis: ResponsibleAIPolicyViolation |
No | |
| └─ detalhes_do_erro | Os detalhes do resultado do filtro de conteúdo associados ao erro interno. | No | ||
| └─ revised_prompt | cadeia | Se aplicável, a solicitação modificada usada para geração. | No | |
| mensagem | cadeia | Uma mensagem legível por humanos associada ao erro. | No | |
| param | cadeia | Se aplicável, o parâmetro de entrada de solicitação associado ao erro | No | |
| tipo | cadeia | Se aplicável, o número da linha de entrada associado ao erro. | No |
AzureResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Yes | |
| erro | objeto | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | Yes | |
| └─ código | OpenAI.ResponseErrorCode | O código de erro da resposta. | No | |
| Mensagem └─ | cadeia | Uma descrição do erro legível para humanos. | No | |
| id | cadeia | Identificador exclusivo para esta resposta. | Yes | |
| incomplete_details | objeto | Detalhes sobre por que a resposta está incompleta. | Yes | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| instructions | cadeia de caracteres ou matriz | Yes | ||
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia | O modelo usado para gerar essa resposta. | Yes | |
| objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Yes | |
| saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
Yes | |
| output_text | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Yes | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| solicitação | objeto | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ id | cadeia | O identificador exclusivo do modelo de prompt a ser usado. | No | |
| └─ variáveis | OpenAI.ResponsePromptVariables | Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. | No | |
| └─ versão | cadeia | Versão opcional do modelo de prompt. | No | |
| reasoning | objeto |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ esforço | OpenAI.ReasoningEffort |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| └─ gerar_resumo | enumeração |
Preterido: use summary em vez disso.Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| └─ resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| status | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
Yes | |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | objeto | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
No | |
| └─ tipo | OpenAI.ToolChoiceObjectType | Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. | No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
Yes | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | Yes |
AzureSearchChatDataSource
Representa uma configuração de fonte de dados que usará um recurso do Azure Search.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | objeto | As informações de parâmetro para controlar o uso da fonte de dados do Azure Search. | Yes | |
| └─ permitir_resultado_parcial | boolean | Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| └─ autenticação | objeto | No | ||
| └─ token_de_acesso | cadeia | No | ||
| └─ chave | cadeia | No | ||
| └─ managed_identity_resource_id | cadeia | No | ||
| └─ tipo | enumeração | Valores possíveis: access_token |
No | |
| └─ embedding_dependency | objeto | Representa uma fonte de vetorização que faz chamadas de serviço público em uma implantação de modelo de inserção do OpenAI do Azure. | No | |
| └─ autenticação | AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions | O mecanismo de autenticação a ser usado com a origem de vetorização baseada em ponto de extremidade. A autenticação de ponto de extremidade dá suporte a mecanismos de token de acesso e chave de API. |
No | |
| └─ deployment_name | cadeia | A implantação do modelo de inserção a ser usada para vetorização. Essa implantação deve existir no mesmo recurso do OpenAI do Azure que a implantação de modelo que está sendo usada para conclusões de chat. | No | |
| └─ dimensões | inteiro | O número de dimensões a serem solicitadas em inserções. Só há suporte em modelos 'text-embedding-3' e posteriores. |
No | |
| └─ endpoint | cadeia | Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas. Ele deve estar no formato de: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. |
No | |
| └─ tipo | enumeração | O identificador de tipo, sempre 'integrated' para esse tipo de origem de vetorização. Valores possíveis: integrated |
No | |
| └─ endpoint | cadeia | O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. | No | |
| └─ mapeamento_de_campos | objeto | Os mapeamentos de campo a serem usados com o recurso do Azure Search. | No | |
| └─ campos_de_conteúdo | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| └─ separador_dos_campos_de_conteúdo | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| └─ campo_caminho_do_arquivo | cadeia | O nome do campo de índice a ser utilizado como um caminho de arquivo. | No | |
| └─ Campos de Vetores de Imagem | matriz | Os nomes dos campos que representam dados vetoriais de imagens. | No | |
| └─ campo_do_título | cadeia | O nome do campo de índice a ser utilizado como título. | No | |
| └─ campo_de_url | cadeia | O nome do campo de índice a ser utilizado como URL. | No | |
| └─ campos_de_vetores | matriz | Os nomes dos campos que representam dados vetoriais. | No | |
| └─ filtro | cadeia | Um filtro a ser aplicado à pesquisa. | No | |
| └─ in_scope | boolean | Se as consultas devem ser restritas ao uso dos dados indexados. | No | |
| └─ incluir_contextos | matriz | As propriedades de contexto de saída a serem incluídas na resposta. Por padrão, as citações e a intenção serão solicitadas. |
No | ['citações', 'intenções'] |
| └─ nome_do_índice | cadeia | O nome do índice a ser usado, conforme especificado no recurso do Azure Search. | No | |
| └─ consultas_de_busca_máximas | inteiro | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário. Por padrão, o sistema fará uma determinação automática. |
No | |
| └─ tipo_de_consulta | enumeração | O tipo de consulta para o recurso do Azure Search a ser usado. Valores possíveis: simple, , semantic, vector, vector_simple_hybrid, vector_semantic_hybrid |
No | |
| └─ configuração_semântica | cadeia | Configuração semântica adicional para a consulta. | No | |
| └─ rigidez | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta. |
No | |
| └─ top_n_documents | inteiro | O número configurado de documentos a serem apresentados na consulta. | No | |
| tipo | enumeração | O identificador de tipo discriminado, que é sempre 'azure_search'. Valores possíveis: azure_search |
Yes |
AzureUserSecurityContext
O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| application_name | cadeia | O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas nesse campo. | No | |
| end_user_id | cadeia | Esse identificador é a ID de objeto de usuário do Microsoft Entra ID (antigo Azure Active Directory) usado para autenticar usuários finais no aplicativo de IA generativa. Informações pessoais confidenciais não devem ser incluídas nesse campo. | No | |
| end_user_tenant_id | cadeia | A ID do locatário do Microsoft 365 à qual o usuário final pertence. Ele é necessário quando o aplicativo de IA generativa é multilocatário. | No | |
| source_ip | cadeia | Captura o endereço IP do cliente original. | No |
ChatCompletionMessageToolCallsItem
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Matriz de: OpenAI.ChatCompletionMessageToolCall
CreateVideoGenerationRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| height | inteiro | A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes | |
| modelo | cadeia | O nome da implantação a ser usada para essa solicitação. | Yes | |
| n_seconds | inteiro | A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. | No | 5 |
| n_variants | inteiro | O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. | No | 1 |
| solicitação | cadeia | A solicitação para esse trabalho de geração de vídeo. | Yes | |
| width | inteiro | A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes |
CreateVideoGenerationWithMediaRequestMultiPart
As propriedades de uma solicitação de trabalho de geração de vídeo com arquivos de mídia.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| files | matriz | Yes | ||
| height | inteiro | A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes | |
| inpaint_items | matriz | Itens opcionais de preenchimento para esse trabalho de geração de vídeo. | No | |
| modelo | cadeia | O nome da implantação a ser usada para essa solicitação. | Yes | |
| n_seconds | inteiro | A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. | No | 5 |
| n_variants | inteiro | O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. | No | 1 |
| solicitação | cadeia | A solicitação para esse trabalho de geração de vídeo. | Yes | |
| width | inteiro | A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. | Yes |
CropBounds
Os limites de recorte para um item de preenchimento. Isso especifica a área do item de mídia que deve ser usada para preenchimento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bottom_fraction | number | O limite inferior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. | No | 1 |
| left_fraction | number | O limite esquerdo da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. | No | 0 |
| right_fraction | number | O limite direito da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. | No | 1 |
| top_fraction | number | O limite superior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. | No | 0 |
ElasticsearchChatDataSource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | objeto | As informações de parâmetro para controlar o uso da fonte de dados Elasticsearch. | Yes | |
| └─ permitir_resultado_parcial | boolean | Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| └─ autenticação | objeto | No | ||
| └─ chave_api_codificada | cadeia | No | ||
| └─ chave | cadeia | No | ||
| └─ key_id | cadeia | No | ||
| └─ tipo | enumeração | Valores possíveis: encoded_api_key |
No | |
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados. | No | |
| └─ endpoint | cadeia | No | ||
| └─ mapeamento_de_campos | objeto | No | ||
| └─ campos_de_conteúdo | matriz | No | ||
| └─ separador_dos_campos_de_conteúdo | cadeia | No | ||
| └─ campo_caminho_do_arquivo | cadeia | No | ||
| └─ campo_do_título | cadeia | No | ||
| └─ campo_de_url | cadeia | No | ||
| └─ campos_de_vetores | matriz | No | ||
| └─ in_scope | boolean | Se as consultas devem ser restritas ao uso dos dados indexados. | No | |
| └─ incluir_contextos | matriz | As propriedades de contexto de saída a serem incluídas na resposta. Por padrão, as citações e a intenção serão solicitadas. |
No | ['citações', 'intenções'] |
| └─ nome_do_índice | cadeia | No | ||
| └─ consultas_de_busca_máximas | inteiro | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário. Por padrão, o sistema fará uma determinação automática. |
No | |
| └─ tipo_de_consulta | enumeração | Valores possíveis: simple, vector |
No | |
| └─ rigidez | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta. |
No | |
| └─ top_n_documents | inteiro | O número configurado de documentos a serem apresentados na consulta. | No | |
| tipo | enumeração | O identificador de tipo discriminado, que é sempre 'elasticsearch'. Valores possíveis: elasticsearch |
Yes |
InpaintItem
Um item de preenchimento para uma tarefa de geração de vídeo. Isso especifica o item de mídia que deve ser usado para preenchimento na geração do vídeo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| crop_bounds | objeto | Os limites de recorte para um item de preenchimento. Isso especifica a área do item de mídia que deve ser usada para preenchimento. |
No | |
| └─ bottom_fraction | number | O limite inferior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. | No | 1 |
| └─ fração_esquerda | number | O limite esquerdo da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. | No | 0 |
| └─ fração_direita | number | O limite direito da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. | No | 1 |
| └─ fração_superior | number | O limite superior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. | No | 0 |
| nome_do_arquivo | cadeia | O nome do arquivo do item de mídia. Ele deve corresponder ao nome do arquivo anexado nessa solicitação. | Yes | |
| frame_index | inteiro | O índice de quadros desse item de mídia. Isso especifica o quadro inicial no vídeo gerado resultante para esse item de preenchimento. | Yes | 0 |
| tipo | objeto | O tipo do item de preenchimento. | Yes |
JobStatus
O status de um trabalho de geração de vídeo.
| Property | Value |
|---|---|
| Description | O status de um trabalho de geração de vídeo. |
| Type | cadeia |
| Values | preprocessingqueuedrunningprocessingcancelledsucceededfailed |
MediaItemType
O tipo do item de preenchimento.
| Property | Value |
|---|---|
| Description | O tipo do item de preenchimento. |
| Type | cadeia |
| Values | image |
MongoDBChatDataSource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | objeto | As informações de parâmetro para controlar o uso da fonte de dados do MongoDB. | Yes | |
| └─ permitir_resultado_parcial | boolean | Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| └─ app_name | cadeia | O nome do aplicativo MongoDB. | No | |
| └─ autenticação | objeto | No | ||
| └─ senha | cadeia | No | ||
| └─ tipo | enumeração | Valores possíveis: username_and_password |
No | |
| └─ nome de usuário | cadeia | No | ||
| └─ nome_da_colecao | cadeia | O nome da coleção do MongoDB. | No | |
| └─ nome_do_banco_de_dados | cadeia | O nome do banco de dados MongoDB. | No | |
| └─ embedding_dependency | objeto | Representa uma fonte de vetorização que faz chamadas de serviço público em uma implantação de modelo de inserção do OpenAI do Azure. | No | |
| └─ autenticação | AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions | O mecanismo de autenticação a ser usado com a origem de vetorização baseada em ponto de extremidade. A autenticação de ponto de extremidade dá suporte a mecanismos de token de acesso e chave de API. |
No | |
| └─ deployment_name | cadeia | A implantação do modelo de inserção a ser usada para vetorização. Essa implantação deve existir no mesmo recurso do OpenAI do Azure que a implantação de modelo que está sendo usada para conclusões de chat. | No | |
| └─ dimensões | inteiro | O número de dimensões a serem solicitadas em inserções. Só há suporte em modelos 'text-embedding-3' e posteriores. |
No | |
| └─ endpoint | cadeia | Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas. Ele deve estar no formato de: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. |
No | |
| └─ tipo | enumeração | O identificador de tipo, sempre 'deployment_name' para esse tipo de origem de vetorização. Valores possíveis: deployment_name |
No | |
| └─ endpoint | cadeia | O nome do ponto de extremidade do cluster do Mongo DB. | No | |
| └─ mapeamento_de_campos | objeto | Mapeamentos de campo a serem aplicados aos dados usados pela fonte de dados do MongoDB. Observe que os mapeamentos de conteúdo e de campo de vetor são necessários para o MongoDB. |
No | |
| └─ campos_de_conteúdo | matriz | No | ||
| └─ separador_dos_campos_de_conteúdo | cadeia | No | ||
| └─ campo_caminho_do_arquivo | cadeia | No | ||
| └─ campo_do_título | cadeia | No | ||
| └─ campo_de_url | cadeia | No | ||
| └─ campos_de_vetores | matriz | No | ||
| └─ in_scope | boolean | Se as consultas devem ser restritas ao uso dos dados indexados. | No | |
| └─ incluir_contextos | matriz | As propriedades de contexto de saída a serem incluídas na resposta. Por padrão, as citações e a intenção serão solicitadas. |
No | ['citações', 'intenções'] |
| └─ nome_do_índice | cadeia | O nome do índice MongoDB. | No | |
| └─ consultas_de_busca_máximas | inteiro | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário. Por padrão, o sistema fará uma determinação automática. |
No | |
| └─ rigidez | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta. |
No | |
| └─ top_n_documents | inteiro | O número configurado de documentos a serem apresentados na consulta. | No | |
| tipo | enumeração | O identificador de tipo discriminado, que é sempre "mongo_db". Valores possíveis: mongo_db |
Yes |
OpenAI.Annotation
Discriminador para OpenAI.Annotation
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
file_citation |
OpenAI.AnnotationFileCitation |
url_citation |
OpenAI.AnnotationUrlCitation |
file_path |
OpenAI.AnnotationFilePath |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.AnnotationType | Yes |
OpenAI.AnnotationFileCitation
Uma citação a um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | A ID do arquivo. | Yes | |
| filename | cadeia | O nome do arquivo citado. | Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. | Yes | |
| tipo | enumeração | O tipo da citação de arquivo. Sempre file_citation.Valores possíveis: file_citation |
Yes |
OpenAI.AnnotationFilePath
Um caminho para um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | A ID do arquivo. | Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. | Yes | |
| tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path.Valores possíveis: file_path |
Yes |
OpenAI.AnnotationType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | file_citationurl_citationfile_pathcontainer_file_citation |
OpenAI.AnnotationUrlCitation
Uma citação para um recurso da Web usado para gerar uma resposta de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | O índice do último caractere da citação de URL na mensagem. | Yes | |
| start_index | inteiro | O índice do primeiro caractere da citação de URL na mensagem. | Yes | |
| title | cadeia | O título do recurso da Web. | Yes | |
| tipo | enumeração | O tipo da citação de URL. Sempre url_citation.Valores possíveis: url_citation |
Yes | |
| url | cadeia | URL do recurso da Web. | Yes |
OpenAI.ApproximateLocation
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| city | cadeia | No | ||
| country | cadeia | No | ||
| região | cadeia | No | ||
| timezone | cadeia | No | ||
| tipo | enumeração | Valores possíveis: approximate |
Yes |
OpenAI.AudioResponseFormat
O formato da saída, em uma destas opções: json, , text, srt, ou verbose_jsonvtt. Para gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15. O único formato com suporte é json.
| Property | Value |
|---|---|
| Description | O formato da saída, em uma destas opções: json, , text, srt, ou verbose_jsonvtt. Para gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15. O único formato com suporte é json. |
| Type | cadeia |
| Values | jsontextsrtverbose_jsonvtt |
OpenAI.AutoChunkingStrategyRequestParam
A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Yes |
OpenAI.ChatCompletionFunctionCallOption
Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes |
OpenAI.ChatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
OpenAI.ChatCompletionMessageAudioChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | No | ||
| expires_at | inteiro | No | ||
| id | cadeia | No | ||
| transcrição | cadeia | No |
OpenAI.ChatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A função chamada pelo modelo. | Yes | |
| └─ Argumentos | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | A ID da chamada da ferramenta. | Yes | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
Yes |
OpenAI.ChatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ Argumentos | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | A ID da chamada da ferramenta. | No | |
| indexar | inteiro | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
No |
OpenAI.ChatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | Yes | ||
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
Yes |
OpenAI.ChatCompletionRequestAssistantMessage
Mensagens enviadas pelo modelo em resposta às mensagens do usuário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Dados sobre uma resposta de áudio anterior do modelo. | No | |
| └─ id | cadeia | Identificador exclusivo para uma resposta de áudio anterior do modelo. | No | |
| conteúdo | cadeia de caracteres ou matriz | No | ||
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ Argumentos | cadeia | No | ||
| └─ nome | cadeia | No | ||
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| refusal | cadeia | A mensagem de recusa do assistente. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, assistant.Valores possíveis: assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| enviar SMS | cadeia | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Yes |
OpenAI.ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Nos modelos o1 e mais recentes, as mensagens developer substituem as mensagens system anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | Yes | ||
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, developer.Valores possíveis: developer |
Yes |
OpenAI.ChatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem de função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso, function.Valores possíveis: function |
Yes |
OpenAI.ChatCompletionRequestMessage
Discriminador para OpenAI.ChatCompletionRequestMessage
Esse componente usa a propriedade role para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
system |
OpenAI.ChatCompletionRequestSystemMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | No | ||
| função | objeto | A função do autor de uma mensagem | Yes |
OpenAI.ChatCompletionRequestMessageContentPart
Discriminador para OpenAI.ChatCompletionRequestMessageContentPart
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
text |
OpenAI.ChatCompletionRequestMessageContentPartText |
image_url |
OpenAI.ChatCompletionRequestMessageContentPartImage |
refusal |
OpenAI.ChatCompletionRequestMessageContentPartRefusal |
file |
OpenAI.ChatCompletionRequestMessageContentPartFile |
input_audio |
OpenAI.ChatCompletionRequestMessageContentPartAudio |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ChatCompletionRequestMessageContentPartType | Yes |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio | objeto | Yes | ||
| └─ dados | cadeia | Dados de áudio codificados em Base64. | No | |
| └─ Formato | enumeração | O formato dos dados de áudio codificados. Atualmente compatível com "wav" e "mp3". Valores possíveis: wav, mp3 |
No | |
| tipo | enumeração | O tipo da parte de conteúdo. Sempre input_audio.Valores possíveis: input_audio |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartFile
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | objeto | Yes | ||
| └─ dados_do_arquivo | cadeia | Os dados de arquivo codificados em base64, usados ao passar o arquivo para o modelo como uma cadeia de caracteres. | No | |
| └─ identificador_de_arquivo | cadeia | A ID de um arquivo carregado a ser usado como entrada. | No | |
| └─ nome do arquivo | cadeia | O nome do arquivo, usado ao passar o arquivo para o modelo como uma cadeia de caracteres. | No | |
| tipo | enumeração | O tipo da parte de conteúdo. Sempre file.Valores possíveis: file |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_url | objeto | Yes | ||
| └─ detalhe | enumeração | Especifica o nível de detalhes da imagem. Valores possíveis: auto, , lowhigh |
No | |
| └─ URL | cadeia | Uma URL da imagem ou os dados de imagem codificados em base64. | No | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | textfileinput_audioimage_urlrefusal |
OpenAI.ChatCompletionRequestSystemMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos o1 e mais recentes, use mensagens de developer para essa finalidade.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | Yes | ||
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, system.Valores possíveis: system |
Yes |
OpenAI.ChatCompletionRequestSystemMessageContentPart
Referências: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | Yes | ||
| função | enumeração | A função do autor das mensagens, nesse caso, tool.Valores possíveis: tool |
Yes | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | Yes |
OpenAI.ChatCompletionRequestToolMessageContentPart
Referências: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Mensagens enviadas por um usuário final, contendo prompts ou informações de contexto adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | Yes | ||
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, user.Valores possíveis: user |
Yes |
OpenAI.ChatCompletionRequestUserMessageContentPart
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | objeto | Yes | ||
| └─ dados_do_arquivo | cadeia | Os dados de arquivo codificados em base64, usados ao passar o arquivo para o modelo como uma cadeia de caracteres. | No | |
| └─ identificador_de_arquivo | cadeia | A ID de um arquivo carregado a ser usado como entrada. | No | |
| └─ nome do arquivo | cadeia | O nome do arquivo, usado ao passar o arquivo para o modelo como uma cadeia de caracteres. | No | |
| image_url | objeto | Yes | ||
| └─ detalhe | enumeração | Especifica o nível de detalhes da imagem. Valores possíveis: auto, , lowhigh |
No | |
| └─ URL | cadeia | Uma URL da imagem ou os dados de imagem codificados em base64. | No | |
| input_audio | objeto | Yes | ||
| └─ dados | cadeia | Dados de áudio codificados em Base64. | No | |
| └─ Formato | enumeração | O formato dos dados de áudio codificados. Atualmente compatível com "wav" e "mp3". Valores possíveis: wav, mp3 |
No | |
| enviar SMS | cadeia | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Sempre file.Valores possíveis: file |
Yes |
OpenAI.ChatCompletionRole
A função do autor de uma mensagem
| Property | Value |
|---|---|
| Description | A função do autor de uma mensagem |
| Type | cadeia |
| Values | systemdeveloperuserassistanttoolfunction |
OpenAI.ChatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia.Todas as outras partes também incluirão um campo usage, mas com um valor nulo.
NOTA: Se o fluxo for interrompido, você poderá não receber a parte de uso final que contém o uso total do token para a solicitação. |
No |
OpenAI.ChatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | No | ||
| └─ dados | cadeia | No | ||
| └─ data_de_expiração | inteiro | No | ||
| └─ id | cadeia | No | ||
| └─ transcrição | cadeia | No | ||
| conteúdo | cadeia | O conteúdo da mensagem de parte. | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ Argumentos | cadeia | No | ||
| └─ nome | cadeia | No | ||
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | No | |
| função | objeto | A função do autor de uma mensagem | No | |
| tool_calls | matriz | No |
OpenAI.ChatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token. |
Yes | |
| logprob | number | A probabilidade de log desse token, se ele estiver dentro dos 20 tokens mais prováveis. Caso contrário, o valor -9999.0 é usado para significar que o token é muito improvável. |
Yes | |
| símbolo | cadeia | O token. | Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. |
Yes |
OpenAI.ChatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | OpenAI.FunctionObject | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
Yes |
OpenAI.ChatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando não há nenhuma ferramenta presente.
auto é o padrão se ferramentas estiverem presente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | Yes | ||
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
Yes |
OpenAI.ChatOutputPrediction
Representação base da saída prevista de um modelo.
Discriminador para OpenAI.ChatOutputPrediction
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
content |
OpenAI.ChatOutputPredictionContent |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ChatOutputPredictionType | Yes |
OpenAI.ChatOutputPredictionContent
Conteúdo estático de saída prevista, como o conteúdo de um arquivo de texto que está sendo regenerado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | Yes | ||
| tipo | enumeração | O tipo de conteúdo previsto que você deseja fornecer. No momento, esse tipo é sempre content.Valores possíveis: content |
Yes |
OpenAI.ChatOutputPredictionType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | content |
OpenAI.ChunkingStrategyRequestParam
A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto.
Discriminador do OpenAI.ChunkingStrategyRequestParam
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de estratégia de agrupamento. Valores possíveis: auto, static |
Yes |
OpenAI.ChunkingStrategyResponseParam
Discriminador para OpenAI.ChunkingStrategyResponseParam
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
other |
OpenAI.OtherChunkingStrategyResponseParam |
static |
OpenAI.StaticChunkingStrategyResponseParam |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: static, other |
Yes |
OpenAI.CodeInterpreterOutput
Discriminador para OpenAI.CodeInterpreterOutput
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
image |
OpenAI.CodeInterpreterOutputImage |
logs |
OpenAI.CodeInterpreterOutputLogs |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.CodeInterpreterOutputType | Yes |
OpenAI.CodeInterpreterOutputImage
A saída da imagem do interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da saída. Sempre “imagem”. Valores possíveis: image |
Yes | |
| url | cadeia | A URL da saída da imagem do interpretador de código. | Yes |
OpenAI.CodeInterpreterOutputLogs
A saída de logs do interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | A saída de logs do interpretador de código. | Yes | |
| tipo | enumeração | O tipo da saída. Sempre “logs”. Valores possíveis: logs |
Yes |
OpenAI.CodeInterpreterOutputType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | logsimage |
OpenAI.CodeInterpreterTool
Uma ferramenta que executa o código Python para ajudar a gerar uma resposta a um prompt.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| contêiner | objeto | Configuração para um contêiner de interpretador de código. Opcionalmente, especifique as IDs dos arquivos nos quais executar o código. | Yes | |
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista opcional de arquivos carregados a serem disponibilizados para seu código. | No | |
| └─ tipo | enumeração | Sempre auto.Valores possíveis: auto |
No | |
| tipo | enumeração | O tipo da ferramenta de interpretador de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Yes |
OpenAI.CodeInterpreterToolAuto
Configuração para um contêiner de interpretador de código. Opcionalmente, especifique as IDs dos arquivos nos quais executar o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_ids | matriz | Uma lista opcional de arquivos carregados a serem disponibilizados para seu código. | No | |
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Yes |
OpenAI.CodeInterpreterToolCallItemParam
Uma chamada de ferramenta para executar o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código a ser executado ou nulo se não estiver disponível. | Yes | |
| container_id | cadeia | A ID do contêiner usado para executar o código. | Yes | |
| saídas | matriz | As saídas geradas pelo interpretador de código, como logs ou imagens. Pode ser nulo se nenhuma saída estiver disponível. |
Yes | |
| tipo | enumeração | Valores possíveis: code_interpreter_call |
Yes |
OpenAI.CodeInterpreterToolCallItemResource
Uma chamada de ferramenta para executar o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código a ser executado ou nulo se não estiver disponível. | Yes | |
| container_id | cadeia | A ID do contêiner usado para executar o código. | Yes | |
| saídas | matriz | As saídas geradas pelo interpretador de código, como logs ou imagens. Pode ser nulo se nenhuma saída estiver disponível. |
Yes | |
| status | enumeração | Valores possíveis: in_progress, , completed, incomplete, interpreting, failed |
Yes | |
| tipo | enumeração | Valores possíveis: code_interpreter_call |
Yes |
OpenAI.ComparisonFilter
Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave a ser comparada com o valor. | Yes | |
| tipo | enumeração | Especifica o operador de comparação: eq, , ne, gt, gte, lt, lte.- eq: igual- ne: não é igual a- gt: maior que- gte: maior ou igual a- lt: menor que- lte: menor ou igual.Valores possíveis: eq, , ne, gt, gte, , ltlte |
Yes | |
| value | cadeia de caracteres ou número ou booleano | Yes |
OpenAI.CompletionUsage
Estatísticas de uso para a solicitação de preenchimento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens na conclusão gerada. | Yes | 0 |
| completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | No | |
| └─ tokens_de_predição_aceitos | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. | No | 0 |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio gerados pelo modelo. | No | 0 |
| └─ tokens_de_raciocínio | inteiro | Tokens gerados pelo modelo para raciocínio. | No | 0 |
| └─ rejected_prediction_tokens | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contabilizados no total de tokens de conclusão para fins de cobrança, saída e limites da janela de contexto. | No | 0 |
| prompt_tokens | inteiro | Número de tokens no prompt. | Yes | 0 |
| prompt_tokens_details | objeto | Divisão de tokens usados na solicitação. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio presentes na solicitação. | No | 0 |
| └─ tokens em cache | inteiro | Tokens armazenados em cache presentes no prompt. | No | 0 |
| total_tokens | inteiro | Número total de tokens utilizados na solicitação (prompt + conclusão). | Yes | 0 |
OpenAI.CompoundFilter
Combinar vários filtros usando and ou or.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | matriz | Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Yes | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Yes |
OpenAI.ComputerAction
Discriminador para OpenAI.ComputerAction
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
click |
OpenAI.ComputerActionClick |
double_click |
OpenAI.ComputerActionDoubleClick |
drag |
OpenAI.ComputerActionDrag |
move |
OpenAI.ComputerActionMove |
screenshot |
OpenAI.ComputerActionScreenshot |
scroll |
OpenAI.ComputerActionScroll |
type |
OpenAI.ComputerActionTypeKeys |
wait |
OpenAI.ComputerActionWait |
keypress |
OpenAI.ComputerActionKeyPress |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ComputerActionType | Yes |
OpenAI.ComputerActionClick
Uma ação de clique.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| button | enumeração | Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back ou forward.Valores possíveis: left, , right, wheel, back, forward |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.Valores possíveis: click |
Yes | |
| x | inteiro | A coordenada x em que o clique ocorreu. | Yes | |
| y | inteiro | A coordenada y em que o clique ocorreu. | Yes |
OpenAI.ComputerActionDoubleClick
Uma ação de clique duplo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.Valores possíveis: double_click |
Yes | |
| x | inteiro | A coordenada x em que o clique duplo ocorreu. | Yes | |
| y | inteiro | A coordenada y em que o clique duplo ocorreu. | Yes |
OpenAI.ComputerActionDrag
Uma ação de arrastar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| caminho | matriz | Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo,{ x: 100, y: 200 }, { x: 200, y: 300 } |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.Valores possíveis: drag |
Yes |
OpenAI.ComputerActionKeyPress
Uma coleção de pressionamentos de teclas que o modelo deseja realizar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| keys | matriz | A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave. | Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.Valores possíveis: keypress |
Yes |
OpenAI.ComputerActionMove
Uma ação de movimentação do mouse.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.Valores possíveis: move |
Yes | |
| x | inteiro | A coordenada x para a qual mover. | Yes | |
| y | inteiro | A coordenada y para a qual mover. | Yes |
OpenAI.ComputerActionScreenshot
Uma ação de captura de tela.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.Valores possíveis: screenshot |
Yes |
OpenAI.ComputerActionScroll
Uma ação de rolagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | inteiro | A distância de rolagem horizontal. | Yes | |
| scroll_y | inteiro | A distância de rolagem vertical. | Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.Valores possíveis: scroll |
Yes | |
| x | inteiro | A coordenada x em que a rolagem ocorreu. | Yes | |
| y | inteiro | A coordenada y em que a rolagem ocorreu. | Yes |
OpenAI.ComputerActionType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | screenshotclickdouble_clickscrolltypewaitkeypressdragmove |
OpenAI.ComputerActionTypeKeys
Uma ação para digitar texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O texto a ser digitado. | Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.Valores possíveis: type |
Yes |
OpenAI.ComputerActionWait
Uma ação de espera.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.Valores possíveis: wait |
Yes |
OpenAI.ComputerToolCallItemParam
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | OpenAI.ComputerAction | Yes | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. | Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada de computador. | Yes | |
| tipo | enumeração | Valores possíveis: computer_call |
Yes |
OpenAI.ComputerToolCallItemResource
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | OpenAI.ComputerAction | Yes | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. | Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada de computador. | Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | Valores possíveis: computer_call |
Yes |
OpenAI.ComputerToolCallOutputItemOutput
Discriminador para OpenAI.ComputerToolCallOutputItemOutput
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
computer_screenshot |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ComputerToolCallOutputItemOutputType | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. | Yes |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | No | ||
| image_url | cadeia | No | ||
| tipo | enumeração | Valores possíveis: computer_screenshot |
Yes |
OpenAI.ComputerToolCallOutputItemOutputType
Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
| Property | Value |
|---|---|
| Description | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
| Type | cadeia |
| Values | computer_screenshot |
OpenAI.ComputerToolCallOutputItemParam
A saída de uma chamada de ferramenta de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. | No | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. | Yes | |
| saída | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| tipo | enumeração | Valores possíveis: computer_call_output |
Yes |
OpenAI.ComputerToolCallOutputItemResource
A saída de uma chamada de ferramenta de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. | No | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. | Yes | |
| saída | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | Valores possíveis: computer_call_output |
Yes |
OpenAI.ComputerToolCallSafetyCheck
Uma verificação de segurança pendente para a chamada de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O tipo da verificação de segurança pendente. | Yes | |
| id | cadeia | A ID da verificação de segurança pendente. | Yes | |
| mensagem | cadeia | Detalhes sobre a verificação de segurança pendente. | Yes |
OpenAI.ComputerUsePreviewTool
Uma ferramenta que controla um computador virtual.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| display_height | inteiro | A altura da exibição do computador. | Yes | |
| display_width | inteiro | A largura da exibição do computador. | Yes | |
| ambiente | enumeração | O tipo de ambiente de computador a ser controlado. Valores possíveis: windows, , mac, linux, ubuntu, browser |
Yes | |
| tipo | enumeração | O tipo da ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer_use_preview |
Yes |
OpenAI.Coordinate
Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| x | inteiro | A coordenada x. | Yes | |
| y | inteiro | A coordenada y. | Yes |
OpenAI.CreateEmbeddingResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | A lista de incorporações geradas pelo modelo. | Yes | |
| modelo | cadeia | O nome do modelo usado para gerar a incorporação. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre "lista". Valores possíveis: list |
Yes | |
| uso | objeto | As informações de uso da solicitação. | Yes | |
| └─ prompt_tokens | inteiro | O número de tokens usados pelo prompt. | No | |
| └─ total_tokens | inteiro | O número total de tokens usados pela solicitação. | No |
OpenAI.CreateEvalItem
Uma mensagem de chat que compõe o prompt ou contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres OpenAI.EvalItemContent | Entradas de texto para o modelo – podem conter cadeias de caracteres de modelo. | Yes | |
| função | enumeração | A função da entrada de mensagem. Uma opção entre user, assistant, system ou developer.Valores possíveis: user, , assistant, systemdeveloper |
Yes | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
No |
OpenAI.CreateEvalRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fonte_de_dados | objeto | Yes | ||
| └─ tipo | OpenAI.EvalRunDataSourceType | No | ||
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome da execução. | No |
OpenAI.CreateFineTuningJobRequest
Modelos válidos:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hiperparâmetros | objeto | Os hiperparâmetros usados no trabalho de ajuste fino. Agora, esse valor foi preterido em favor de method, e deve ser passado sob o parâmetro method. |
No | |
| └─ tamanho_do_lote (batch_size) | enumeração | Valores possíveis: auto |
No | |
| └─ multiplicador_da_taxa_de_aprendizagem | enumeração | Valores possíveis: auto |
No | |
| └─ n_epochs | enumeração | Valores possíveis: auto |
No | |
| Integrações | matriz | Uma lista de integrações para habilitar seu trabalho de ajuste fino. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| método | OpenAI.FineTuneMethod | O método usado no ajuste fino. | No | |
| modelo | cadeia de caracteres (veja os modelos válidos abaixo) | O nome do modelo a ser refinado. | Yes | |
| seed | inteiro | A semente controla a reprodutibilidade do trabalho. Passar os mesmos parâmetros iniciais e de trabalho deve produzir os mesmos resultados, mas pode diferir em casos raros. Se uma semente não for especificada, uma será gerada para você. |
No | |
| suffix | cadeia | Uma cadeia de caracteres de até 64 caracteres que será adicionada ao seu nome de modelo ajustado. Por exemplo, um suffix "custom-model-name" produz um nome de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| arquivo_de_treinamento | cadeia | A ID de um arquivo carregado que contém dados de treinamento. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Além disso, você deve carregar seu arquivo com a finalidade fine-tune.O conteúdo do arquivo deve diferir dependendo se o modelo usa o formato de chat, conclusões ou se o método de ajuste fino usa o formato de preferência. |
Yes | |
| arquivo_de_validação | cadeia | A ID de um arquivo carregado que contém os dados de validação. Se você fornecer esse arquivo, os dados serão usados para gerar métricas de validação periodicamente durante o ajuste fino. Essas métricas podem ser exibidas no arquivo de resultados de ajuste fino. Os mesmos dados não devem estar presentes nos arquivos de treinamento e validação. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Você deve carregar seu arquivo com a finalidade fine-tune. |
No |
OpenAI.CreateFineTuningJobRequestIntegration
Discriminador para OpenAI.CreateFineTuningJobRequestIntegration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
wandb |
OpenAI.CreateFineTuningJobRequestWandbIntegration |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia de caracteres (veja os modelos válidos abaixo) | Yes |
OpenAI.CreateFineTuningJobRequestWandbIntegration
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: wandb |
Yes | |
| wandb | objeto | Yes | ||
| └─ entidade | cadeia | No | ||
| └─ nome | cadeia | No | ||
| └─ projeto | cadeia | No | ||
| └─ etiquetas | matriz | No |
OpenAI.CreateVectorStoreFileBatchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
OpenAI.CreateVectorStoreFileRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
OpenAI.CreateVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | objeto | A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400. |
No | |
| └─ estático | OpenAI.StaticChunkingStrategy | No | ||
| └─ tipo | enumeração | Sempre static.Valores possíveis: static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
OpenAI.DeleteFileResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| excluído | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | enumeração | Valores possíveis: file |
Yes |
OpenAI.DeleteVectorStoreFileResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| excluído | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | enumeração | Valores possíveis: vector_store.file.deleted |
Yes |
OpenAI.DeleteVectorStoreResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| excluído | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | enumeração | Valores possíveis: vector_store.deleted |
Yes |
OpenAI.Embedding
Representa um vetor de incorporação retornado pelo endpoint de incorporação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| embedding | matriz ou cadeia de caracteres | Yes | ||
| indexar | inteiro | O índice da inserção na lista de inserções. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre de “inserção”. Valores possíveis: embedding |
Yes |
OpenAI.Eval
Um objeto Eval com critérios de teste e configuração de fonte de dados. Uma avaliação representa uma tarefa a ser concluída na sua integração de LLM. Assim como:
- Melhorar a qualidade do meu chatbot
- Veja como meu chatbot lida bem com o suporte ao cliente
- Verifique se o4-mini é melhor para o meu caso de uso do que gpt-4o.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) da criação da avaliação. | Yes | |
| configuração_da_fonte_de_dados | objeto | Yes | ||
| └─ tipo | OpenAI.EvalDataSourceConfigType | No | ||
| id | cadeia | Identificador exclusivo para a avaliação. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| name | cadeia | O nome da avaliação. | Yes | |
| objeto | enumeração | O tipo de objeto. Valores possíveis: eval |
Yes | |
| critérios_de_teste | matriz | Uma lista de critérios de teste. | Yes | None |
OpenAI.EvalApiError
Um objeto que representa uma resposta de erro da API de Eval.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código do erro. | Yes | |
| mensagem | cadeia | A mensagem de erro. | Yes |
OpenAI.EvalCompletionsRunDataSourceParams
Um objeto CompletionsRunDataSource que descreve uma configuração de amostragem de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| mensagens_de_entrada | objeto | No | ||
| └─ item_reference | cadeia | Uma referência a uma variável no namespace item. Ou seja, "item.input_trajectory" |
No | |
| └─ modelo | matriz | Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}. |
No | |
| └─ tipo | enumeração | O tipo de mensagens de entrada. Sempre item_reference.Valores possíveis: item_reference |
No | |
| modelo | cadeia | O nome do modelo a ser usado para gerar conclusões (por exemplo, "o3-mini"). | No | |
| sampling_params | AzureEvalAPICompletionsSamplingParams | No | ||
| fonte | objeto | Yes | ||
| └─ conteúdo | matriz | O conteúdo do arquivo jsonl. | No | |
| └─ criado_depois | inteiro | Um carimbo de data/hora Unix opcional para filtrar os itens criados após esse horário. | No | |
| └─ criado_antes | inteiro | Um carimbo de data/hora Unix opcional para filtrar itens criados antes desse horário. | No | |
| └─ id | cadeia | O identificador do arquivo. | No | |
| └─ limite | inteiro | Um número máximo opcional de itens a serem retornados. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ modelo | cadeia | Um modelo opcional para filtrar (por exemplo, 'gpt-4o'). | No | |
| └─ tipo | enumeração | O tipo de origem. Sempre stored_completions.Valores possíveis: stored_completions |
No | |
| tipo | enumeração | O tipo de fonte de dados de execução. Sempre completions.Valores possíveis: completions |
Yes |
OpenAI.EvalCustomDataSourceConfigParams
Um objeto CustomDataSourceConfig que define o esquema da fonte de dados usada para as execuções de avaliação. Esse esquema é usado para definir a forma dos dados que serão:
- Usados para definir seus critérios de teste e
- Quais dados são necessários ao criar uma execução
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| incluir_esquema_exemplo | boolean | Se a avaliação deve esperar que você preencha o namespace de exemplo (ou seja, gerando respostas a partir da sua fonte de dados) | No | False |
| esquema_de_item | objeto | O esquema json para cada linha na fonte de dados. | Yes | |
| tipo | enumeração | O tipo de fonte de dados. Sempre custom.Valores possíveis: custom |
Yes |
OpenAI.EvalCustomDataSourceConfigResource
Um CustomDataSourceConfig que especifica o esquema dos seus namespaces item e, opcionalmente, sample.
O esquema de resposta define a forma dos dados que serão:
- Usados para definir seus critérios de teste e
- Quais dados são necessários ao criar uma execução
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| esquema | objeto | O esquema JSON para os itens da fonte de dados de execução. Saiba como criar esquemas JSON aqui. |
Yes | |
| tipo | enumeração | O tipo de fonte de dados. Sempre custom.Valores possíveis: custom |
Yes |
OpenAI.EvalDataSourceConfigParams
Discriminador para OpenAI.EvalDataSourceConfigParams
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigParams |
logs |
OpenAI.EvalLogsDataSourceConfigParams |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigParams |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigResource
Discriminador para OpenAI.EvalDataSourceConfigResource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigResource |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigResource |
logs |
OpenAI.EvalLogsDataSourceConfigResource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | customlogsstored_completions |
OpenAI.EvalGraderLabelModelParams
Um objeto LabelModelGrader que usa um modelo para atribuir rótulos a cada item na avaliação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | matriz | Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}. |
Yes | |
| rótulos | matriz | Os rótulos para classificar cada item na avaliação. | Yes | |
| modelo | cadeia | O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| etiquetas_de_passagem | matriz | Os rótulos que indicam um resultado aprovado. Deve ser um subconjunto de rótulos. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre label_model.Valores possíveis: label_model |
Yes |
OpenAI.EvalGraderLabelModelResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | matriz | Yes | ||
| rótulos | matriz | Os rótulos a serem atribuídos a cada item na avaliação. | Yes | |
| modelo | cadeia | O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| etiquetas_de_passagem | matriz | Os rótulos que indicam um resultado aprovado. Deve ser um subconjunto de rótulos. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre label_model.Valores possíveis: label_model |
Yes |
OpenAI.EvalGraderParams
Discriminador para OpenAI.EvalGraderParams
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelParams |
string_check |
OpenAI.EvalGraderStringCheckParams |
text_similarity |
OpenAI.EvalGraderTextSimilarityParams |
python |
OpenAI.EvalGraderPythonParams |
score_model |
OpenAI.EvalGraderScoreModelParams |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.GraderType | Yes |
OpenAI.EvalGraderPythonParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_tag | cadeia | A marca da imagem a ser usada no script python. | No | |
| name | cadeia | O nome do avaliador. | Yes | |
| limite_de_passagem | number | O limite para a pontuação. | No | |
| fonte | cadeia | O código-fonte do script python. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre python.Valores possíveis: python |
Yes |
OpenAI.EvalGraderPythonResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_tag | cadeia | A marca da imagem a ser usada no script python. | No | |
| name | cadeia | O nome do avaliador. | Yes | |
| limite_de_passagem | number | O limite para a pontuação. | No | |
| fonte | cadeia | O código-fonte do script python. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre python.Valores possíveis: python |
Yes |
OpenAI.EvalGraderResource
Discriminador para OpenAI.EvalGraderResource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelResource |
text_similarity |
OpenAI.EvalGraderTextSimilarityResource |
python |
OpenAI.EvalGraderPythonResource |
score_model |
OpenAI.EvalGraderScoreModelResource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.GraderType | Yes |
OpenAI.EvalGraderScoreModelParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| modelo | cadeia | O modelo a ser usado para a avaliação. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| limite_de_passagem | number | O limite para a pontuação. | No | |
| alcance | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| tipo | enumeração | O tipo de objeto, que é sempre score_model.Valores possíveis: score_model |
Yes |
OpenAI.EvalGraderScoreModelResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| modelo | cadeia | O modelo a ser usado para a avaliação. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| limite_de_passagem | number | O limite para a pontuação. | No | |
| alcance | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| tipo | enumeração | O tipo de objeto, que é sempre score_model.Valores possíveis: score_model |
Yes |
OpenAI.EvalGraderStringCheckParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
Yes | |
| referência | cadeia | O texto de referência. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre string_check.Valores possíveis: string_check |
Yes |
OpenAI.EvalGraderTextSimilarityParams
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| métrica de avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
Yes | |
| entrada | cadeia | O texto que está sendo avaliado. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| limite_de_passagem | number | O limite para a pontuação. | Yes | |
| referência | cadeia | O texto de referência para avaliação. | Yes | |
| tipo | enumeração | O tipo de avaliador. Valores possíveis: text_similarity |
Yes |
OpenAI.EvalGraderTextSimilarityResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| métrica de avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
Yes | |
| entrada | cadeia | O texto que está sendo avaliado. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| limite_de_passagem | number | O limite para a pontuação. | Yes | |
| referência | cadeia | O texto de referência para avaliação. | Yes | |
| tipo | enumeração | O tipo de avaliador. Valores possíveis: text_similarity |
Yes |
OpenAI.EvalItem
Uma mensagem de entrada para o modelo com uma função que indica a hierarquia de instruções a seguir. As instruções fornecidas com a função developer ou system têm precedência sobre as instruções fornecidas com a função user. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | objeto | Yes | ||
| └─ tipo | OpenAI.EvalItemContentType | No | ||
| função | enumeração | A função da entrada de mensagem. Uma opção entre user, assistant, system ou developer.Valores possíveis: user, , assistant, systemdeveloper |
Yes | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
No |
OpenAI.EvalItemContent
Discriminador para OpenAI.EvalItemContent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
input_text |
OpenAI.EvalItemContentInputText |
output_text |
OpenAI.EvalItemContentOutputText |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.EvalItemContentType | Yes |
OpenAI.EvalItemContentInputText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: input_text |
Yes |
OpenAI.EvalItemContentOutputText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: output_text |
Yes |
OpenAI.EvalItemContentType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | input_textoutput_text |
OpenAI.EvalJsonlRunDataSourceParams
Um objeto JsonlRunDataSource com o qual especifica um arquivo JSONL que corresponde à avaliação
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fonte | objeto | Yes | ||
| └─ conteúdo | matriz | O conteúdo do arquivo jsonl. | No | |
| └─ id | cadeia | O identificador do arquivo. | No | |
| └─ tipo | enumeração | Tipo de fonte jsonl. Sempre file_id.Valores possíveis: file_id |
No | |
| tipo | enumeração | O tipo de fonte de dados. Sempre jsonl.Valores possíveis: jsonl |
Yes |
OpenAI.EvalList
Um objeto que representa uma lista de valores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma matriz de objetos de avaliação. | Yes | |
| first_id | cadeia | O identificador da primeira avaliação na matriz de dados. | Yes | |
| has_more | boolean | Indica se há mais avaliações disponíveis. | Yes | |
| last_id | cadeia | O identificador da última avaliação na matriz de dados. | Yes | |
| objeto | enumeração | O tipo desse objeto. Ele é sempre definido como "lista". Valores possíveis: list |
Yes |
OpenAI.EvalLogsDataSourceConfigParams
Uma configuração de fonte de dados que especifica a propriedade dos metadados da consulta de logs.
Geralmente, são metadados como usecase=chatbot ou prompt-version=v2etc.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| tipo | enumeração | O tipo de fonte de dados. Sempre logs.Valores possíveis: logs |
Yes |
OpenAI.EvalLogsDataSourceConfigResource
Um LogsDataSourceConfig que especifica a propriedade de metadados da consulta de logs.
Geralmente, são metadados como usecase=chatbot ou prompt-version=v2etc. O esquema retornado por essa configuração de fonte de dados é usado para definir quais variáveis estão disponíveis em suas avaliações.
item e sample ambos são definidos ao usar essa configuração de fonte de dados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| esquema | objeto | O esquema JSON para os itens da fonte de dados de execução. Saiba como criar esquemas JSON aqui. |
Yes | |
| tipo | enumeração | O tipo de fonte de dados. Sempre logs.Valores possíveis: logs |
Yes |
OpenAI.EvalResponsesRunDataSourceParams
Um objeto ResponsesRunDataSource que descreve uma configuração de amostragem de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| mensagens_de_entrada | objeto | No | ||
| └─ item_reference | cadeia | Uma referência a uma variável no namespace item. Ou seja, "item.name" |
No | |
| └─ modelo | matriz | Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}. |
No | |
| └─ tipo | enumeração | O tipo de mensagens de entrada. Sempre item_reference.Valores possíveis: item_reference |
No | |
| modelo | cadeia | O nome do modelo a ser usado para gerar conclusões (por exemplo, "o3-mini"). | No | |
| sampling_params | AzureEvalAPIResponseSamplingParams | No | ||
| fonte | objeto | Yes | ||
| └─ conteúdo | matriz | O conteúdo do arquivo jsonl. | No | |
| └─ criado_depois | inteiro | Inclua somente itens criados após esse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ criado_antes | inteiro | Inclua somente itens criados antes desse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ id | cadeia | O identificador do arquivo. | No | |
| └─ instruções_busca | cadeia | Cadeia de caracteres opcional para pesquisar o campo “instruções”. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ modelo | cadeia | O nome do modelo para o qual se quer encontrar respostas. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ esforço_de_raciocínio | OpenAI.ReasoningEffort | Parâmetro de esforço de raciocínio opcional. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ temperatura | number | Temperatura de amostragem. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ ferramentas | matriz | Lista de nomes de ferramentas. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ top_p | number | Parâmetro de amostragem de núcleo. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| └─ tipo | enumeração | O tipo de fonte de dados de execução. Sempre responses.Valores possíveis: responses |
No | |
| └─ usuários | matriz | Lista de identificadores de usuário. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| tipo | enumeração | O tipo de fonte de dados de execução. Sempre responses.Valores possíveis: responses |
Yes |
OpenAI.EvalRun
Um esquema que representa um processo de avaliação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | Carimbo de data/hora Unix (em segundos) da criação da execução de avaliação. | Yes | |
| fonte_de_dados | objeto | Yes | ||
| └─ tipo | OpenAI.EvalRunDataSourceType | No | ||
| erro | OpenAI.EvalApiError | Um objeto que representa uma resposta de erro da API de Eval. | Yes | |
| eval_id | cadeia | O identificador da avaliação associada. | Yes | |
| id | cadeia | Identificador exclusivo para a execução da avaliação. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia | O modelo que é avaliado, se aplicável. | Yes | |
| name | cadeia | O nome da execução da avaliação. | Yes | |
| objeto | enumeração | O tipo do objeto. Sempre "eval.run". Valores possíveis: eval.run |
Yes | |
| per_model_usage | matriz | Estatísticas de uso para cada modelo durante a execução da avaliação. | Yes | |
| resultados_por_critério_de_teste | matriz | Resultados por critérios de teste aplicados durante a execução da avaliação. | Yes | |
| report_url | cadeia | A URL para o relatório da execução da avaliação no painel da interface do usuário. | Yes | |
| contagem_de_resultados | objeto | Contadores que resumem os resultados da execução da avaliação. | Yes | |
| └─ erro | inteiro | Número de itens de saída que resultaram em um erro. | No | |
| └─ falha | inteiro | Número de itens de saída que não passaram na avaliação. | No | |
| └─ aprovado | inteiro | Número de itens de saída que passaram na avaliação. | No | |
| └─ total | inteiro | Número total de itens de saída executados. | No | |
| status | cadeia | O status da execução da avaliação. | Yes |
OpenAI.EvalRunDataContentSource
Discriminador para OpenAI.EvalRunDataContentSource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
file_id |
OpenAI.EvalRunFileIdDataContentSource |
stored_completions |
OpenAI.EvalRunStoredCompletionsDataContentSource |
responses |
OpenAI.EvalRunResponsesDataContentSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.EvalRunDataContentSourceType | Yes |
OpenAI.EvalRunDataContentSourceType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | file_idfile_contentstored_completionsresponses |
OpenAI.EvalRunDataSourceCompletionsResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: completions |
Yes |
OpenAI.EvalRunDataSourceJsonlResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: jsonl |
Yes |
OpenAI.EvalRunDataSourceParams
Discriminador para OpenAI.EvalRunDataSourceParams
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
jsonl |
OpenAI.EvalJsonlRunDataSourceParams |
completions |
OpenAI.EvalCompletionsRunDataSourceParams |
responses |
OpenAI.EvalResponsesRunDataSourceParams |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResponsesResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: responses |
Yes |
OpenAI.EvalRunDataSourceType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | jsonlcompletionsresponses |
OpenAI.EvalRunFileContentDataContentSource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo do arquivo jsonl. | Yes | |
| tipo | enumeração | Tipo de fonte jsonl. Sempre file_content.Valores possíveis: file_content |
Yes |
OpenAI.EvalRunFileIdDataContentSource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | O identificador do arquivo. | Yes | |
| tipo | enumeração | Tipo de fonte jsonl. Sempre file_id.Valores possíveis: file_id |
Yes |
OpenAI.EvalRunList
Um objeto que representa uma lista de execuções para uma avaliação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma matriz de objetos de execução de avaliação. | Yes | |
| first_id | cadeia | O identificador da primeira execução de avaliação na matriz de dados. | Yes | |
| has_more | boolean | Indica se há mais avaliações disponíveis. | Yes | |
| last_id | cadeia | O identificador da última execução de avaliação na matriz de dados. | Yes | |
| objeto | enumeração | O tipo desse objeto. Ele é sempre definido como "lista". Valores possíveis: list |
Yes |
OpenAI.EvalRunOutputItem
Um esquema que representa um item de saída de um processo de avaliação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | Carimbo de data/hora Unix (em segundos) da criação da execução de avaliação. | Yes | |
| datasource_item | objeto | Detalhes do item da fonte de dados de entrada. | Yes | |
| identificador_do_item_da_fonte_de_dados | inteiro | O identificador do item da fonte de dados. | Yes | |
| eval_id | cadeia | O identificador do grupo de avaliação. | Yes | |
| id | cadeia | Identificador exclusivo para o item de saída da execução da avaliação. | Yes | |
| objeto | enumeração | O tipo do objeto. Sempre "eval.run.output_item". Valores possíveis: eval.run.output_item |
Yes | |
| results | matriz | Uma lista de resultados do processo de avaliação. | Yes | |
| run_id | cadeia | O identificador da execução de avaliação associada a este item de saída. | Yes | |
| amostra | objeto | Uma amostra contendo a entrada e a saída da execução da avaliação. | Yes | |
| └─ erro | OpenAI.EvalApiError | Um objeto que representa uma resposta de erro da API de Eval. | No | |
| └─ motivo_de_conclusão | cadeia | O motivo pelo qual a geração da amostra foi concluída. | No | |
| └─ entrada | matriz | Uma matriz de mensagens de entrada. | No | |
| └─ max_completion_tokens (máximo de tokens de conclusão) | inteiro | O número máximo de tokens permitido para conclusão. | No | |
| └─ modelo | cadeia | O modelo usado para gerar o exemplo. | No | |
| └─ saída | matriz | Uma matriz de mensagens de saída. | No | |
| └─ semente | inteiro | A semente usada para gerar a amostra. | No | |
| └─ temperatura | number | A temperatura de amostragem usada. | No | |
| └─ top_p | number | O valor top_p usado para amostragem. | No | |
| └─ uso | objeto | Detalhes de uso do token para o exemplo. | No | |
| └─ tokens em cache | inteiro | O número de tokens recuperados do cache. | No | |
| └─ completion_tokens | inteiro | O número de tokens de conclusão gerados. | No | |
| └─ prompt_tokens | inteiro | O número de tokens de prompt usados. | No | |
| └─ total_tokens | inteiro | O número total de tokens usados. | No | |
| status | cadeia | O status da execução da avaliação. | Yes |
OpenAI.EvalRunOutputItemList
Um objeto que representa uma lista de itens de saída para uma execução de avaliação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma matriz de objetos de item de saída de execução de avaliação. | Yes | |
| first_id | cadeia | O identificador do primeiro item de saída da execução de avaliação na matriz de dados. | Yes | |
| has_more | boolean | Indica se há mais itens de saída de execução de avaliação disponíveis. | Yes | |
| last_id | cadeia | O identificador do último item de saída da execução de avaliação na matriz de dados. | Yes | |
| objeto | enumeração | O tipo desse objeto. Ele é sempre definido como "lista". Valores possíveis: list |
Yes |
OpenAI.EvalRunResponsesDataContentSource
Um objeto EvalResponsesSource que descreve uma configuração de fonte de dados de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_after | inteiro | Inclua somente itens criados após esse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| criado_antes | inteiro | Inclua somente itens criados antes desse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| instructions_search | cadeia | Cadeia de caracteres opcional para pesquisar o campo “instruções”. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | O nome do modelo para o qual se quer encontrar respostas. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| reasoning_effort | objeto |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| temperature | number | Temperatura de amostragem. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| tools | matriz | Lista de nomes de ferramentas. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| top_p | number | Parâmetro de amostragem de núcleo. Esse é um parâmetro de consulta usado para selecionar respostas. | No | |
| tipo | enumeração | O tipo de fonte de dados de execução. Sempre responses.Valores possíveis: responses |
Yes | |
| users | matriz | Lista de identificadores de usuário. Esse é um parâmetro de consulta usado para selecionar respostas. | No |
OpenAI.EvalRunStoredCompletionsDataContentSource
Uma configuração StoredCompletionsRunDataSource que descreve um conjunto de filtros
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_after | inteiro | Um carimbo de data/hora Unix opcional para filtrar os itens criados após esse horário. | No | |
| criado_antes | inteiro | Um carimbo de data/hora Unix opcional para filtrar itens criados antes desse horário. | No | |
| limit | inteiro | Um número máximo opcional de itens a serem retornados. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia | Um modelo opcional para filtrar (por exemplo, 'gpt-4o'). | No | |
| tipo | enumeração | O tipo de origem. Sempre stored_completions.Valores possíveis: stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigParams
Preterido em favor de LogsDataSourceConfig.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Filtros de metadados da fonte de dados de conclusões armazenadas. | No | |
| tipo | enumeração | O tipo de fonte de dados. Sempre stored_completions.Valores possíveis: stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigResource
Preterido em favor de LogsDataSourceConfig.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| esquema | objeto | O esquema JSON para os itens da fonte de dados de execução. Saiba como criar esquemas JSON aqui. |
Yes | |
| tipo | enumeração | O tipo de fonte de dados. Sempre stored_completions.Valores possíveis: stored_completions |
Yes |
OpenAI.FileSearchTool
Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | objeto | No | ||
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. | No | |
| ranking_options | objeto | No | ||
| └─ ranker | enumeração | O classificador a ser usado para a pesquisa de arquivos. Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limite_de_pontuação | number | O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. | No | |
| tipo | enumeração | O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.Valores possíveis: file_search |
Yes | |
| vector_store_ids | matriz | Os IDs dos repositórios de vetores a serem pesquisados. | Yes |
OpenAI.FileSearchToolCallItemParam
Os resultados de uma chamada de ferramenta de pesquisa de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| queries | matriz | As consultas usadas para pesquisar arquivos. | Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de arquivos. | No | |
| tipo | enumeração | Valores possíveis: file_search_call |
Yes |
OpenAI.FileSearchToolCallItemResource
Os resultados de uma chamada de ferramenta de pesquisa de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| queries | matriz | As consultas usadas para pesquisar arquivos. | Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de arquivos. | No | |
| status | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress, searchingincomplete ou failed.Valores possíveis: in_progress, , searching, completed, incomplete, failed |
Yes | |
| tipo | enumeração | Valores possíveis: file_search_call |
Yes |
OpenAI.Filters
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | matriz | Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Yes | |
| chave | cadeia | A chave a ser comparada com o valor. | Yes | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Yes | |
| value | cadeia de caracteres ou número ou booleano | O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. | Yes |
OpenAI.FineTuneDPOHyperparameters
Os hiperparâmetros usados no trabalho de ajuste fino do DPO.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tamanho_do_lote | enumeração | Valores possíveis: auto |
No | |
| beta | enumeração | Valores possíveis: auto |
No | |
| multiplicador_da_taxa_de_aprendizado | enumeração | Valores possíveis: auto |
No | |
| n_épocas | enumeração | Valores possíveis: auto |
No |
OpenAI.FineTuneDPOMethod
Configuração do método de ajuste fino do DPO.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hiperparâmetros | OpenAI.FineTuneDPOHyperparameters | Os hiperparâmetros usados no trabalho de ajuste fino do DPO. | No |
OpenAI.FineTuneMethod
O método usado no ajuste fino.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dpo | OpenAI.FineTuneDPOMethod | Configuração do método de ajuste fino do DPO. | No | |
| reforço | AzureFineTuneReinforcementMethod | No | ||
| Supervisionado | OpenAI.FineTuneSupervisedMethod | Configuração do método de ajuste fino a ser supervisionado. | No | |
| tipo | enumeração | O tipo de método. É, supervised, dpoou reinforcement.Valores possíveis: supervised, , dporeinforcement |
Yes |
OpenAI.FineTuneReinforcementHyperparameters
Os hiperparâmetros usados no trabalho de ajuste fino de reforço.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tamanho_do_lote | enumeração | Valores possíveis: auto |
No | |
| compute_multiplier | enumeração | Valores possíveis: auto |
No | |
| eval_interval | enumeração | Valores possíveis: auto |
No | |
| eval_samples | enumeração | Valores possíveis: auto |
No | |
| multiplicador_da_taxa_de_aprendizado | enumeração | Valores possíveis: auto |
No | |
| n_épocas | enumeração | Valores possíveis: auto |
No | |
| reasoning_effort | enumeração | Nível de esforço de raciocínio. Valores possíveis: default, , low, mediumhigh |
No |
OpenAI.FineTuneSupervisedHyperparameters
Os hiperparâmetros usados no trabalho de ajuste fino.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tamanho_do_lote | enumeração | Valores possíveis: auto |
No | |
| multiplicador_da_taxa_de_aprendizado | enumeração | Valores possíveis: auto |
No | |
| n_épocas | enumeração | Valores possíveis: auto |
No |
OpenAI.FineTuneSupervisedMethod
Configuração do método de ajuste fino a ser supervisionado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hiperparâmetros | OpenAI.FineTuneSupervisedHyperparameters | Os hiperparâmetros usados no trabalho de ajuste fino. | No |
OpenAI.FineTuningIntegration
Discriminatório para OpenAI.FineTuningIntegration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
wandb |
OpenAI.FineTuningIntegrationWandb |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia de caracteres (veja os modelos válidos abaixo) | Yes |
OpenAI.FineTuningIntegrationWandb
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da integração que está sendo ativada para a tarefa de ajuste fino. Valores possíveis: wandb |
Yes | |
| wandb | objeto | As configurações para sua integração com Pesos e Vieses. Esse conteúdo especifica o projeto para o qual as métricas serão enviadas. Opcionalmente, você pode definir um nome de exibição explícito para sua execução, adicionar marcas à sua execução e definir uma entidade padrão (equipe, nome de usuário etc) para ser associada à sua execução. | Yes | |
| └─ entidade | cadeia | A entidade a ser usada para a execução. Isso permite definir a equipe ou o nome de usuário do usuário do WandB que você quer associar à execução. Se não estiver definido, será usada a entidade padrão para a chave de API do WandB registrada. | No | |
| └─ nome | cadeia | Um nome de exibição a ser definido para a execução. Se não estiver definido, usaremos a ID do trabalho como o nome. | No | |
| └─ projeto | cadeia | O nome do projeto no qual a nova execução será criada. | No | |
| └─ etiquetas | matriz | Uma lista de marcas a serem anexadas à execução recém-criada. Essas marcas são passadas diretamente para o WandB. Algumas tags padrão são geradas pelo OpenAI: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". | No |
OpenAI.FineTuningJob
O objeto fine_tuning.job representa um trabalho de ajuste fino que foi criado pela API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) da criação da tarefa de ajuste fino. | Yes | |
| erro | objeto | Quanto aos trabalhos de ajuste fino que tenham failed, isso conterá mais informações sobre a causa da falha. |
Yes | |
| └─ código | cadeia | Um código de erro legível pelo computador. | No | |
| Mensagem └─ | cadeia | Uma mensagem de erro legível por humanos. | No | |
| └─ param | cadeia | O parâmetro que era inválido, geralmente training_file ou validation_file. Esse campo será nulo se a falha não tiver sido específica do parâmetro. |
No | |
| estimativa de conclusão | inteiro | O carimbo de data/hora unix (em segundos) para quando o trabalho de ajuste fino é estimado para ser concluído. O valor será nulo se o trabalho de ajuste fino não estiver em execução. | No | |
| fine_tuned_model | cadeia | O nome do modelo ajustado que está sendo criado. O valor será nulo se o trabalho de ajuste fino ainda estiver em execução. | Yes | |
| finished_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o trabalho de ajuste fino foi concluído. O valor será nulo se o trabalho de ajuste fino ainda estiver em execução. | Yes | |
| hiperparâmetros | objeto | Os hiperparâmetros usados no trabalho de ajuste fino. Esse valor só será retornado ao executar os trabalhos supervised. |
Yes | |
| └─ tamanho_do_lote (batch_size) | enumeração | Valores possíveis: auto |
No | |
| └─ multiplicador_da_taxa_de_aprendizagem | enumeração | Valores possíveis: auto |
No | |
| └─ n_epochs | enumeração | Valores possíveis: auto |
No | |
| id | cadeia | O identificador do objeto, que pode ser referenciado nos pontos de extremidade da API. | Yes | |
| Integrações | matriz | Uma lista de integrações para habilitar esse trabalho de ajuste fino. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| método | OpenAI.FineTuneMethod | O método usado no ajuste fino. | No | |
| modelo | cadeia | O modelo base que está sendo ajustado. | Yes | |
| objeto | enumeração | O tipo de objeto, o qual será sempre "fine_tuning.job". Valores possíveis: fine_tuning.job |
Yes | |
| organization_id | cadeia | A organização que possui o trabalho de ajuste fino. | Yes | |
| arquivos_de_resultado | matriz | As IDs do arquivo de resultados compilados para o trabalho de ajuste fino. Você pode recuperar os resultados com a API de Arquivos. | Yes | |
| seed | inteiro | A posição inicial usada para o trabalho de ajuste fino. | Yes | |
| status | enumeração | O status atual do trabalho de ajuste fino, que pode ser validating_files, queued, running, succeeded, failed ou cancelled.Valores possíveis: validating_files, , queued, running, succeeded, , failedcancelled |
Yes | |
| trained_tokens | inteiro | O número total de tokens faturáveis processados por esse trabalho de ajuste fino. O valor será nulo se o trabalho de ajuste fino ainda estiver em execução. | Yes | |
| arquivo_de_treinamento | cadeia | A ID do arquivo usada para treinamento. Você pode recuperar os dados de treinamento com a API de Arquivos. | Yes | |
| user_provided_suffix | cadeia | O sufixo descritivo aplicado ao trabalho, conforme especificado na solicitação de criação do trabalho. | No | |
| arquivo_de_validação | cadeia | A ID do arquivo usada para validação. Você pode recuperar os resultados de validação com a API de Arquivos. | Yes |
OpenAI.FineTuningJobCheckpoint
O objeto fine_tuning.job.checkpoint representa um ponto de verificação de modelo para um trabalho de ajuste fino que está pronto para ser usado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o ponto de verificação foi criado. | Yes | |
| fine_tuned_model_checkpoint | cadeia | O nome do modelo de ponto de verificação ajustado que é criado. | Yes | |
| fine_tuning_job_id | cadeia | O nome do trabalho de ajuste fino do qual esse ponto de verificação foi criado. | Yes | |
| id | cadeia | O identificador de ponto de verificação, que pode ser referenciado nos pontos de extremidade da API. | Yes | |
| métricas | objeto | Métricas no número da etapa durante o trabalho de ajuste fino. | Yes | |
| └─ full_valid_loss | number | No | ||
| └─ full_valid_mean_token_accuracy | number | No | ||
| └─ etapa | number | No | ||
| └─ train_loss | number | No | ||
| └─ train_mean_token_accuracy | number | No | ||
| └─ perda_de_validação | number | No | ||
| └─ precisão_média_dos_tokens_válidos | number | No | ||
| objeto | enumeração | O tipo de objeto, o qual será sempre "fine_tuning.job.checkpoint". Valores possíveis: fine_tuning.job.checkpoint |
Yes | |
| número_do_passo | inteiro | O número da etapa em que o ponto de verificação foi criado. | Yes |
OpenAI.FineTuningJobEvent
Ajustar objeto de evento de trabalho
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) da criação da tarefa de ajuste fino. | Yes | |
| dados | Os dados associados ao evento. | No | ||
| id | cadeia | O identificador do objeto. | Yes | |
| nível | enumeração | O nível de log do evento. Valores possíveis: info, , warnerror |
Yes | |
| mensagem | cadeia | A mensagem do evento. | Yes | |
| objeto | enumeração | O tipo de objeto, o qual será sempre "fine_tuning.job.event". Valores possíveis: fine_tuning.job.event |
Yes | |
| tipo | enumeração | O tipo do evento. Valores possíveis: message, metrics |
No |
OpenAI.FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. | No | ||
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no campo parameters. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
OpenAI.FunctionTool
Define uma função em seu próprio código que o modelo pode optar por chamar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada. | No | |
| name | cadeia | O nome da função a ser chamada. | Yes | |
| parameters | Um objeto de esquema JSON que descreve os parâmetros da função. | Yes | ||
| strict | boolean | Se deve impor a validação estrita de parâmetro. Padrão true. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de função. Sempre function.Valores possíveis: function |
Yes |
OpenAI.FunctionToolCallItemParam
Uma chamada de ferramenta para executar uma função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. | Yes | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Yes | |
| name | cadeia | O nome da função a ser executada. | Yes | |
| tipo | enumeração | Valores possíveis: function_call |
Yes |
OpenAI.FunctionToolCallItemResource
Uma chamada de ferramenta para executar uma função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. | Yes | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Yes | |
| name | cadeia | O nome da função a ser executada. | Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | Valores possíveis: function_call |
Yes |
OpenAI.FunctionToolCallOutputItemParam
A saída de uma chamada de ferramenta de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Yes | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. | Yes | |
| tipo | enumeração | Valores possíveis: function_call_output |
Yes |
OpenAI.FunctionToolCallOutputItemResource
A saída de uma chamada de ferramenta de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Yes | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. | Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | Valores possíveis: function_call_output |
Yes |
OpenAI.Grader
Discriminador do OpenAI.Grader
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
label_model |
OpenAI.GraderLabelModel |
text_similarity |
OpenAI.GraderTextSimilarity |
python |
OpenAI.GraderPython |
score_model |
OpenAI.GraderScoreModel |
multi |
OpenAI.GraderMulti |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.GraderType | Yes |
OpenAI.GraderLabelModel
Um objeto LabelModelGrader que usa um modelo para atribuir rótulos a cada item na avaliação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | matriz | Yes | ||
| rótulos | matriz | Os rótulos a serem atribuídos a cada item na avaliação. | Yes | |
| modelo | cadeia | O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| etiquetas_de_passagem | matriz | Os rótulos que indicam um resultado aprovado. Deve ser um subconjunto de rótulos. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre label_model.Valores possíveis: label_model |
Yes |
OpenAI.GraderMulti
Um objeto MultiGrader combina os resultados de vários avaliadores para produzir uma única pontuação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | Yes | |
| Série | objeto | Yes | ||
| name | cadeia | O nome do avaliador. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
Yes |
OpenAI.GraderPython
Um objeto PythonGrader que executa um script python na entrada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_tag | cadeia | A marca da imagem a ser usada no script python. | No | |
| name | cadeia | O nome do avaliador. | Yes | |
| fonte | cadeia | O código-fonte do script python. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre python.Valores possíveis: python |
Yes |
OpenAI.GraderScoreModel
Um objeto ScoreModelGrader que usa um modelo para atribuir uma pontuação à entrada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| modelo | cadeia | O modelo a ser usado para a avaliação. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| alcance | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| tipo | enumeração | O tipo de objeto, que é sempre score_model.Valores possíveis: score_model |
Yes |
OpenAI.GraderStringCheck
Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
Yes | |
| referência | cadeia | O texto de referência. Isso pode incluir cadeias de caracteres de modelo. | Yes | |
| tipo | enumeração | O tipo de objeto, que é sempre string_check.Valores possíveis: string_check |
Yes |
OpenAI.GraderTextSimilarity
Um objeto TextSimilarityGrader que classifica o texto com base em métricas de similaridade.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| métrica de avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
Yes | |
| entrada | cadeia | O texto que está sendo avaliado. | Yes | |
| name | cadeia | O nome do avaliador. | Yes | |
| referência | cadeia | O texto de referência para avaliação. | Yes | |
| tipo | enumeração | O tipo de avaliador. Valores possíveis: text_similarity |
Yes |
OpenAI.GraderType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | string_checktext_similarityscore_modellabel_modelpythonmulti |
OpenAI.ImageGenTool
Uma ferramenta que gera imagens usando um modelo como gpt-image-1.5.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | enumeração | Tipo de plano de fundo para a imagem gerada. Uma opção entre transparent, opaque ou auto. Padrão: auto.Valores possíveis: transparent, , opaqueauto |
No | |
| input_image_mask | objeto | Máscara opcional para inpainting. Contém image_url (cadeia de caracteres, opcional) e file_id (cadeia de caracteres, opcional). |
No | |
| └─ identificador_de_arquivo | cadeia | ID do arquivo para a imagem da máscara. | No | |
| └─ URL da imagem | cadeia | Imagem de máscara codificada em Base64. | No | |
| modelo | enumeração | O modelo de geração de imagem a ser usado. Padrão: gpt-image-1.Valores possíveis: gpt-image-1, gpt-image-1.5 |
No | |
| moderation | enumeração | Nível de moderação para a imagem gerada. Padrão: auto.Valores possíveis: auto, low |
No | |
| output_compression | inteiro | Nível de compactação para a imagem de saída. Padrão: 100. | No | 100 |
| output_format | enumeração | O formato de saída da imagem gerada. Uma opção entre png, webp ou jpeg. Padrão: png.Valores possíveis: png, , webpjpeg |
No | |
| partial_images | inteiro | Número de imagens parciais a serem geradas no modo de streaming, de 0 (valor padrão) a 3. | No | 0 |
| quality | enumeração | A qualidade da imagem gerada. Uma opção entre low, medium, high ou auto. Padrão: auto.Valores possíveis: low, , medium, highauto |
No | |
| size | enumeração | O tamanho da imagem gerada. Uma opção entre 1024x1024, 1024x1536, 1536x1024 ou auto. Padrão: auto.Valores possíveis: 1024x1024, , 1024x1536, 1536x1024auto |
No | |
| tipo | enumeração | O tipo da ferramenta de geração de imagem. Sempre image_generation.Valores possíveis: image_generation |
Yes |
OpenAI.ImageGenToolCallItemParam
Uma solicitação de geração de imagem feita pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| result | cadeia | A imagem gerada codificada em base64. | Yes | |
| tipo | enumeração | Valores possíveis: image_generation_call |
Yes |
OpenAI.ImageGenToolCallItemResource
Uma solicitação de geração de imagem feita pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| result | cadeia | A imagem gerada codificada em base64. | Yes | |
| status | enumeração | Valores possíveis: in_progress, , completed, generatingfailed |
Yes | |
| tipo | enumeração | Valores possíveis: image_generation_call |
Yes |
OpenAI.ImplicitUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | Yes |
OpenAI.Includable
Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
-
code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código. -
computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador. -
file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos. -
message.input_image.image_url: inclua urls de imagem da mensagem de entrada. -
message.output_text.logprobs: inclua logprobs com mensagens de assistente. -
reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetrostoreé definido parafalse, ou quando uma organização está inscrita no programa de retenção de dados zero).
| Property | Value |
|---|---|
| Description | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são: - code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.- message.output_text.logprobs: inclua os logprobs com mensagens de assistente.- reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero). |
| Type | cadeia |
| Values | code_interpreter_call.outputscomputer_call_output.output.image_urlfile_search_call.resultsmessage.input_image.image_urlmessage.output_text.logprobsreasoning.encrypted_content |
OpenAI.ItemContent
Discriminador para OpenAI.ItemContent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
input_audio |
OpenAI.ItemContentInputAudio |
output_audio |
OpenAI.ItemContentOutputAudio |
refusal |
OpenAI.ItemContentRefusal |
input_text |
OpenAI.ItemContentInputText |
input_image |
OpenAI.ItemContentInputImage |
input_file |
OpenAI.ItemContentInputFile |
output_text |
OpenAI.ItemContentOutputText |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ItemContentType | Conteúdo de entrada e saída multi modal. | Yes |
OpenAI.ItemContentInputAudio
Uma entrada de áudio para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio codificados em Base64. | Yes | |
| format | enumeração | O formato dos dados de áudio. Os formatos com suporte no momento são mp3 e wav.Valores possíveis: mp3, wav |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Yes |
OpenAI.ItemContentInputFile
Uma entrada de arquivo para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado para o modelo. | No | |
| file_id | cadeia | A ID do arquivo a ser enviado para o modelo. | No | |
| filename | cadeia | O nome do arquivo a ser enviado para o modelo. | No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Yes |
OpenAI.ItemContentInputImage
Uma entrada de imagem para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detail | enumeração | O nível de detalhes da imagem a ser enviada para o modelo. Uma opção entre high, low ou auto. Usa auto como padrão.Valores possíveis: low, , highauto |
No | |
| file_id | cadeia | A ID do arquivo a ser enviado para o modelo. | No | |
| image_url | cadeia | A URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou uma imagem codificada em base64 em uma URL de dados. | No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Yes |
OpenAI.ItemContentInputText
Uma entrada de texto para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. | Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Yes |
OpenAI.ItemContentOutputAudio
Uma saída de áudio do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio do modelo codificados em Base64. | Yes | |
| transcrição | cadeia | A transcrição dos dados de áudio provenientes do modelo. | Yes | |
| tipo | enumeração | O tipo do áudio de saída. Sempre output_audio.Valores possíveis: output_audio |
Yes |
OpenAI.ItemContentOutputText
Uma saída de texto do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | matriz | As anotações da saída de texto. | Yes | |
| logprobs | matriz | No | ||
| enviar SMS | cadeia | A saída de texto do modelo. | Yes | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Yes |
OpenAI.ItemContentRefusal
Uma recusa do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A explicação da recusa do modelo. | Yes | |
| tipo | enumeração | O tipo da recusa. Sempre refusal.Valores possíveis: refusal |
Yes |
OpenAI.ItemContentType
Conteúdo de entrada e saída multi modal.
| Property | Value |
|---|---|
| Description | Conteúdo de entrada e saída multi modal. |
| Type | cadeia |
| Values | input_textinput_audioinput_imageinput_fileoutput_textoutput_audiorefusal |
OpenAI.ItemParam
Item de conteúdo usado para gerar uma resposta.
Discriminador para OpenAI.ItemParam
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemParam |
computer_call |
OpenAI.ComputerToolCallItemParam |
computer_call_output |
OpenAI.ComputerToolCallOutputItemParam |
web_search_call |
OpenAI.WebSearchToolCallItemParam |
function_call |
OpenAI.FunctionToolCallItemParam |
function_call_output |
OpenAI.FunctionToolCallOutputItemParam |
reasoning |
OpenAI.ReasoningItemParam |
item_reference |
OpenAI.ItemReferenceItemParam |
image_generation_call |
OpenAI.ImageGenToolCallItemParam |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemParam |
local_shell_call |
OpenAI.LocalShellToolCallItemParam |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemParam |
mcp_list_tools |
OpenAI.MCPListToolsItemParam |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemParam |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemParam |
mcp_call |
OpenAI.MCPCallItemParam |
message |
OpenAI.ResponsesMessageItemParam |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ItemType | Yes |
OpenAI.ItemReferenceItemParam
Um identificador interno para um item a ser referenciado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | A ID originada pelo serviço do item de resposta gerado anteriormente sendo referenciado. | Yes | |
| tipo | enumeração | Valores possíveis: item_reference |
Yes |
OpenAI.ItemResource
Item de conteúdo usado para gerar uma resposta.
Discriminador para OpenAI.ItemResource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemResource |
computer_call |
OpenAI.ComputerToolCallItemResource |
computer_call_output |
OpenAI.ComputerToolCallOutputItemResource |
web_search_call |
OpenAI.WebSearchToolCallItemResource |
function_call |
OpenAI.FunctionToolCallItemResource |
function_call_output |
OpenAI.FunctionToolCallOutputItemResource |
reasoning |
OpenAI.ReasoningItemResource |
image_generation_call |
OpenAI.ImageGenToolCallItemResource |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemResource |
local_shell_call |
OpenAI.LocalShellToolCallItemResource |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemResource |
mcp_list_tools |
OpenAI.MCPListToolsItemResource |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemResource |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemResource |
mcp_call |
OpenAI.MCPCallItemResource |
message |
OpenAI.ResponsesMessageItemResource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | Yes | ||
| tipo | OpenAI.ItemType | Yes |
OpenAI.ItemType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | messagefile_search_callfunction_callfunction_call_outputcomputer_callcomputer_call_outputweb_search_callreasoningitem_referenceimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ListFineTuningJobCheckpointsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | No | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | No | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
OpenAI.ListFineTuningJobEventsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| has_more | boolean | Yes | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
OpenAI.ListModelsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
OpenAI.ListPaginatedFineTuningJobsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| has_more | boolean | Yes | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
OpenAI.ListVectorStoreFilesFilter
| Property | Value |
|---|---|
| Type | cadeia |
| Values | in_progresscompletedfailedcancelled |
OpenAI.ListVectorStoreFilesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
OpenAI.ListVectorStoresResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | enumeração | Valores possíveis: list |
Yes |
OpenAI.LocalShellExecAction
Execute um comando shell no servidor.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| command | matriz | O comando a ser executado. | Yes | |
| env | objeto | Variáveis de ambiente a serem definidas para o comando. | Yes | |
| tempo_de_espera_ms | inteiro | Tempo limite opcional em milissegundos para o comando. | No | |
| tipo | enumeração | O tipo da ação do shell local. Sempre exec.Valores possíveis: exec |
Yes | |
| usuário | cadeia | Usuário opcional para executar o comando como. | No | |
| working_directory | cadeia | Diretório de trabalho opcional para executar o comando. | No |
OpenAI.LocalShellTool
Uma ferramenta que permite que o modelo execute comandos de shell em um ambiente local.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta de shell local. Sempre local_shell.Valores possíveis: local_shell |
Yes |
OpenAI.LocalShellToolCallItemParam
Uma chamada de ferramenta para executar um comando no shell local.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | OpenAI.LocalShellExecAction | Execute um comando shell no servidor. | Yes | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Yes | |
| tipo | enumeração | Valores possíveis: local_shell_call |
Yes |
OpenAI.LocalShellToolCallItemResource
Uma chamada de ferramenta para executar um comando no shell local.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | OpenAI.LocalShellExecAction | Execute um comando shell no servidor. | Yes | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Yes | |
| status | enumeração | Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | Valores possíveis: local_shell_call |
Yes |
OpenAI.LocalShellToolCallOutputItemParam
A saída de uma chamada de ferramenta de shell local.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de shell local. | Yes | |
| tipo | enumeração | Valores possíveis: local_shell_call_output |
Yes |
OpenAI.LocalShellToolCallOutputItemResource
A saída de uma chamada de ferramenta de shell local.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de shell local. | Yes | |
| status | enumeração | Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | Valores possíveis: local_shell_call_output |
Yes |
OpenAI.Location
Discriminador para OpenAI.Location
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
approximate |
OpenAI.ApproximateLocation |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.LocationType | Yes |
OpenAI.LocationType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | approximate |
OpenAI.LogProb
A probabilidade de log de um token.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Yes | ||
| logprob | number | Yes | ||
| símbolo | cadeia | Yes | ||
| top_logprobs | matriz | Yes |
OpenAI.MCPApprovalRequestItemParam
Uma solicitação de aprovação humana de uma invocação de ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma string JSON de argumentos para a ferramenta. | Yes | |
| name | cadeia | O nome da ferramenta a ser executada. | Yes | |
| server_label | cadeia | O rótulo do servidor MCP que está fazendo a solicitação. | Yes | |
| tipo | enumeração | Valores possíveis: mcp_approval_request |
Yes |
OpenAI.MCPApprovalRequestItemResource
Uma solicitação de aprovação humana de uma invocação de ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma string JSON de argumentos para a ferramenta. | Yes | |
| name | cadeia | O nome da ferramenta a ser executada. | Yes | |
| server_label | cadeia | O rótulo do servidor MCP que está fazendo a solicitação. | Yes | |
| tipo | enumeração | Valores possíveis: mcp_approval_request |
Yes |
OpenAI.MCPApprovalResponseItemParam
Uma resposta a uma solicitação de aprovação do MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | cadeia | A ID da solicitação de aprovação que está sendo respondida. | Yes | |
| approve | boolean | Se a solicitação foi aprovada. | Yes | |
| reason | cadeia | Motivo opcional para a decisão. | No | |
| tipo | enumeração | Valores possíveis: mcp_approval_response |
Yes |
OpenAI.MCPApprovalResponseItemResource
Uma resposta a uma solicitação de aprovação do MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | cadeia | A ID da solicitação de aprovação que está sendo respondida. | Yes | |
| approve | boolean | Se a solicitação foi aprovada. | Yes | |
| reason | cadeia | Motivo opcional para a decisão. | No | |
| tipo | enumeração | Valores possíveis: mcp_approval_response |
Yes |
OpenAI.MCPCallItemParam
Uma invocação de uma ferramenta em um servidor MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. | Yes | |
| erro | cadeia | O erro da chamada da ferramenta, se houver. | No | |
| name | cadeia | O nome da ferramenta que foi executada. | Yes | |
| saída | cadeia | A saída da chamada da ferramenta. | No | |
| server_label | cadeia | O rótulo do servidor MCP que executa a ferramenta. | Yes | |
| tipo | enumeração | Valores possíveis: mcp_call |
Yes |
OpenAI.MCPCallItemResource
Uma invocação de uma ferramenta em um servidor MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. | Yes | |
| erro | cadeia | O erro da chamada da ferramenta, se houver. | No | |
| name | cadeia | O nome da ferramenta que foi executada. | Yes | |
| saída | cadeia | A saída da chamada da ferramenta. | No | |
| server_label | cadeia | O rótulo do servidor MCP que executa a ferramenta. | Yes | |
| tipo | enumeração | Valores possíveis: mcp_call |
Yes |
OpenAI.MCPListToolsItemParam
Uma lista de ferramentas disponíveis em um servidor MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | cadeia | Mensagem de erro se o servidor não puder listar ferramentas. | No | |
| server_label | cadeia | O rótulo do servidor MCP. | Yes | |
| tools | matriz | As ferramentas disponíveis no servidor. | Yes | |
| tipo | enumeração | Valores possíveis: mcp_list_tools |
Yes |
OpenAI.MCPListToolsItemResource
Uma lista de ferramentas disponíveis em um servidor MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | cadeia | Mensagem de erro se o servidor não puder listar ferramentas. | No | |
| server_label | cadeia | O rótulo do servidor MCP. | Yes | |
| tools | matriz | As ferramentas disponíveis no servidor. | Yes | |
| tipo | enumeração | Valores possíveis: mcp_list_tools |
Yes |
OpenAI.MCPListToolsTool
Uma ferramenta disponível em um servidor MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | Anotações adicionais sobre a ferramenta. | No | ||
| description | cadeia | A descrição da ferramenta. | No | |
| input_schema | O esquema JSON que descreve a entrada da ferramenta. | Yes | ||
| name | cadeia | O nome da ferramenta. | Yes |
OpenAI.MCPTool
Conceda ao modelo acesso a ferramentas adicionais por meio de servidores remotos do Protocolo de Contexto de Modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allowed_tools | objeto | No | ||
| └─ nomes_das_ferramentas | matriz | Lista de nomes de ferramentas permitidos. | No | |
| headers | objeto | Cabeçalhos HTTP opcionais para enviar ao servidor MCP. Use para autenticação ou outras finalidades. | No | |
| require_approval | objeto (consulte modelos válidos abaixo) | Especifique quais das ferramentas do servidor MCP exigem aprovação. | No | |
| server_label | cadeia | Um rótulo para esse servidor MCP, usado para identificá-lo em chamadas de ferramenta. | Yes | |
| server_url | cadeia | A URL do servidor MCP. | Yes | |
| tipo | enumeração | O tipo da ferramenta MCP. Sempre mcp.Valores possíveis: mcp |
Yes |
OpenAI.MetadataPropertyForRequest
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.
As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No |
OpenAI.Model
Descreve uma oferta do modelo OpenAI que pode ser usada com a API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | inteiro | O carimbo de data/hora unix (em segundos) quando o modelo foi criado. | Yes | |
| id | cadeia | O identificador de modelo, que pode ser referenciado nos pontos de extremidade da API. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre "modelo". Valores possíveis: model |
Yes | |
| owned_by | cadeia | A organização que possui o modelo. | Yes |
OpenAI.OtherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de divisão em partes é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do conceito de chunking_strategy ser introduzido na API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Sempre other.Valores possíveis: other |
Yes |
OpenAI.ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Tipo: booliano
OpenAI.Prompt
Referência a um modelo de prompt e suas variáveis.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | O identificador exclusivo do modelo de prompt a ser usado. | Yes | |
| Variáveis | objeto | Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. | No | |
| versão | cadeia | Versão opcional do modelo de prompt. | No |
OpenAI.RankingOptions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| classificador | enumeração | O classificador a ser usado para a pesquisa de arquivos. Valores possíveis: auto, default-2024-11-15 |
No | |
| score_threshold | number | O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. | No |
OpenAI.Reasoning
somente modelos da série o
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Esforço | objeto |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| generate_summary | enumeração |
Preterido: use summary em vez disso.Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No |
OpenAI.ReasoningEffort
somente modelos da série o
Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
| Property | Value |
|---|---|
| Description |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
| Type | cadeia |
| Values | lowmediumhigh |
OpenAI.ReasoningItemParam
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta. Certifique-se de incluir esses itens em inputpara a API de Respostas para as próximas rodadas de uma conversa se você estiver gerenciando manualmente o contexto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | cadeia | O conteúdo criptografado do item de raciocínio - preenchido quando uma resposta é gerada com reasoning.encrypted_content no parâmetro include. |
No | |
| resumo | matriz | Conteúdo de texto de raciocínio. | Yes | |
| tipo | enumeração | Valores possíveis: reasoning |
Yes |
OpenAI.ReasoningItemResource
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta. Certifique-se de incluir esses itens em inputpara a API de Respostas para as próximas rodadas de uma conversa se você estiver gerenciando manualmente o contexto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | cadeia | O conteúdo criptografado do item de raciocínio - preenchido quando uma resposta é gerada com reasoning.encrypted_content no parâmetro include. |
No | |
| resumo | matriz | Conteúdo de texto de raciocínio. | Yes | |
| tipo | enumeração | Valores possíveis: reasoning |
Yes |
OpenAI.ReasoningItemSummaryPart
Discriminador para OpenAI.ReasoningItemSummaryPart
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
summary_text |
OpenAI.ReasoningItemSummaryTextPart |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ReasoningItemSummaryPartType | Yes |
OpenAI.ReasoningItemSummaryPartType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | summary_text |
OpenAI.ReasoningItemSummaryTextPart
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Yes | ||
| tipo | enumeração | Valores possíveis: summary_text |
Yes |
OpenAI.Response
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Yes | |
| erro | objeto | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | Yes | |
| └─ código | OpenAI.ResponseErrorCode | O código de erro da resposta. | No | |
| Mensagem └─ | cadeia | Uma descrição do erro legível para humanos. | No | |
| id | cadeia | Identificador exclusivo para esta resposta. | Yes | |
| incomplete_details | objeto | Detalhes sobre por que a resposta está incompleta. | Yes | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| instructions | cadeia de caracteres ou matriz | Yes | ||
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Yes | |
| saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
Yes | |
| output_text | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Yes | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| solicitação | objeto | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ id | cadeia | O identificador exclusivo do modelo de prompt a ser usado. | No | |
| └─ variáveis | OpenAI.ResponsePromptVariables | Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. | No | |
| └─ versão | cadeia | Versão opcional do modelo de prompt. | No | |
| reasoning | objeto |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ esforço | OpenAI.ReasoningEffort |
somente modelos da série o Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
No | |
| └─ gerar_resumo | enumeração |
Preterido: use summary em vez disso.Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| └─ resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.Valores possíveis: auto, , concisedetailed |
No | |
| status | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
Yes | |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | objeto | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
No | |
| └─ tipo | OpenAI.ToolChoiceObjectType | Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. | No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
Yes | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | Yes |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um snippet de código parcial é transmitido pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O snippet de código parcial que está sendo transmitido pelo interpretador de código. | Yes | |
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretadora de código. | Yes | |
| output_index | inteiro | O índice do item de saída na resposta para o qual o código está sendo transmitido. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call_code.delta.Valores possíveis: response.code_interpreter_call_code.delta |
Yes |
OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
Emitido quando o snippet de código é finalizado pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | A saída final do snippet de código pelo intérprete de código. | Yes | |
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretadora de código. | Yes | |
| output_index | inteiro | O índice do item de saída na resposta para a qual o código é finalizado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call_code.done.Valores possíveis: response.code_interpreter_call_code.done |
Yes |
OpenAI.ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada do interpretador de código é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretadora de código. | Yes | |
| output_index | inteiro | O índice do item de saída na resposta para a qual a chamada do interpretador de código é concluída. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.completed.Valores possíveis: response.code_interpreter_call.completed |
Yes |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretadora de código. | Yes | |
| output_index | inteiro | O índice do item de saída na resposta para a qual a chamada do interpretador de código está em andamento. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Yes |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está interpretando ativamente o snippet de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretadora de código. | Yes | |
| output_index | inteiro | O índice do item de saída na resposta para a qual o interpretador de código está interpretando o código. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Yes |
OpenAI.ResponseCompletedEvent
Emitido quando a resposta do modelo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | objeto | Yes | ||
| └─ plano de fundo | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | No | |
| └─ erro | OpenAI.ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | No | |
| └─ id | cadeia | Identificador exclusivo para esta resposta. | No | |
| └─ detalhes_incompletos | objeto | Detalhes sobre por que a resposta está incompleta. | No | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| └─ instruções | cadeia de caracteres ou matriz | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| └─ max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
No | |
| └─ saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
No | |
| └─ texto_de_saida | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| └─ ID_de_resposta_anterior | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ raciocínio | OpenAI.Reasoning |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| └─ temperatura | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | |
| └─ texto | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| └─ ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| └─ top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| └─ top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | |
| └─ truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| └─ usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.completed.Valores possíveis: response.completed |
Yes |
OpenAI.ResponseContentPartAddedEvent
Emitido quando uma nova parte de conteúdo é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que foi adicionada. | Yes | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. | Yes | |
| part | objeto | Yes | ||
| └─ tipo | OpenAI.ItemContentType | Conteúdo de entrada e saída multi modal. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Yes |
OpenAI.ResponseContentPartDoneEvent
Emitido quando uma parte do conteúdo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que está concluída. | Yes | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. | Yes | |
| part | objeto | Yes | ||
| └─ tipo | OpenAI.ItemContentType | Conteúdo de entrada e saída multi modal. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.content_part.done.Valores possíveis: response.content_part.done |
Yes |
OpenAI.ResponseCreatedEvent
Um evento emitido quando uma resposta é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | objeto | Yes | ||
| └─ plano de fundo | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | No | |
| └─ erro | OpenAI.ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | No | |
| └─ id | cadeia | Identificador exclusivo para esta resposta. | No | |
| └─ detalhes_incompletos | objeto | Detalhes sobre por que a resposta está incompleta. | No | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| └─ instruções | cadeia de caracteres ou matriz | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| └─ max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
No | |
| └─ saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
No | |
| └─ texto_de_saida | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| └─ ID_de_resposta_anterior | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ raciocínio | OpenAI.Reasoning |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ estado | enumeração | O status da geração de resposta. Uma opção entre completed, failed,in_progress, cancelled, queuedou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| └─ temperatura | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | |
| └─ texto | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| └─ ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| └─ top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| └─ top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | |
| └─ truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| └─ usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.created.Valores possíveis: response.created |
Yes |
OpenAI.ResponseError
Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | OpenAI.ResponseErrorCode | O código de erro da resposta. | Yes | |
| mensagem | cadeia | Uma descrição do erro legível para humanos. | Yes |
OpenAI.ResponseErrorCode
O código de erro da resposta.
| Property | Value |
|---|---|
| Description | O código de erro da resposta. |
| Type | cadeia |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Emitido quando ocorre um erro.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código do erro. | Yes | |
| mensagem | cadeia | A mensagem de erro. | Yes | |
| param | cadeia | O parâmetro de erro. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre error.Valores possíveis: error |
Yes |
OpenAI.ResponseFailedEvent
Um evento emitido quando uma resposta falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | objeto | Yes | ||
| └─ plano de fundo | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | No | |
| └─ erro | OpenAI.ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | No | |
| └─ id | cadeia | Identificador exclusivo para esta resposta. | No | |
| └─ detalhes_incompletos | objeto | Detalhes sobre por que a resposta está incompleta. | No | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| └─ instruções | cadeia de caracteres ou matriz | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| └─ max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
No | |
| └─ saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
No | |
| └─ texto_de_saida | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| └─ ID_de_resposta_anterior | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ raciocínio | OpenAI.Reasoning |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| └─ temperatura | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | |
| └─ texto | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| └─ ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| └─ top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| └─ top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | |
| └─ truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| └─ usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.failed.Valores possíveis: response.failed |
Yes |
OpenAI.ResponseFileSearchCallCompletedEvent
Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. | Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.completed.Valores possíveis: response.file_search_call.completed |
Yes |
OpenAI.ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de pesquisa de arquivo é iniciada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. | Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Yes |
OpenAI.ResponseFileSearchCallSearchingEvent
Emitido quando uma pesquisa de arquivo está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. | Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Yes |
OpenAI.ResponseFormat
Discriminador para OpenAI.ResponseFormat
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
text |
OpenAI.ResponseFormatText |
json_object |
OpenAI.ResponseFormatJsonObject |
json_schema |
OpenAI.ResponseFormatJsonSchema |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: text, , json_objectjson_schema |
Yes |
OpenAI.ResponseFormatJsonObject
Formato de resposta de objeto JSON. Um método mais antigo de geração de respostas JSON.
O uso json_schema é recomendado para modelos que dão suporte a ele. Observe que o modelo não gerará JSON sem um sistema ou mensagem de usuário instruindo-o a fazê-lo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_object.Valores possíveis: json_object |
Yes |
OpenAI.ResponseFormatJsonSchema
Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| json_schema | objeto | Opções de configuração de Saídas Estruturadas, incluindo um esquema JSON. | Yes | |
| └─ descrição | cadeia | Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. | No | |
| └─ nome | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ esquema | OpenAI.ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui. |
No | |
| └─ rigoroso | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Yes |
OpenAI.ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui.
Tipo: objeto
OpenAI.ResponseFormatText
Formato de resposta padrão. Usado para gerar respostas de texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre text.Valores possíveis: text |
Yes |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta de argumentos parciais de chamada de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O delta de argumentos de chamada de função que é adicionado. | Yes | |
| item_id | cadeia | A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Yes |
OpenAI.ResponseFunctionCallArgumentsDoneEvent
Emitido quando os argumentos de chamada de função são finalizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| item_id | cadeia | O ID do item. | Yes | |
| output_index | inteiro | O índice do item de saída. | Yes | |
| tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Yes |
OpenAI.ResponseImageGenCallCompletedEvent
Emitido quando uma chamada de ferramenta de geração de imagem é concluída e a imagem final está disponível.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre 'response.image_generation_call.completed'. Valores possíveis: response.image_generation_call.completed |
Yes |
OpenAI.ResponseImageGenCallGeneratingEvent
Emitido quando uma chamada de ferramenta de geração de imagem está gerando ativamente uma imagem (estado intermediário).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Always 'response.image_generation_call.generating'. Valores possíveis: response.image_generation_call.generating |
Yes |
OpenAI.ResponseImageGenCallInProgressEvent
Emitido quando uma chamada de ferramenta de geração de imagem está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Always 'response.image_generation_call.in_progress'. Valores possíveis: response.image_generation_call.in_progress |
Yes |
OpenAI.ResponseImageGenCallPartialImageEvent
Emitido quando uma imagem parcial está disponível durante o streaming de geração de imagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| partial_image_b64 | cadeia | Dados de imagem parciais codificados em Base64, adequados para renderização como uma imagem. | Yes | |
| partial_image_index | inteiro | Índice baseado em 0 para a imagem parcial (o back-end é baseado em 1, mas é baseado em 0 para o usuário). | Yes | |
| tipo | enumeração | O tipo de evento. Sempre 'response.image_generation_call.partial_image'. Valores possíveis: response.image_generation_call.partial_image |
Yes |
OpenAI.ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | objeto | Yes | ||
| └─ plano de fundo | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | No | |
| └─ erro | OpenAI.ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | No | |
| └─ id | cadeia | Identificador exclusivo para esta resposta. | No | |
| └─ detalhes_incompletos | objeto | Detalhes sobre por que a resposta está incompleta. | No | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| └─ instruções | cadeia de caracteres ou matriz | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| └─ max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
No | |
| └─ saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
No | |
| └─ texto_de_saida | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| └─ ID_de_resposta_anterior | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ raciocínio | OpenAI.Reasoning |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| └─ temperatura | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | |
| └─ texto | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| └─ ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| └─ top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| └─ top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | |
| └─ truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| └─ usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Yes |
OpenAI.ResponseIncompleteEvent
Um evento emitido quando uma resposta é concluída como incompleta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | objeto | Yes | ||
| └─ plano de fundo | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | No | |
| └─ erro | OpenAI.ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | No | |
| └─ id | cadeia | Identificador exclusivo para esta resposta. | No | |
| └─ detalhes_incompletos | objeto | Detalhes sobre por que a resposta está incompleta. | No | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| └─ instruções | cadeia de caracteres ou matriz | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| └─ max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
No | |
| └─ saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
No | |
| └─ texto_de_saida | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| └─ ID_de_resposta_anterior | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ raciocínio | OpenAI.Reasoning |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| └─ temperatura | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | |
| └─ texto | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| └─ ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| └─ top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| └─ top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | |
| └─ truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| └─ usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No | |
| tipo | enumeração | O tipo de evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Yes |
OpenAI.ResponseItemList
Uma lista de itens de resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma lista de itens usados para gerar essa resposta. | Yes | |
| first_id | cadeia | A ID do primeiro item da lista. | Yes | |
| has_more | boolean | Se há mais itens disponíveis. | Yes | |
| last_id | cadeia | A ID do último item da lista. | Yes | |
| objeto | enumeração | O tipo de objeto retornado deve ser list.Valores possíveis: list |
Yes |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Emitido quando há um delta (atualização parcial) para os argumentos de uma chamada de ferramenta MCP.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | A atualização parcial para os argumentos da chamada da ferramenta MCP. | Yes | ||
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre 'response.mcp_call.arguments_delta'. Valores possíveis: response.mcp_call.arguments_delta |
Yes |
OpenAI.ResponseMCPCallArgumentsDoneEvent
Emitido quando os argumentos de uma chamada de ferramenta MCP são finalizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | Os argumentos finalizados para a chamada da ferramenta MCP. | Yes | ||
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre 'response.mcp_call.arguments_done'. Valores possíveis: response.mcp_call.arguments_done |
Yes |
OpenAI.ResponseMCPCallCompletedEvent
Emitido quando uma chamada de ferramenta MCP é concluída com êxito.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Always 'response.mcp_call.completed'. Valores possíveis: response.mcp_call.completed |
Yes |
OpenAI.ResponseMCPCallFailedEvent
Emitido quando uma chamada de ferramenta MCP falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre 'response.mcp_call.falhou'. Valores possíveis: response.mcp_call.failed |
Yes |
OpenAI.ResponseMCPCallInProgressEvent
Emitido quando uma chamada de ferramenta MCP está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Always 'response.mcp_call.in_progress'. Valores possíveis: response.mcp_call.in_progress |
Yes |
OpenAI.ResponseMCPListToolsCompletedEvent
Emitido quando a lista de ferramentas MCP disponíveis foi recuperada com êxito.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre 'response.mcp_list_tools.completed'. Valores possíveis: response.mcp_list_tools.completed |
Yes |
OpenAI.ResponseMCPListToolsFailedEvent
Emitido quando a tentativa de listar as ferramentas MCP disponíveis falhou.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre 'response.mcp_list_tools.falhou'. Valores possíveis: response.mcp_list_tools.failed |
Yes |
OpenAI.ResponseMCPListToolsInProgressEvent
Emitido quando o sistema está no processo de recuperação da lista de ferramentas MCP disponíveis.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre 'response.mcp_list_tools.in_progress'. Valores possíveis: response.mcp_list_tools.in_progress |
Yes |
OpenAI.ResponseOutputItemAddedEvent
Emitido quando um novo item de saída é adicionado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | objeto | Item de conteúdo usado para gerar uma resposta. | Yes | |
| └─ id | cadeia | No | ||
| └─ tipo | OpenAI.ItemType | No | ||
| output_index | inteiro | O índice do item de saída que foi adicionado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Yes |
OpenAI.ResponseOutputItemDoneEvent
Emitido quando um item de saída é marcado como concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | objeto | Item de conteúdo usado para gerar uma resposta. | Yes | |
| └─ id | cadeia | No | ||
| └─ tipo | OpenAI.ItemType | No | ||
| output_index | inteiro | O índice do item de saída que foi marcado como concluído. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.done.Valores possíveis: response.output_item.done |
Yes |
OpenAI.ResponsePromptVariables
Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.
Tipo: objeto
OpenAI.ResponseQueuedEvent
Emitido quando uma resposta é enfileirada e aguardando para ser processada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | objeto | Yes | ||
| └─ plano de fundo | boolean | Se a resposta do modelo deve ser executada em segundo plano. | No | False |
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | No | |
| └─ erro | OpenAI.ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. | No | |
| └─ id | cadeia | Identificador exclusivo para esta resposta. | No | |
| └─ detalhes_incompletos | objeto | Detalhes sobre por que a resposta está incompleta. | No | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| └─ instruções | cadeia de caracteres ou matriz | Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio | No | |
| └─ max_tool_calls | inteiro | O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. | No | |
| └─ metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| └─ objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
No | |
| └─ saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
No | |
| └─ texto_de_saida | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.Com suporte nos SDKs python e JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | No | True |
| └─ ID_de_resposta_anterior | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. | No | |
| └─ raciocínio | OpenAI.Reasoning |
somente modelos da série o Opções de configuração para modelos de raciocínio. |
No | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
No | |
| └─ temperatura | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | |
| └─ texto | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. | No | |
| └─ Formato | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| └─ ferramentas | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo. |
No | |
| └─ top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. | No | |
| └─ top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | |
| └─ truncamento | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. | No | |
| └─ usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. | No | |
| tipo | enumeração | O tipo de evento. Sempre 'response.enfileirado'. Valores possíveis: response.queued |
Yes |
OpenAI.ResponseReasoningDeltaEvent
Emitido quando há um delta (atualização parcial) no conteúdo do raciocínio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo de raciocínio dentro do item de saída. | Yes | |
| delta | A atualização parcial para o conteúdo de raciocínio. | Yes | ||
| item_id | cadeia | O identificador único do item para o qual o raciocínio está sendo atualizado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre 'response.reasoning.delta'. Valores possíveis: response.reasoning.delta |
Yes |
OpenAI.ResponseReasoningDoneEvent
Emitido quando o conteúdo do raciocínio é finalizado para um item.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo de raciocínio dentro do item de saída. | Yes | |
| item_id | cadeia | O identificador exclusivo do item para o qual o raciocínio é finalizado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| enviar SMS | cadeia | O texto de raciocínio finalizado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre 'response.reasoning.done'. Valores possíveis: response.reasoning.done |
Yes |
OpenAI.ResponseReasoningSummaryDeltaEvent
Emitido quando há uma atualização parcial (delta) no conteúdo do resumo de raciocínio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | A atualização parcial para o conteúdo de resumo do raciocínio. | Yes | ||
| item_id | cadeia | O identificador exclusivo do item para o qual o resumo do raciocínio está sendo atualizado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| summary_index | inteiro | O índice da parte de resumo dentro do item de saída. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre "response.reasoning_summary.delta". Valores possíveis: response.reasoning_summary.delta |
Yes |
OpenAI.ResponseReasoningSummaryDoneEvent
Emitido quando o conteúdo do resumo do raciocínio é finalizado para um item.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item para o qual o resumo do raciocínio é finalizado. | Yes | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Yes | |
| summary_index | inteiro | O índice da parte de resumo dentro do item de saída. | Yes | |
| enviar SMS | cadeia | O texto de resumo do raciocínio finalizado. | Yes | |
| tipo | enumeração | O tipo de evento. Always 'response.reasoning_summary.done'. Valores possíveis: response.reasoning_summary.done |
Yes |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Emitido quando uma nova parte de resumo de raciocínio é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item à qual essa parte de resumo está associada. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual essa parte de resumo está associada. | Yes | |
| part | objeto | Yes | ||
| └─ tipo | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | inteiro | O índice da parte de resumo dentro do resumo do raciocínio. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.reasoning_summary_part.added.Valores possíveis: response.reasoning_summary_part.added |
Yes |
OpenAI.ResponseReasoningSummaryPartDoneEvent
Emitido quando uma parte do resumo do raciocínio é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item à qual essa parte de resumo está associada. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual essa parte de resumo está associada. | Yes | |
| part | objeto | Yes | ||
| └─ tipo | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | inteiro | O índice da parte de resumo dentro do resumo do raciocínio. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.reasoning_summary_part.done.Valores possíveis: response.reasoning_summary_part.done |
Yes |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Emitido quando um delta é adicionado a um texto de resumo lógico.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O delta de texto que foi adicionado ao resumo. | Yes | |
| item_id | cadeia | A ID do item ao qual este delta de texto de resumo está associado. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual este delta de texto de resumo está associado. | Yes | |
| summary_index | inteiro | O índice da parte de resumo dentro do resumo do raciocínio. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.reasoning_summary_text.delta.Valores possíveis: response.reasoning_summary_text.delta |
Yes |
OpenAI.ResponseReasoningSummaryTextDoneEvent
Emitido quando um texto de resumo de raciocínio é concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item ao qual este texto de resumo está associado. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual este texto de resumo está associado. | Yes | |
| summary_index | inteiro | O índice da parte de resumo dentro do resumo do raciocínio. | Yes | |
| enviar SMS | cadeia | O texto completo do resumo do raciocínio concluído. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.reasoning_summary_text.done.Valores possíveis: response.reasoning_summary_text.done |
Yes |
OpenAI.ResponseRefusalDeltaEvent
Emitido quando há um texto de recusa parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. | Yes | |
| delta | cadeia | O texto de recusa que é adicionado. | Yes | |
| item_id | cadeia | A ID do item de saída ao qual o texto de recusa é adicionado. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Yes |
OpenAI.ResponseRefusalDoneEvent
Emitido quando o texto de recusa é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que o texto de recusa é finalizado. | Yes | |
| item_id | cadeia | A ID do item de saída em que o texto de recusa é finalizado. | Yes | |
| output_index | inteiro | O índice do item de saída em que o texto de recusa é finalizado. | Yes | |
| refusal | cadeia | O texto finalizado de recusa. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.done.Valores possíveis: response.refusal.done |
Yes |
OpenAI.ResponseStreamEvent
Discriminador para OpenAI.ResponseStreamEvent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sequence_number | inteiro | O número sequencial para esse evento. | Yes | |
| tipo | OpenAI.ResponseStreamEventType | Yes |
OpenAI.ResponseStreamEventType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | response.audio.deltaresponse.audio.doneresponse.audio_transcript.deltaresponse.audio_transcript.doneresponse.code_interpreter_call_code.deltaresponse.code_interpreter_call_code.doneresponse.code_interpreter_call.completedresponse.code_interpreter_call.in_progressresponse.code_interpreter_call.interpretingresponse.completedresponse.content_part.addedresponse.content_part.doneresponse.createderrorresponse.file_search_call.completedresponse.file_search_call.in_progressresponse.file_search_call.searchingresponse.function_call_arguments.deltaresponse.function_call_arguments.doneresponse.in_progressresponse.failedresponse.incompleteresponse.output_item.addedresponse.output_item.doneresponse.refusal.deltaresponse.refusal.doneresponse.output_text.annotation.addedresponse.output_text.deltaresponse.output_text.doneresponse.reasoning_summary_part.addedresponse.reasoning_summary_part.doneresponse.reasoning_summary_text.deltaresponse.reasoning_summary_text.doneresponse.web_search_call.completedresponse.web_search_call.in_progressresponse.web_search_call.searchingresponse.image_generation_call.completedresponse.image_generation_call.generatingresponse.image_generation_call.in_progressresponse.image_generation_call.partial_imageresponse.mcp_call.arguments_deltaresponse.mcp_call.arguments_doneresponse.mcp_call.completedresponse.mcp_call.failedresponse.mcp_call.in_progressresponse.mcp_list_tools.completedresponse.mcp_list_tools.failedresponse.mcp_list_tools.in_progressresponse.queuedresponse.reasoning.deltaresponse.reasoning.doneresponse.reasoning_summary.deltaresponse.reasoning_summary.done |
OpenAI.ResponseTextDeltaEvent
Emitido quando há um delta de texto adicional.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o delta de texto foi adicionado. | Yes | |
| delta | cadeia | O delta de texto que foi adicionado. | Yes | |
| item_id | cadeia | A ID do item de saída ao qual o delta de texto foi adicionado. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Yes |
OpenAI.ResponseTextDoneEvent
Emitido quando o conteúdo do texto é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que o conteúdo do texto é finalizado. | Yes | |
| item_id | cadeia | A ID do item de saída em que o conteúdo do texto é finalizado. | Yes | |
| output_index | inteiro | O índice do item de saída que o conteúdo do texto é finalizado. | Yes | |
| enviar SMS | cadeia | O conteúdo do texto finalizado. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
OpenAI.ResponseTextFormatConfiguration
Discriminador para OpenAI.ResponseTextFormatConfiguration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
text |
OpenAI.ResponseTextFormatConfigurationText |
json_object |
OpenAI.ResponseTextFormatConfigurationJsonObject |
json_schema |
OpenAI.ResponseTextFormatConfigurationJsonSchema |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ResponseTextFormatConfigurationType | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele. |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: json_object |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonSchema
Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. | No | |
| name | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| esquema | OpenAI.ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui. |
Yes | |
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Yes |
OpenAI.ResponseTextFormatConfigurationText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: text |
Yes |
OpenAI.ResponseTextFormatConfigurationType
Um objeto que especifica o formato que o modelo deve gerar.
A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.
O formato padrão é { "type": "text" } sem opções adicionais.
Não recomendado para modelos gpt-4o e mais recentes:
A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
| Property | Value |
|---|---|
| Description | Um objeto que especifica o formato que o modelo deve gerar. |
A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.
O formato padrão é { "type": "text" } sem opções adicionais.
Não recomendado para modelos gpt-4o e mais recentes:
A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schemaé preferencial dos modelos que dão suporte a ele.
OpenAI.ResponseUsage
Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | Yes | |
| input_tokens_details | objeto | Um detalhamento detalhado dos tokens de entrada. | Yes | |
| └─ tokens em cache | inteiro | O número de tokens recuperados do cache. | No | |
| output_tokens | inteiro | O número de tokens de saída. | Yes | |
| output_tokens_details | objeto | Um detalhamento detalhado dos tokens de saída. | Yes | |
| └─ tokens_de_raciocínio | inteiro | O número de tokens de raciocínio. | No | |
| total_tokens | inteiro | O número total de tokens usados. | Yes |
OpenAI.ResponseWebSearchCallCompletedEvent
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | ID exclusiva para o item de saída associado à chamada de pesquisa na Web. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual a chamada de pesquisa na Web está associada. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.web_search_call.completed.Valores possíveis: response.web_search_call.completed |
Yes |
OpenAI.ResponseWebSearchCallInProgressEvent
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | ID exclusiva para o item de saída associado à chamada de pesquisa na Web. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual a chamada de pesquisa na Web está associada. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.web_search_call.in_progress.Valores possíveis: response.web_search_call.in_progress |
Yes |
OpenAI.ResponseWebSearchCallSearchingEvent
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | ID exclusiva para o item de saída associado à chamada de pesquisa na Web. | Yes | |
| output_index | inteiro | O índice do item de saída ao qual a chamada de pesquisa na Web está associada. | Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.web_search_call.searching.Valores possíveis: response.web_search_call.searching |
Yes |
OpenAI.ResponsesAssistantMessageItemParam
Um item de parâmetro de mensagem com a função assistant.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre assistant.Valores possíveis: assistant |
Yes |
OpenAI.ResponsesAssistantMessageItemResource
Um item de recurso de mensagem com a função assistant.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre assistant.Valores possíveis: assistant |
Yes |
OpenAI.ResponsesDeveloperMessageItemParam
Um item de parâmetro de mensagem com a função developer.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre developer.Valores possíveis: developer |
Yes |
OpenAI.ResponsesDeveloperMessageItemResource
Um item de recurso de mensagem com a função developer.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre developer.Valores possíveis: developer |
Yes |
OpenAI.ResponsesMessageItemParam
Um item de mensagem de resposta, que representa uma função e um conteúdo, conforme fornecido como parâmetros de solicitação do cliente.
Discriminador para OpenAI.ResponsesMessageItemParam
Esse componente usa a propriedade role para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemParam |
system |
OpenAI.ResponsesSystemMessageItemParam |
developer |
OpenAI.ResponsesDeveloperMessageItemParam |
assistant |
OpenAI.ResponsesAssistantMessageItemParam |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A coleção de funções válidas para itens de mensagem de respostas. | Yes | |
| tipo | enumeração | O tipo do item de respostas, que é sempre "mensagem". Valores possíveis: message |
Yes |
OpenAI.ResponsesMessageItemResource
Um item de recurso de mensagem de resposta, que representa uma função e um conteúdo, conforme fornecido nas respostas do serviço.
Discriminador para OpenAI.ResponsesMessageItemResource
Esse componente usa a propriedade role para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemResource |
system |
OpenAI.ResponsesSystemMessageItemResource |
developer |
OpenAI.ResponsesDeveloperMessageItemResource |
assistant |
OpenAI.ResponsesAssistantMessageItemResource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A coleção de funções válidas para itens de mensagem de respostas. | Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo do item de respostas, que é sempre "mensagem". Valores possíveis: message |
Yes |
OpenAI.ResponsesMessageRole
A coleção de funções válidas para itens de mensagem de respostas.
| Property | Value |
|---|---|
| Description | A coleção de funções válidas para itens de mensagem de respostas. |
| Type | cadeia |
| Values | systemdeveloperuserassistant |
OpenAI.ResponsesSystemMessageItemParam
Um item de parâmetro de mensagem com a função system.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre system.Valores possíveis: system |
Yes |
OpenAI.ResponsesSystemMessageItemResource
Um item de recurso de mensagem com a função system.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre system.Valores possíveis: system |
Yes |
OpenAI.ResponsesUserMessageItemParam
Um item de parâmetro de mensagem com a função user.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre user.Valores possíveis: user |
Yes |
OpenAI.ResponsesUserMessageItemResource
Um item de recurso de mensagem com a função user.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo associado à mensagem. | Yes | |
| função | enumeração | A função da mensagem, que é sempre user.Valores possíveis: user |
Yes |
OpenAI.RunGraderRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| motoniveladora | objeto | Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. | Yes | |
| └─ calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | No | |
| └─ métrica_de_avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
No | |
| └─ graders | objeto | No | ||
| └─ etiqueta_de_imagem | cadeia | A marca da imagem a ser usada no script python. | No | |
| └─ entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | No | |
| └─ modelo | cadeia | O modelo a ser usado para a avaliação. | No | |
| └─ nome | cadeia | O nome do avaliador. | No | |
| └─ Operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
No | |
| └─ intervalo | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| └─ Referência | cadeia | O texto de referência para avaliação. | No | |
| └─ sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| └─ origem | cadeia | O código-fonte do script python. | No | |
| └─ tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
No | |
| item | O item de conjunto de dados fornecido ao avaliador. Isso será usado para preencher o item namespace. |
No | ||
| model_sample | cadeia | O exemplo de modelo a ser avaliado. Esse valor será usado para preencher o sample namespace. A output_json variável será preenchida se o exemplo de modelo for uma cadeia de caracteres JSON válida. |
Yes |
OpenAI.RunGraderResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Yes | ||
| └─ erros | objeto | No | ||
| └─ erro_de_análise_de_fórmula | boolean | No | ||
| └─ erro_de_variável_inválida (invalid_variable_error) | boolean | No | ||
| └─ model_grader_parse_error | boolean | No | ||
| └─ model_grader_refusal_error | boolean | No | ||
| └─ model_grader_server_error | boolean | No | ||
| └─ model_grader_server_error_details | cadeia | No | ||
| └─ outro_erro | boolean | No | ||
| └─ python_grader_runtime_error | boolean | No | ||
| └─ python_grader_runtime_error_details | cadeia | No | ||
| └─ Erro do Servidor de Avaliação Python | boolean | No | ||
| └─ tipo_de_erro_do_servidor_python_grader | cadeia | No | ||
| Erro_de_Análise_de_Exemplo | boolean | No | ||
| └─ truncated_observation_error | boolean | No | ||
| └─ unresponsive_reward_error | boolean | No | ||
| └─ tempo_de_execução | number | No | ||
| └─ nome | cadeia | No | ||
| └─ nome_modelo_amostrado | cadeia | No | ||
| └─ pontuações | No | |||
| └─ uso_de_token | inteiro | No | ||
| └─ tipo | cadeia | No | ||
| model_grader_token_usage_per_model | Yes | |||
| recompensa | number | Yes | ||
| sub_rewards | Yes |
OpenAI.StaticChunkingStrategy
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | inteiro | O número de tokens que se sobrepõem entre as partes. O valor padrão é 400.Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | inteiro | O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. |
Yes |
OpenAI.StaticChunkingStrategyRequestParam
Personalize sua própria estratégia de agrupamento definindo o tamanho da parte e a sobreposição das partes.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | OpenAI.StaticChunkingStrategy | Yes | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Yes |
OpenAI.StaticChunkingStrategyResponseParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | OpenAI.StaticChunkingStrategy | Yes | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Yes |
OpenAI.StopConfiguration
Modelos de raciocínio mais recentes o3 e o4-mini não são suportados.
Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada.
Esse esquema aceita um dos seguintes tipos:
- string
- array
OpenAI.Tool
Discriminador para OpenAI.Tool
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search_preview |
OpenAI.WebSearchPreviewTool |
code_interpreter |
OpenAI.CodeInterpreterTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellTool |
mcp |
OpenAI.MCPTool |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ToolType | Uma ferramenta que pode ser usada para gerar uma resposta. | Yes |
OpenAI.ToolChoiceObject
Discriminador para OpenAI.ToolChoiceObject
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
file_search |
OpenAI.ToolChoiceObjectFileSearch |
computer_use_preview |
OpenAI.ToolChoiceObjectComputer |
web_search_preview |
OpenAI.ToolChoiceObjectWebSearch |
image_generation |
OpenAI.ToolChoiceObjectImageGen |
code_interpreter |
OpenAI.ToolChoiceObjectCodeInterpreter |
function |
OpenAI.ToolChoiceObjectFunction |
mcp |
OpenAI.ToolChoiceObjectMCP |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.ToolChoiceObjectType | Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. | Yes |
OpenAI.ToolChoiceObjectCodeInterpreter
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: code_interpreter |
Yes |
OpenAI.ToolChoiceObjectComputer
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: computer_use_preview |
Yes |
OpenAI.ToolChoiceObjectFileSearch
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: file_search |
Yes |
OpenAI.ToolChoiceObjectFunction
Use essa opção para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes | |
| tipo | enumeração | Para a chamada de função, o tipo é sempre function.Valores possíveis: function |
Yes |
OpenAI.ToolChoiceObjectImageGen
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: image_generation |
Yes |
OpenAI.ToolChoiceObjectMCP
Use essa opção para forçar o modelo a chamar uma ferramenta específica em um servidor MCP remoto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da ferramenta a ser chamada no servidor. | No | |
| server_label | cadeia | O rótulo do servidor MCP a ser usado. | Yes | |
| tipo | enumeração | Quanto ás ferramentas MCP, o tipo será sempre mcp.Valores possíveis: mcp |
Yes |
OpenAI.ToolChoiceObjectType
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.
| Property | Value |
|---|---|
| Description | Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. |
| Type | cadeia |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewimage_generationcode_interpretermcp |
OpenAI.ToolChoiceObjectWebSearch
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: web_search_preview |
Yes |
OpenAI.ToolChoiceOptions
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
| Property | Value |
|---|---|
| Description | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
| Type | cadeia |
| Values | noneautorequired |
OpenAI.ToolType
Uma ferramenta que pode ser usada para gerar uma resposta.
| Property | Value |
|---|---|
| Description | Uma ferramenta que pode ser usada para gerar uma resposta. |
| Type | cadeia |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewmcpcode_interpreterimage_generationlocal_shell |
OpenAI.TopLogProb
A probabilidade de log superior de um token.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Yes | ||
| logprob | number | Yes | ||
| símbolo | cadeia | Yes |
OpenAI.TranscriptionAudioResponseFormat
Referências: OpenAI.AudioResponseFormat
OpenAI.TranscriptionInclude
| Property | Value |
|---|---|
| Type | cadeia |
| Values | logprobs |
OpenAI.TranscriptionSegment
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Logprob médio do segmento. Se o valor for menor que -1, considere que os logprobs falharam. | Yes | |
| compression_ratio | number | Taxa de compactação do segmento. Se o valor for maior que 2,4, considere que a compressão falhou. | Yes | |
| end | number | Hora de término do segmento em segundos. | Yes | |
| id | inteiro | Identificador exclusivo do segmento. | Yes | |
| no_speech_prob | number | Probabilidade de nenhuma fala no segmento. Se o valor for maior que 1,0 e estiver avg_logprob abaixo de -1, considere esse segmento silencioso. |
Yes | |
| seek | inteiro | Buscar deslocamento do segmento. | Yes | |
| start | number | Hora de início do segmento em segundos. | Yes | |
| temperature | number | Parâmetro de temperatura usado para gerar o segmento. | Yes | |
| enviar SMS | cadeia | Conteúdo de texto do segmento. | Yes | |
| tokens | matriz | Matriz de IDs de token para o conteúdo do texto. | Yes |
OpenAI.TranscriptionWord
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end | number | Hora de término da palavra em segundos. | Yes | |
| start | number | Hora de início da palavra em segundos. | Yes | |
| palavra | cadeia | O conteúdo do texto da palavra. | Yes |
OpenAI.TranslationAudioResponseFormat
Referências: OpenAI.AudioResponseFormat
OpenAI.UpdateVectorStoreFileAttributesRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | Yes |
OpenAI.UpdateVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | objeto | A política de expiração de um repositório de vetores. | No | |
| └─ âncora | enumeração | Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.Valores possíveis: last_active_at |
No | |
| └─ dias | inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
OpenAI.VadConfig
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). | No | 300 |
| silence_duration_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | 200 |
| limite | number | Limite de sensibilidade (0.0 a 1.0) para detecção de atividade de voz. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. | No | 0.5 |
| tipo | enumeração | Deve ser definido para server_vad a fim de habilitar o agrupamento manual usando o VAD do lado do servidor.Valores possíveis: server_vad |
Yes |
OpenAI.ValidateGraderRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| motoniveladora | objeto | Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. | Yes | |
| └─ calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | No | |
| └─ métrica_de_avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
No | |
| └─ graders | objeto | No | ||
| └─ etiqueta_de_imagem | cadeia | A marca da imagem a ser usada no script python. | No | |
| └─ entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | No | |
| └─ modelo | cadeia | O modelo a ser usado para a avaliação. | No | |
| └─ nome | cadeia | O nome do avaliador. | No | |
| └─ Operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
No | |
| └─ intervalo | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| └─ Referência | cadeia | O texto de referência para avaliação. | No | |
| └─ sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| └─ origem | cadeia | O código-fonte do script python. | No | |
| └─ tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
No |
OpenAI.ValidateGraderResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| motoniveladora | objeto | Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. | No | |
| └─ calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do avaliador. | No | |
| └─ métrica_de_avaliação | enumeração | A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l |
No | |
| └─ graders | objeto | No | ||
| └─ etiqueta_de_imagem | cadeia | A marca da imagem a ser usada no script python. | No | |
| └─ entrada | matriz | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | No | |
| └─ modelo | cadeia | O modelo a ser usado para a avaliação. | No | |
| └─ nome | cadeia | O nome do avaliador. | No | |
| └─ Operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.Valores possíveis: eq, , ne, likeilike |
No | |
| └─ intervalo | matriz | O intervalo da pontuação. Usa [0, 1] como padrão. |
No | |
| └─ Referência | cadeia | O texto de referência para avaliação. | No | |
| └─ sampling_params | Os parâmetros de amostragem do modelo. | No | ||
| └─ origem | cadeia | O código-fonte do script python. | No | |
| └─ tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
No |
OpenAI.VectorStoreExpirationAfter
A política de expiração de um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| âncora | enumeração | Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.Valores possíveis: last_active_at |
Yes | |
| dias | inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. | Yes |
OpenAI.VectorStoreFileAttributes
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Tipo: objeto
OpenAI.VectorStoreFileBatchObject
Um lote de arquivos anexados a um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o lote de arquivos do repositório de vetores foi criado. | Yes | |
| contagem_de_arquivos | objeto | Yes | ||
| └─ cancelado | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ concluído | inteiro | O número de arquivos que foram processados. | No | |
| └─ falha | inteiro | O número de arquivos que falharam ao processar. | No | |
| └─ em andamento | inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file_batch.Valores possíveis: vector_store.files_batch |
Yes | |
| status | enumeração | O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed.Valores possíveis: in_progress, , completed, cancelledfailed |
Yes | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o arquivo está anexado. | Yes |
OpenAI.VectorStoreFileObject
Uma lista de arquivos anexados a um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Atributos | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. | No | |
| chunking_strategy | objeto | No | ||
| └─ tipo | enumeração | Valores possíveis: static, other |
No | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| último_erro | objeto | O último erro associado a esse arquivo do repositório de vetores. Será null se não houver erros. |
Yes | |
| └─ código | enumeração | Uma opção entre server_error ou rate_limit_exceeded.Valores possíveis: server_error, , unsupported_fileinvalid_file |
No | |
| Mensagem └─ | cadeia | Uma descrição do erro legível para humanos. | No | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file.Valores possíveis: vector_store.file |
Yes | |
| status | enumeração | O status do arquivo do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed. O status completed indica que o arquivo do repositório de vetores está pronto para uso.Valores possíveis: in_progress, , completed, cancelledfailed |
Yes | |
| usage_bytes | inteiro | O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Yes | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o arquivo está anexado. | Yes |
OpenAI.VectorStoreObject
Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. | Yes | |
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| expires_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores expirará. | No | |
| contagem_de_arquivos | objeto | Yes | ||
| └─ cancelado | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ concluído | inteiro | O número de arquivos que foram processados com sucesso. | No | |
| └─ falha | inteiro | O número de arquivos que falharam ao processar. | No | |
| └─ em andamento | inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| última_atividade_em | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores esteve ativo pela última vez. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| name | cadeia | O nome do repositório de vetores. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Yes | |
| status | enumeração | O status do repositório de vetores, que pode ser expired, in_progress ou completed. Um status de completed indica que o repositório de vetores está pronto para uso.Valores possíveis: expired, , in_progresscompleted |
Yes | |
| usage_bytes | inteiro | O número total de bytes usados pelos arquivos no repositório de vetores. | Yes |
OpenAI.VoiceIdsShared
| Property | Value |
|---|---|
| Type | cadeia |
| Values | alloyashballadcoralechofableonyxnovasageshimmerverse |
OpenAI.WebSearchAction
Discriminador para OpenAI.WebSearchAction
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
find |
OpenAI.WebSearchActionFind |
open_page |
OpenAI.WebSearchActionOpenPage |
search |
OpenAI.WebSearchActionSearch |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | OpenAI.WebSearchActionType | Yes |
OpenAI.WebSearchActionFind
Tipo de ação "localizar": pesquisa um padrão em uma página carregada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| padrão | cadeia | O padrão ou texto a ser pesquisado na página. | Yes | |
| tipo | enumeração | O tipo de ação. Valores possíveis: find |
Yes | |
| url | cadeia | A URL da página pesquisou o padrão. | Yes |
OpenAI.WebSearchActionOpenPage
Tipo de ação "open_page" - abre uma URL específica dos resultados da pesquisa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ação. Valores possíveis: open_page |
Yes | |
| url | cadeia | A URL aberta pelo modelo. | Yes |
OpenAI.WebSearchActionSearch
Tipo de ação "pesquisa" - Executa uma consulta de pesquisa na Web.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| consulta | cadeia | A consulta de pesquisa. | Yes | |
| tipo | enumeração | O tipo de ação. Valores possíveis: search |
Yes |
OpenAI.WebSearchActionType
| Property | Value |
|---|---|
| Type | cadeia |
| Values | searchopen_pagefind |
OpenAI.WebSearchPreviewTool
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| search_context_size | enumeração | Diretrizes de alto nível para a quantidade de espaço de janela de contexto a ser usada para a pesquisa. Uma opção entre low, medium ou high.
medium é o padrão.Valores possíveis: low, , mediumhigh |
No | |
| tipo | enumeração | O tipo da ferramenta de pesquisa na Web. Uma opção entre web_search_preview ou web_search_preview_2025_03_11.Valores possíveis: web_search_preview |
Yes | |
| user_location | objeto | No | ||
| └─ tipo | OpenAI.LocationType | No |
OpenAI.WebSearchToolCallItemParam
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | objeto | Yes | ||
| └─ tipo | OpenAI.WebSearchActionType | No | ||
| tipo | enumeração | Valores possíveis: web_search_call |
Yes |
OpenAI.WebSearchToolCallItemResource
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | objeto | Yes | ||
| └─ tipo | OpenAI.WebSearchActionType | No | ||
| status | enumeração | O status da chamada da ferramenta de pesquisa na Web. Valores possíveis: in_progress, , searching, completedfailed |
Yes | |
| tipo | enumeração | Valores possíveis: web_search_call |
Yes |
PineconeChatDataSource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | objeto | As informações de parâmetro para controlar o uso da fonte de dados Pinecone. | Yes | |
| └─ permitir_resultado_parcial | boolean | Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| └─ autenticação | objeto | No | ||
| └─ chave | cadeia | No | ||
| └─ tipo | enumeração | Valores possíveis: api_key |
No | |
| └─ embedding_dependency | objeto | Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados. | No | |
| └─ tipo | AzureChatDataSourceVectorizationSourceType | O identificador de diferenciação para a fonte de vetorização concreta. | No | |
| └─ ambiente | cadeia | O nome do ambiente a ser usado com Pinecone. | No | |
| └─ mapeamento_de_campos | objeto | Mapeamentos de campo a serem aplicados aos dados usados pela fonte de dados Pinecone. Observe que os mapeamentos de campo de conteúdo são necessários para Pinecone. |
No | |
| └─ campos_de_conteúdo | matriz | No | ||
| └─ separador_dos_campos_de_conteúdo | cadeia | No | ||
| └─ campo_caminho_do_arquivo | cadeia | No | ||
| └─ campo_do_título | cadeia | No | ||
| └─ campo_de_url | cadeia | No | ||
| └─ in_scope | boolean | Se as consultas devem ser restritas ao uso dos dados indexados. | No | |
| └─ incluir_contextos | matriz | As propriedades de contexto de saída a serem incluídas na resposta. Por padrão, as citações e a intenção serão solicitadas. |
No | ['citações', 'intenções'] |
| └─ nome_do_índice | cadeia | O nome do índice de banco de dados Pinecone a ser usado. | No | |
| └─ consultas_de_busca_máximas | inteiro | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário. Por padrão, o sistema fará uma determinação automática. |
No | |
| └─ rigidez | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta. |
No | |
| └─ top_n_documents | inteiro | O número configurado de documentos a serem apresentados na consulta. | No | |
| tipo | enumeração | O identificador de tipo discriminado, que é sempre "pinecone". Valores possíveis: pinecone |
Yes |
Quality
A qualidade do conteúdo do vídeo a ser recuperado. Isso especifica a qualidade do conteúdo do vídeo que deve ser retornado.
| Property | Value |
|---|---|
| Description | A qualidade do conteúdo do vídeo a ser recuperado. Isso especifica a qualidade do conteúdo do vídeo que deve ser retornado. |
| Type | cadeia |
| Values | highlow |
ResponseFormatJSONSchemaRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| json_schema | objeto | Esquema JSON para o formato de resposta | Yes | |
| tipo | enumeração | Tipo de formato de resposta Valores possíveis: json_schema |
Yes |
ResponseModalities
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Matriz de: string
SpeechGenerationResponseFormat
Os formatos de saída de áudio com suporte para conversão de texto em fala.
Esse componente pode ser um dos seguintes:
VideoGeneration
Um resultado de geração de vídeo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | A hora em que a geração de vídeo foi criada. | Yes | |
| height | inteiro | A altura do vídeo. | Yes | |
| id | cadeia | A ID da geração de vídeo. | Yes | |
| job_id | cadeia | A ID do trabalho de geração de vídeo para esse vídeo. | Yes | |
| n_seconds | inteiro | A duração da geração de vídeo. | Yes | |
| objeto | enumeração | Valores possíveis: video.generation |
Yes | |
| solicitação | cadeia | A solicitação para essa geração de vídeo. | Yes | |
| width | inteiro | A largura do vídeo. | Yes |
VideoGenerationJob
Um trabalho de geração de vídeo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | A hora em que o trabalho foi criado. | Yes | |
| expires_at | inteiro | A hora em que o trabalho é excluído automaticamente do serviço. O conteúdo do vídeo e os metadados do trabalho devem ser armazenados antes dessa data para evitar a perda de dados. | No | |
| failure_reason | cadeia de caracteres (veja os modelos válidos abaixo) | No | ||
| finished_at | inteiro | A hora em que o trabalho terminou com todas as gerações de vídeo. | No | |
| generations | matriz | Os vídeos gerados para esse trabalho. O número depende do n_variants determinado e do sucesso de criação das gerações. | No | |
| height | inteiro | A altura do vídeo. | Yes | |
| id | cadeia | A ID do trabalho. | Yes | |
| inpaint_items | matriz | Itens opcionais de preenchimento para esse trabalho de geração de vídeo. | No | |
| modelo | cadeia | O nome da implantação a ser usada para este trabalho de geração de vídeo. | Yes | |
| n_seconds | inteiro | A duração do trabalho de geração de vídeo. | Yes | |
| n_variants | inteiro | O número de vídeos a serem criados como variantes para este trabalho de geração de vídeo. | Yes | |
| objeto | enumeração | Valores possíveis: video.generation.job |
Yes | |
| solicitação | cadeia | A solicitação para esse trabalho de geração de vídeo. | Yes | |
| status | objeto | O status de um trabalho de geração de vídeo. | Yes | |
| width | inteiro | A altura do vídeo. | Yes |
VideoGenerationJobList
Uma lista de trabalhos de geração de vídeo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | A lista de trabalhos de geração de vídeo. | Yes | |
| first_id | cadeia | A ID do primeiro trabalho na página atual, se disponível. | No | |
| has_more | boolean | Um sinalizador que indica se há mais trabalhos disponíveis após a lista. | Yes | |
| last_id | cadeia | A ID do último trabalho na página atual, se disponível. | No | |
| objeto | enumeração | Valores possíveis: list |
Yes |
Próximas etapas
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.