Compartilhar via


Referência de visualização da API REST v1 do OpenAI do Azure em Modelos da Fábrica da Microsoft

Observação

Este documento refere-se ao portal do Microsoft Foundry (clássico ).

🔍 Exiba a documentação do Microsoft Foundry (novo) para saber mais sobre o novo portal.

Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.

Inferência do plano de dados

O restante do artigo aborda nossa nova versão prévia da API v1 da especificação de inferência do plano de dados do Azure OpenAI. Saiba mais em nosso guia de ciclo de vida da API.

Se você estiver procurando documentação sobre a versão mais recente da API GA V1, consulte a API de inferência do plano de dados GA mais recente

Criar discurso

POST {endpoint}/openai/v1/audio/speech?api-version=preview

Gera áudio de conversão de texto em fala do texto de entrada.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Microsoft Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
entrada cadeia O texto para o qual gerar áudio. O comprimento máximo é de 4.096 caracteres. Yes
instructions cadeia Controle a voz do áudio gerado com instruções adicionais. Não funciona com tts-1 ou tts-1-hd. No
modelo cadeia O modelo a ser usado para essa solicitação de conversão de texto em fala. Yes
response_format objeto Os formatos de saída de áudio com suporte para conversão de texto em fala. No
speed number A velocidade da fala do áudio gerado. Os valores são válidos no intervalo de 0,25 a 4,0, com 1,0 os valores padrão e mais altos correspondentes à fala mais rápida. No 1
stream_format enumeração O formato para transmitir o áudio. Os formatos com suporte são sse e audio. sse não há suporte para tts-1 ou tts-1-hd.
Valores possíveis: sse, audio
No
voice objeto Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/octet-stream cadeia

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Sintetiza o áudio a partir do texto fornecido.

POST {endpoint}/openai/v1/audio/speech?api-version=preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3",
 "model": "tts-1"
}

Respostas: Código de Status: 200

{
  "body": "101010101"
}

Criar transcrição

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

Transcreve o áudio no idioma de entrada.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
chunking_strategy objeto No
└─ prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). No 300
└─ duração_do_silêncio_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos). Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. No 200
└─ limite number Limite de sensibilidade (0.0 a 1.0) para detecção de atividade de voz. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. No 0.5
└─ tipo enumeração Deve ser definido para server_vad a fim de habilitar o agrupamento manual usando o VAD do lado do servidor.
Valores possíveis: server_vad
No
arquivo cadeia Yes
filename cadeia O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio. No
include[] matriz Informações adicionais a serem incluídas na resposta de transcrição. logprobs retornará as probabilidades logarítmicas dos tokens na resposta para entender a confiança do modelo na transcrição. logprobs funciona somente quando o response_format está definido como json e apenas com os modelos gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe e gpt-4o-mini-transcribe-2025-12-15. No
linguagem cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhorará a precisão e a latência. No
modelo cadeia O modelo a ser usado para essa solicitação de transcrição. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. No
response_format objeto No
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. Observação: o streaming não tem suporte para o whisper-1 modelo e será ignorado. No False
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. No ['segment']

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureAudioTranscriptionResponse
text/plain cadeia

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Respostas: Código de Status: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Criar tradução

POST {endpoint}/openai/v1/audio/translations?api-version=preview

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
arquivo cadeia Yes
filename cadeia O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio No
modelo cadeia O modelo a ser usado nessa solicitação de tradução. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. No
response_format objeto No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureAudioTranslationResponse
text/plain cadeia

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST {endpoint}/openai/v1/audio/translations?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Respostas: Código de Status: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Criar conclusão de chat

POST {endpoint}/openai/v1/chat/completions?api-version=preview

Cria uma conclusão de chat.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ Formato enumeração Especifica o formato do áudio de saída. Deve ser um de wav, mp3, ,flacopus, ou pcm16.
Valores possíveis: wav, , aac, mp3, flac, , opuspcm16
No
└─ voz objeto No
data_sources matriz As fontes de dados a serem usadas para o recurso On Your Data, exclusivo do Azure OpenAI. No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. No 0
function_call enumeração Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.
Valores possíveis: none, auto
No
functions matriz Preterido em favor de tools.
Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. No None
logprobs boolean Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.
Esse valor pode ser usado para controlar os custos do texto gerado por meio da API.
Esse valor agora foi preterido em favor de max_completion_tokens, e não é compatível com modelos da série o1.
No
messages matriz Uma lista de mensagens que resumem a conversa até agora. Dependendo do modelo usado, há suporte para diferentes tipos de mensagens (modalidades), como texto, imagens e áudio. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.
As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modalities objeto Tipos de saída que você gostaria que o modelo gerasse.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
No
modelo cadeia O identificador de implantação de modelo a ser usado para a solicitação de conclusão do chat. Yes
n inteiro Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. No 1
parallel_tool_calls objeto Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No
previsão objeto Representação base da saída prevista de um modelo. No
└─ tipo OpenAI.ChatOutputPredictionType No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. No 0
reasoning_effort objeto somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
response_format objeto No
└─ tipo enumeração
Valores possíveis: text, , json_objectjson_schema
No
seed inteiro Esse recurso está em Versão Beta.
Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.
O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar alterações no backend.
No
stop objeto Modelos de raciocínio mais recentes o3 e o4-mini não são suportados.

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada.
No
armazenar boolean Caso queira ou não armazenar a saída dessa solicitação de conclusão de chat para uso em produtos de destilação ou avaliação de modelo. No False
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. No False
stream_options objeto Opções para resposta de streaming. Defina isso somente quando você definir stream: true. No
└─ include_usage boolean Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia.

Todas as outras partes também incluirão um campo usage, mas com um valor nulo. NOTA: Se o fluxo for interrompido, você poderá não receber a parte de uso final que contém o uso total do token para a solicitação.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.

none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente.
No
tools matriz Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. No
user_security_context AzureUserSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.

POST {endpoint}/openai/v1/chat/completions?api-version=preview

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Criar inserção

POST {endpoint}/openai/v1/embeddings?api-version=preview

Cria um vetor de inserção que representa o texto de entrada.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
dimensions inteiro O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. No
encoding_format enumeração O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64.
Valores possíveis: float, base64
No
entrada cadeia de caracteres ou matriz Yes
modelo cadeia O modelo a ser usado para a solicitação de inserção. Yes
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.CreateEmbeddingResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Retorne as inserções para um determinado prompt.

POST {endpoint}/openai/v1/embeddings?api-version=preview

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Listar valores

GET {endpoint}/openai/v1/evals?api-version=preview

Liste as avaliações de um projeto.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
after consulta No cadeia Identificador da última avaliação da solicitação de paginação anterior.
limit consulta No inteiro Um limite no número de avaliações a serem retornados em uma única resposta de paginação.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordem de classificação das avaliações por carimbo de data/hora. Use asc para ordem crescente ou desc para ordem decrescente.
ordenar_por consulta No cadeia
Valores possíveis: created_at, updated_at
Os valores podem ser ordenados por hora de criação ou hora da última atualização. Use created_at para a hora de criação ou updated_at para a hora da última atualização.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.EvalList

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Createeval

POST {endpoint}/openai/v1/evals?api-version=preview

Crie a estrutura de uma avaliação que pode ser usada para testar o desempenho de um modelo.

Uma avaliação é um conjunto de critérios de teste e uma fonte de dados. Depois de criar uma avaliação, você pode executá-la em diferentes modelos e parâmetros de modelo. Oferecemos suporte a vários tipos de grades e fontes de dados.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
configuração_da_fonte_de_dados objeto Yes
└─ tipo OpenAI.EvalDataSourceConfigType No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome da avaliação. No
statusCode enumeração
Valores possíveis: 201
Yes
critérios_de_teste matriz Uma lista de avaliadores para todas as execuções de avaliação neste grupo. Os avaliadores podem fazer referência a variáveis na fonte de dados usando a notação de chaves duplas, como {{item.variable_name}}. Para referenciar a saída do modelo, use o namespace sample (ou seja, {{sample.output_text}}). Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.Eval

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter avaliação

GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Recupere uma avaliação por sua ID. Recupera uma avaliação por sua ID.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.Eval

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Atualizar a avaliação

POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Atualize as propriedades selecionáveis e mutáveis de uma avaliação especificada.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
metadados OpenAI.MetadataPropertyForRequest Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.Eval

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Excluir a avaliação

DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Exclua uma avaliação especificada.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json objeto

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter execuções de avaliação

GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Recupere uma lista de execuções para uma avaliação especificada.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia
after consulta No cadeia
limit consulta No inteiro
ordem consulta No cadeia
Valores possíveis: asc, desc
status consulta No cadeia
Valores possíveis: queued, , in_progress, completed, canceled, failed

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.EvalRunList

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar execução de avaliação

POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Crie uma nova execução de avaliação, iniciando o processo de classificação.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
fonte_de_dados objeto Yes
└─ tipo OpenAI.EvalRunDataSourceType No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome da execução. No

Responses

Código de status: 201

Descrição: a solicitação foi bem-sucedida e um novo recurso foi criado como resultado.

Content-Type Type Description
application/json OpenAI.EvalRun

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter execução de avaliação

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Recupere uma avaliação específica executada por sua ID.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia
run_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.EvalRun

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Cancelar execução de avaliação

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Cancele uma avaliação específica executada por sua ID.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia
run_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.EvalRun

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Deleteevalrun

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Exclua uma avaliação específica executada por sua ID.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia
run_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json objeto

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter itens de saída de execução de avaliação

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview

Obtenha uma lista de itens de saída para uma execução de avaliação especificada.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia
run_id caminho Yes cadeia
after consulta No cadeia
limit consulta No inteiro
status consulta No cadeia
Valores possíveis: fail, pass
ordem consulta No cadeia
Valores possíveis: asc, desc

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.EvalRunOutputItemList

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter item de saída de execução de avaliação

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview

Recupere um item de saída específico de uma avaliação executada por sua ID.

OBSERVAÇÃO: esta API do OpenAI do Azure está em versão prévia e está sujeita a alterações.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
aoai-evals cabeçalho Yes cadeia
Valores possíveis: preview
Habilita o acesso ao AOAI Evals, um recurso de versão prévia do recurso.
Esse recurso requer que o cabeçalho “aoai-evals” seja definido como “preview”.
eval_id caminho Yes cadeia
run_id caminho Yes cadeia
output_item_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.EvalRunOutputItem

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar arquivo

POST {endpoint}/openai/v1/files?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
expires_after objeto Yes
└─ âncora AzureFileExpiryAnchor No
└─ segundos inteiro No
arquivo cadeia Yes
purpose enumeração A finalidade pretendida do arquivo carregado. Um de: - assistants: usado na API de Assistentes - batch: usado na API do Lote - fine-tune: usado para ajuste fino - evals: usado nos conjuntos de dados de avaliação
Valores possíveis: assistants, , batch, fine-tuneevals
Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureOpenAIFile

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

POST {endpoint}/openai/v1/files?api-version=preview

Listar arquivos

GET {endpoint}/openai/v1/files?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
purpose consulta No cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureListFilesResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Recuperar o arquivo

GET {endpoint}/openai/v1/files/{file_id}?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
file_id caminho Yes cadeia A ID do arquivo a ser usado nessa solicitação.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureOpenAIFile

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Excluir arquivo

DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
file_id caminho Yes cadeia A ID do arquivo a ser usado nessa solicitação.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.DeleteFileResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Fazer download do arquivo

GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
file_id caminho Yes cadeia A ID do arquivo a ser usado nessa solicitação.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/octet-stream cadeia

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Rungrader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview

Execute um avaliador.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
motoniveladora objeto Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. Yes
└─ calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. No
└─ métrica_de_avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
No
└─ graders objeto No
└─ etiqueta_de_imagem cadeia A marca da imagem a ser usada no script python. No
└─ entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. No
└─ modelo cadeia O modelo a ser usado para a avaliação. No
└─ nome cadeia O nome do avaliador. No
└─ Operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
No
└─ intervalo matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
└─ Referência cadeia O texto de referência para avaliação. No
└─ sampling_params Os parâmetros de amostragem do modelo. No
└─ origem cadeia O código-fonte do script python. No
└─ tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
No
item O item de conjunto de dados fornecido ao avaliador. Isso será usado para preencher o item namespace. No
model_sample cadeia O exemplo de modelo a ser avaliado. Esse valor será usado para preencher o sample namespace.
A output_json variável será preenchida se o exemplo de modelo for uma cadeia de caracteres JSON válida.
Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.RunGraderResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Validar o avaliador

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview

Valide um avaliador.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
motoniveladora objeto Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. Yes
└─ calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. No
└─ métrica_de_avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
No
└─ graders objeto No
└─ etiqueta_de_imagem cadeia A marca da imagem a ser usada no script python. No
└─ entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. No
└─ modelo cadeia O modelo a ser usado para a avaliação. No
└─ nome cadeia O nome do avaliador. No
└─ Operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
No
└─ intervalo matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
└─ Referência cadeia O texto de referência para avaliação. No
└─ sampling_params Os parâmetros de amostragem do modelo. No
└─ origem cadeia O código-fonte do script python. No
└─ tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ValidateGraderResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar um trabalho de ajuste fino

POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Cria um trabalho de ajuste fino que inicia o processo de criação de um novo modelo a partir de um determinado conjunto de dados.

A resposta inclui detalhes do trabalho enfileirado, incluindo o status do trabalho e o nome dos modelos ajustados após a conclusão.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
hiperparâmetros objeto Os hiperparâmetros usados no trabalho de ajuste fino.
Agora, esse valor foi preterido em favor de method, e deve ser passado sob o parâmetro method.
No
└─ tamanho_do_lote (batch_size) enumeração
Valores possíveis: auto
No
└─ multiplicador_da_taxa_de_aprendizagem enumeração
Valores possíveis: auto
No
└─ n_epochs enumeração
Valores possíveis: auto
No
Integrações matriz Uma lista de integrações para habilitar seu trabalho de ajuste fino. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
método OpenAI.FineTuneMethod O método usado no ajuste fino. No
modelo cadeia de caracteres (veja os modelos válidos abaixo) O nome do modelo a ser refinado. Yes
seed inteiro A semente controla a reprodutibilidade do trabalho. Passar os mesmos parâmetros iniciais e de trabalho deve produzir os mesmos resultados, mas pode diferir em casos raros.
Se uma semente não for especificada, uma será gerada para você.
No
suffix cadeia Uma cadeia de caracteres de até 64 caracteres que será adicionada ao seu nome de modelo ajustado.

Por exemplo, um suffix "custom-model-name" produz um nome de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No None
arquivo_de_treinamento cadeia A ID de um arquivo carregado que contém dados de treinamento. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Além disso, você deve carregar seu arquivo com a finalidade fine-tune.

O conteúdo do arquivo deve diferir dependendo se o modelo usa o formato de chat, conclusões ou se o método de ajuste fino usa o formato de preferência.
Yes
arquivo_de_validação cadeia A ID de um arquivo carregado que contém os dados de validação.

Se você fornecer esse arquivo, os dados serão usados para gerar métricas de validação periodicamente durante o ajuste fino. Essas métricas podem ser exibidas no arquivo de resultados de ajuste fino.
Os mesmos dados não devem estar presentes nos arquivos de treinamento e validação.

Seu conjunto de dados deve ser formatado como um arquivo JSONL. Você deve carregar seu arquivo com a finalidade fine-tune.
No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar trabalhos de ajuste fino paginados

GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Liste os trabalhos de ajuste fino da sua organização

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
after consulta No cadeia Identificador do último trabalho da solicitação de paginação anterior.
limit consulta No inteiro Número de trabalhos de ajuste fino a serem recuperados.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListPaginatedFineTuningJobsResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Recuperar o trabalho de ajuste fino

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview

Obtenha informações sobre um trabalho de ajuste fino.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
fine_tuning_job_id caminho Yes cadeia A ID do trabalho de ajuste fino.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Cancelar o trabalho de ajuste fino

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview

Cancele imediatamente um trabalho de ajuste fino.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
fine_tuning_job_id caminho Yes cadeia A ID do trabalho de ajuste fino a ser cancelado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar pontos de verificação de trabalho de ajuste fino

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview

Liste os pontos de verificação para um trabalho de ajuste fino.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
fine_tuning_job_id caminho Yes cadeia A ID do trabalho de ajuste fino para o qual obter pontos de verificação.
after consulta No cadeia Identificador da última ID do ponto de verificação da solicitação de paginação anterior.
limit consulta No inteiro Número de pontos de verificação a serem recuperados.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListFineTuningJobCheckpointsResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar eventos de ajuste fino

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview

Obtenha atualizações de status para um trabalho de ajuste fino.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
fine_tuning_job_id caminho Yes cadeia A ID do trabalho de ajuste fino para o qual obter eventos.
after consulta No cadeia Identificador do último evento da solicitação de paginação anterior.
limit consulta No inteiro Número de eventos a serem recuperados.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListFineTuningJobEventsResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Pausar o trabalho de ajuste fino

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview

Pausar um trabalho de ajuste fino.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
fine_tuning_job_id caminho Yes cadeia A ID do trabalho de ajuste fino a ser pausado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Retomar o trabalho de ajuste fino

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview

Retomar uma tarefa de ajuste fino pausada.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
fine_tuning_job_id caminho Yes cadeia A ID do trabalho de ajuste fino a ser retomado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar edição de imagem

POST {endpoint}/openai/v1/images/edits?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
em segundo plano enumeração Permite definir a transparência para a tela de fundo das imagens geradas.
Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.

Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.
Valores possíveis: transparent, , opaqueauto
No
imagem cadeia de caracteres ou matriz Yes
máscara cadeia No
modelo cadeia A implantação de modelo a ser usada para a operação de edição de imagem. Yes
n inteiro O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com os formatos de saída webp ou jpeg, e usa como valor padrão 100. No 100
output_format enumeração O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.
O valor padrão é png.
Valores possíveis: png, , jpegwebp
No
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 1000 caracteres para dall-e-2 e 32.000 caracteres para modelos da série gpt-image-1. Yes
quality enumeração A qualidade da imagem que será gerada. high, medium e low só têm suporte para gpt-image-1modelos de série. dall-e-2 só dá suporte à qualidade standard. Usa auto como padrão.
Valores possíveis: standard, , low, medium, high, auto
No
response_format enumeração O formato no qual as imagens geradas são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro só tem suporte para dall-e-2modelos de série, pois gpt-image-1os modelos de série sempre retornarão imagens codificadas em base64.
Valores possíveis: url, b64_json
No
size enumeração O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série e um de 256x256, 512x512ou 1024x1024 para dall-e-2.
Valores possíveis: 256x256, , 512x512, 1024x1024, 1536x1024, , 1024x1536auto
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureImagesResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar imagem

POST {endpoint}/openai/v1/images/generations?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
em segundo plano enumeração Permite definir a transparência para a tela de fundo das imagens geradas.
Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.

Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.
Valores possíveis: transparent, , opaqueauto
No
modelo cadeia A implantação de modelo a ser usada para a geração de imagem. Yes
moderation enumeração Controlar o nível de moderação de conteúdo para imagens geradas por modelos da série gpt-image-1. Deve ser low para filtragem menos restritiva ou auto (valor padrão).
Valores possíveis: low, auto
No
n inteiro O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. Para dall-e-3, apenas n=1 é suportado. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro é suportado apenas para os modelos da série gpt-image-1 com os formatos de saída webp ou jpeg e tem como valor padrão 100. No 100
output_format enumeração O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.
Valores possíveis: png, , jpegwebp
No
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1, 1.000 caracteres para dall-e-2 e 4.000 caracteres para dall-e-3. Yes
quality enumeração A qualidade da imagem que será gerada.

- auto (valor padrão) selecionará automaticamente a melhor qualidade para o modelo fornecido.
- high medium e low são compatíveis com os modelos de série gpt-image-1.
- hd e standard têm suporte para dall-e-3.
- standard é a única opção para dall-e-2.
Valores possíveis: standard, , hd, low, medium, , highauto
No
response_format enumeração O formato no qual imagens geradas com dall-e-2 e dall-e-3 são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.
Valores possíveis: url, b64_json
No
size enumeração O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série, um de 256x256, 512x512ou 1024x1024 para dall-e-2, e um de 1024x1024, 1792x1024ou 1024x1792 para dall-e-3.
Valores possíveis: auto, , 1024x1024, 1536x1024, 1024x1536, 256x256, 512x512, , , 1792x10241024x1792
No
estilo enumeração O estilo das imagens geradas. Esse parâmetro só tem suporte para dall-e-3. Deve ser um de vivid ou natural. O Vivid faz com que o modelo se incline para gerar imagens hiper-reais e dramáticas. A função "Natural" faz com que o modelo produza imagens mais naturais e menos hiper-realistas.
Valores possíveis: vivid, natural
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureImagesResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Cria imagens a partir de uma solicitação.

POST {endpoint}/openai/v1/images/generations?api-version=preview

{
 "model": "dall-e-3",
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de Status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Listar modelos

GET {endpoint}/openai/v1/models?api-version=preview

Lista os modelos disponíveis no momento e fornece informações básicas sobre cada um deles, como o proprietário e a disponibilidade.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListModelsResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Recuperar modelo

GET {endpoint}/openai/v1/models/{model}?api-version=preview

Recupera uma instância de modelo, fornecendo informações básicas sobre o modelo, como o proprietário e permissões.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
modelo caminho Yes cadeia A ID do modelo a ser usado nssa solicitação.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.Model

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar resposta

POST {endpoint}/openai/v1/responses?api-version=preview

Cria uma resposta de modelo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
em segundo plano boolean Se a resposta do modelo deve ser executada em segundo plano. No False
include matriz Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
- code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.
- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.
- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
- message.output_text.logprobs: inclua os logprobs com mensagens de assistente.
- reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero).
No
entrada cadeia de caracteres ou matriz No
instructions cadeia Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia A implantação do modelo a ser usada para a criação dessa resposta. Yes
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
solicitação objeto Referência a um modelo de prompt e suas variáveis. No
└─ id cadeia O identificador exclusivo do modelo de prompt a ser usado. No
└─ variáveis OpenAI.ResponsePromptVariables Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. No
└─ versão cadeia Versão opcional do modelo de prompt. No
reasoning objeto somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ esforço OpenAI.ReasoningEffort somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
└─ gerar_resumo enumeração Preterido: use summary em vez disso.

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
└─ resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
armazenar boolean Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. No True
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. No False
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
tool_choice objeto Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
No
└─ tipo OpenAI.ToolChoiceObjectType Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você
pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo, como a pesquisa de arquivos.
- Chamadas de função (ferramentas personalizadas): Funções definidas por você, permitindo que o modelo chame seu próprio código.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Criar uma resposta de modelo

POST {endpoint}/openai/v1/responses?api-version=preview

Obter resposta

GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Recupera uma resposta de modelo com a ID fornecida.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
response_id caminho Yes cadeia
include[] consulta No matriz

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json AzureResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Excluir resposta

DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Exclui uma resposta por ID.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
response_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json objeto

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar itens de entrada

GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview

Retorna uma lista de itens de entrada para uma determinada resposta.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
response_id caminho Yes cadeia
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente edesc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista.
Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista.
Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ResponseItemList

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar os repositórios de vetores

GET {endpoint}/openai/v1/vector_stores?api-version=preview

Retorna uma lista de repositórios de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente edesc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista.
Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista.
Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListVectorStoresResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar o repositório de vetores

POST {endpoint}/openai/v1/vector_stores?api-version=preview

Cria um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
chunking_strategy objeto A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400. No
└─ estático OpenAI.StaticChunkingStrategy No
└─ tipo enumeração Sempre static.
Valores possíveis: static
No
expires_after OpenAI.VectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Arquivo de exemplo não encontrado: ./examples/vector_stores.json

Obter o repositório de vetores

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Recupera um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser recuperado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Modificar o repositório de vetores

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Modifica um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser modificado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
expires_after objeto A política de expiração de um repositório de vetores. No
└─ âncora enumeração Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.
Valores possíveis: last_active_at
No
└─ dias inteiro O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Excluir o repositório de vetores

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Exclui um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser excluído.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.DeleteVectorStoreResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar o lote de arquivos do repositório de vetores

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview

Crie um lote de arquivos de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores para o qual criar um lote de arquivos.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter o lote de arquivos do repositório de vetores

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview

Recupera um lote de arquivos de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia O ID do lote de arquivos que está sendo recuperado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Cancelar o lote de arquivos do repositório de vetores

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview

Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia A ID do lote de arquivos a ser cancelada.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar os arquivos no lote do repositório de vetores

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview

Retorna uma lista de arquivos de repositório de vetores em um lote.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia A ID do lote de arquivos à qual os arquivos pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente edesc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista.
Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista.
Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta No Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListVectorStoreFilesResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Listar os arquivos do repositório de vetores

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Retorna uma lista de arquivos de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual os arquivos pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente edesc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista.
Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista.
Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta No Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.ListVectorStoreFilesResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Criar o arquivo do repositório de vetores

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores para o qual criar um Arquivo.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_id cadeia Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Obter o arquivo do repositório de vetores

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Recupera um arquivo de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo que está sendo recuperado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Atualizar os atributos de arquivo do repositório de vetores

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia
file_id caminho Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Excluir o arquivo do repositório de vetores

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o próprio arquivo não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo a ser excluído.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json OpenAI.DeleteVectorStoreFileResponse

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureErrorResponse

Trabalhos de geração de vídeo – Criar

POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Cria um novo trabalho de geração de vídeo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
height inteiro A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes
modelo cadeia O nome da implantação a ser usada para essa solicitação. Yes
n_seconds inteiro A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. No 5
n_variants inteiro O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. No 1
solicitação cadeia A solicitação para esse trabalho de geração de vídeo. Yes
width inteiro A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
files matriz Yes
height inteiro A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes
inpaint_items matriz Itens opcionais de preenchimento para esse trabalho de geração de vídeo. No
modelo cadeia O nome da implantação a ser usada para essa solicitação. Yes
n_seconds inteiro A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. No 5
n_variants inteiro O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. No 1
solicitação cadeia A solicitação para esse trabalho de geração de vídeo. Yes
width inteiro A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json VideoGenerationJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Arquivo de exemplo não encontrado: ./examples/create_video_generation_job_simple.json

Trabalhos de geração de vídeo – Lista

GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Lista os trabalhos de geração de vídeo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
before consulta No cadeia
after consulta No cadeia
limit consulta Yes inteiro
statuses consulta No matriz

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json VideoGenerationJobList

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Arquivo de exemplo não encontrado: ./examples/get_video_generation_job_list.json

Trabalhos de geração de vídeo – Obter

GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Recupera as propriedades de um trabalho de geração de vídeo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
job-id caminho Yes cadeia A ID do trabalho de geração de vídeo a ser usada para a solicitação do Azure OpenAI.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json VideoGenerationJob

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Arquivo de exemplo não encontrado: ./examples/get_video_generation_job.json

Trabalhos de geração de vídeo – Excluir

DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Exclui um trabalho de geração de vídeo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
job-id caminho Yes cadeia A ID do trabalho de geração de vídeo a ser usada para a solicitação do Azure OpenAI.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de status: 204

Descrição: não há conteúdo a ser enviado para essa solicitação, mas os cabeçalhos podem ser úteis.

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Gerações de vídeo – Obter

GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview

Recupera uma geração de vídeo por ID.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
generation-id caminho Yes cadeia A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
application/json VideoGeneration

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Arquivo de exemplo não encontrado: ./examples/get_video_generation.json

Gerações de vídeo – Recuperar miniatura

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview

Recupera uma miniatura do conteúdo do vídeo gerado.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
generation-id caminho Yes cadeia A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
image/jpg cadeia

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Gerações de vídeo - Recuperar o conteúdo de vídeo

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Recupera o conteúdo do vídeo gerado.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
generation-id caminho Yes cadeia A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI.
quality consulta No

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Content-Type Type Description
video/mp4 cadeia

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Gerações de vídeo - Recuperar somente os cabeçalhos de videocontent

HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Recupera os cabeçalhos do conteúdo do vídeo gerado.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta No A versão explícita da API de Modelos do Foundry a ser usada para essa solicitação.
v1 se não for especificado de outra forma.
generation-id caminho Yes cadeia A ID da geração de vídeo a ser usada para a solicitação do Azure OpenAI.
quality consulta No

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: a solicitação foi bem-sucedida.

Código de Status: padrão

Descrição: uma resposta de erro inesperada.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Components

AudioTaskLabel

Define os possíveis descritores para respostas de operação de áudio disponíveis.

Property Value
Description Define os possíveis descritores para respostas de operação de áudio disponíveis.
Type cadeia
Values transcribe
translate

AudioTranslationSegment

Informações estendidas sobre um único segmento de dados de áudio traduzidos. Geralmente, os segmentos representam cerca de 5 a 10 segundos de fala. Normalmente, os limites de segmento ocorrem entre palavras, mas não necessariamente frases.

Name Tipo Description Required Default
avg_logprob number A probabilidade média de log associada a esse segmento de áudio. Yes
compression_ratio number A taxa de compactação desse segmento de áudio. Yes
end number A hora em que esse segmento terminou em relação ao início do áudio traduzido. Yes
id inteiro O índice baseado em 0 desse segmento em uma tradução. Yes
no_speech_prob number A probabilidade de não haver detecção de fala nesse segmento de áudio. Yes
seek inteiro A posição de busca associada ao processamento desse segmento de áudio.
As posições de busca são expressas como centésimos de segundos.
O modelo pode processar vários segmentos de uma única posição de busca, portanto, embora a posição de busca nunca represente um horário posterior ao início do segmento, o início do segmento pode representar um tempo significativamente mais tarde do que a posição de busca associada do segmento.
Yes
start number A hora em que esse segmento começou em relação ao início do áudio traduzido. Yes
temperature number A pontuação de temperatura associada a esse segmento de áudio. Yes
enviar SMS cadeia O texto traduzido que fazia parte desse segmento de áudio. Yes
tokens matriz As IDs de token que correspondem ao texto traduzido nesse segmento de áudio. Yes

AzureAIFoundryModelsApiVersion

Property Value
Type cadeia
Values v1
preview

AzureAudioTranscriptionResponse

Informações de resultado de uma operação que transscreveu áudio falado em texto escrito.

Name Tipo Description Required Default
duration number A duração total do áudio processado para produzir informações de transcrição que acompanham. No
linguagem cadeia O idioma falado detectado nos dados de áudio transcritos.
Isso é expresso como um código de idioma ISO-639-1 de duas letras, como 'en' ou 'fr'.
No
segments matriz Uma coleção de informações sobre o tempo, as probabilidades e outros detalhes de cada segmento de áudio processado. No
tarefa objeto Define os possíveis descritores para respostas de operação de áudio disponíveis. No
enviar SMS cadeia O texto transcrito para os dados de áudio fornecidos. Yes
words matriz Uma coleção de informações sobre o tempo de cada palavra processada. No

AzureAudioTranslationResponse

Informações sobre o resultado de uma operação que traduziu áudio falado em texto escrito.

Name Tipo Description Required Default
duration number A duração total do áudio processado para produzir informações de tradução que o acompanham. No
linguagem cadeia O idioma falado que foi detectado nos dados de áudio traduzidos.
Isso é expresso como um código de idioma ISO-639-1 de duas letras, como 'en' ou 'fr'.
No
segments matriz Uma coleção de informações sobre o tempo, as probabilidades e outros detalhes de cada segmento de áudio processado. No
tarefa objeto Define os possíveis descritores para respostas de operação de áudio disponíveis. No
enviar SMS cadeia O texto traduzido para os dados de áudio fornecidos. Yes

AzureChatCompletionResponseMessage

O componente de modelo de resposta estendida para mensagens de conclusão de chat no serviço Azure OpenAI. Esse modelo adiciona suporte para o contexto de mensagem de chat, usado pelo recurso On Your Data para intenção, citações e outras informações relacionadas à geração aumentada de recuperação executada.

Name Tipo Description Required Default
annotations matriz Anotações para a mensagem, quando aplicável, como ao usar a ferramenta de pesquisa na Web. No
audio objeto Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. No
└─ dados cadeia Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. No
└─ data_de_expiração inteiro O carimbo de data/hora Unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos. No
└─ id cadeia Identificador único para essa resposta de áudio. No
└─ transcrição cadeia Transcrição do áudio gerado pelo modelo. No
conteúdo cadeia O conteúdo da mensagem. Yes
contexto objeto Uma propriedade adicional, adicionada às mensagens de resposta de conclusão de chat, produzidas pelo serviço OpenAI do Azure ao usar o comportamento da extensão. Isso inclui informações de intenção e citação do recurso On Your Data. No
└─ todos_os_documentos_recuperados objeto Informações resumidas sobre documentos recuperados pela operação de recuperação de dados. No
└─ chunk_id cadeia A ID da parte da citação. No
└─ conteúdo cadeia O conteúdo da citação. No
└─ índice_fonte_de_dados inteiro O índice da fonte de dados usada para recuperação. No
└─ caminho do arquivo cadeia O caminho do arquivo para a citação. No
└─ motivo_do_filtro enumeração Se aplicável, uma indicação de por que o documento foi filtrado.
Valores possíveis: score, rerank
No
└─ pontuação_original_de_busca number A pontuação de pesquisa original para a recuperação. No
└─ pontuação_de_reclassificação number Pontuação de reclassificação para a recuperação. No
└─ consultas_de_busca matriz As consultas de pesquisa executadas para recuperar documentos. No
└─ título cadeia O título da citação. No
└─ URL cadeia A URL da citação. No
└─ citações matriz As citações produzidas pela recuperação de dados. No
└─ intent cadeia A intenção detectada do histórico de chat, que é usada para levar o contexto da conversa entre interações No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ Argumentos cadeia No
└─ nome cadeia No
reasoning_content cadeia Uma propriedade de extensão específica do Azure contendo conteúdo de raciocínio gerado por modelos suportados. No
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
função enumeração A função do autor dessa mensagem.
Valores possíveis: assistant
Yes
tool_calls ChatCompletionMessageToolCallsItem As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

AzureChatCompletionStreamResponseDelta

O modelo de resposta estendida para uma mensagem de resposta de chat de streaming no serviço Azure OpenAI. Esse modelo adiciona suporte para o contexto de mensagem de chat, usado pelo recurso On Your Data para intenção, citações e outras informações relacionadas à geração aumentada de recuperação executada.

Name Tipo Description Required Default
audio objeto No
└─ dados cadeia No
└─ data_de_expiração inteiro No
└─ id cadeia No
└─ transcrição cadeia No
conteúdo cadeia O conteúdo da mensagem de parte. No
contexto objeto Uma propriedade adicional, adicionada às mensagens de resposta de conclusão de chat, produzidas pelo serviço OpenAI do Azure ao usar o comportamento da extensão. Isso inclui informações de intenção e citação do recurso On Your Data. No
└─ todos_os_documentos_recuperados objeto Informações resumidas sobre documentos recuperados pela operação de recuperação de dados. No
└─ chunk_id cadeia A ID da parte da citação. No
└─ conteúdo cadeia O conteúdo da citação. No
└─ índice_fonte_de_dados inteiro O índice da fonte de dados usada para recuperação. No
└─ caminho do arquivo cadeia O caminho do arquivo para a citação. No
└─ motivo_do_filtro enumeração Se aplicável, uma indicação de por que o documento foi filtrado.
Valores possíveis: score, rerank
No
└─ pontuação_original_de_busca number A pontuação de pesquisa original para a recuperação. No
└─ pontuação_de_reclassificação number Pontuação de reclassificação para a recuperação. No
└─ consultas_de_busca matriz As consultas de pesquisa executadas para recuperar documentos. No
└─ título cadeia O título da citação. No
└─ URL cadeia A URL da citação. No
└─ citações matriz As citações produzidas pela recuperação de dados. No
└─ intent cadeia A intenção detectada do histórico de chat, que é usada para levar o contexto da conversa entre interações No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ Argumentos cadeia No
└─ nome cadeia No
reasoning_content cadeia Uma propriedade de extensão específica do Azure contendo conteúdo de raciocínio gerado por modelos suportados. No
refusal cadeia A mensagem de recusa gerada pelo modelo. No
função objeto A função do autor de uma mensagem No
tool_calls matriz No

AzureChatDataSource

Uma representação de dados de configuração para uma única fonte de dados de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.

Discriminador para AzureChatDataSource

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Name Tipo Description Required Default
tipo objeto Yes

AzureChatDataSourceAccessTokenAuthenticationOptions

Name Tipo Description Required Default
access_token cadeia Yes
tipo enumeração
Valores possíveis: access_token
Yes

AzureChatDataSourceApiKeyAuthenticationOptions

Name Tipo Description Required Default
chave cadeia Yes
tipo enumeração
Valores possíveis: api_key
Yes

AzureChatDataSourceAuthenticationOptions

Discriminador para AzureChatDataSourceAuthenticationOptions

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Name Tipo Description Required Default
tipo AzureChatDataSourceAuthenticationOptionsType Yes

AzureChatDataSourceAuthenticationOptionsType

Property Value
Type cadeia
Values api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Name Tipo Description Required Default
connection_string cadeia Yes
tipo enumeração
Valores possíveis: connection_string
Yes

AzureChatDataSourceDeploymentNameVectorizationSource

Representa uma fonte de vetorização que faz chamadas de serviço internas em uma implantação de modelo de inserção do OpenAI do Azure. Em contraste com a fonte de vetorização baseada em ponto de extremidade, uma fonte de vetorização baseada em nome de implantação deve fazer parte do mesmo recurso do OpenAI do Azure, mas pode ser usada até mesmo em redes privadas.

Name Tipo Description Required Default
deployment_name cadeia A implantação do modelo de inserção a ser usada para vetorização. Essa implantação deve existir no mesmo recurso do OpenAI do Azure que a implantação de modelo que está sendo usada para conclusões de chat. Yes
dimensions inteiro O número de dimensões a serem solicitadas em inserções.
Só há suporte em modelos 'text-embedding-3' e posteriores.
No
tipo enumeração O identificador de tipo, sempre 'deployment_name' para esse tipo de origem de vetorização.
Valores possíveis: deployment_name
Yes

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Name Tipo Description Required Default
encoded_api_key cadeia Yes
tipo enumeração
Valores possíveis: encoded_api_key
Yes

AzureChatDataSourceEndpointVectorizationSource

Representa uma fonte de vetorização que faz chamadas de serviço público em uma implantação de modelo de inserção do OpenAI do Azure.

Name Tipo Description Required Default
autenticação objeto Yes
└─ token_de_acesso cadeia No
└─ chave cadeia No
└─ tipo enumeração
Valores possíveis: access_token
No
dimensions inteiro O número de dimensões a serem solicitadas em inserções.
Só há suporte em modelos 'text-embedding-3' e posteriores.
No
ponto de extremidade cadeia Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas.
Ele deve estar no formato de:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
O parâmetro de consulta api-version não é permitido.
Yes
tipo enumeração O identificador de tipo, sempre 'endpoint' para esse tipo de origem de vetorização.
Valores possíveis: endpoint
Yes

AzureChatDataSourceIntegratedVectorizationSource

Representa uma fonte de vetorização integrada, conforme definido no recurso de pesquisa de suporte.

Name Tipo Description Required Default
tipo enumeração O identificador de tipo, sempre 'integrated' para esse tipo de origem de vetorização.
Valores possíveis: integrated
Yes

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Name Tipo Description Required Default
chave cadeia Yes
key_id cadeia Yes
tipo enumeração
Valores possíveis: key_and_key_id
Yes

AzureChatDataSourceModelIdVectorizationSource

Representa uma fonte de vetorização que faz chamadas de serviço com base em uma ID do modelo de serviço de pesquisa. Atualmente, esse tipo de origem só tem suporte do Elasticsearch.

Name Tipo Description Required Default
model_id cadeia A ID de build do modelo de inserção a ser usada para vetorização. Yes
tipo enumeração O identificador de tipo, sempre 'model_id' para esse tipo de origem de vetorização.
Valores possíveis: model_id
Yes

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: system_assigned_managed_identity
Yes

AzureChatDataSourceType

Property Value
Type cadeia
Values azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Name Tipo Description Required Default
managed_identity_resource_id cadeia Yes
tipo enumeração
Valores possíveis: user_assigned_managed_identity
Yes

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Name Tipo Description Required Default
senha cadeia Yes
tipo enumeração
Valores possíveis: username_and_password
Yes
nome de usuário cadeia Yes

AzureChatDataSourceVectorizationSource

Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados.

Discriminador para AzureChatDataSourceVectorizationSource

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Name Tipo Description Required Default
tipo objeto Yes

AzureChatDataSourceVectorizationSourceType

Property Value
Type cadeia
Values endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Uma propriedade adicional, adicionada às mensagens de resposta de conclusão de chat, produzidas pelo serviço OpenAI do Azure ao usar o comportamento da extensão. Isso inclui informações de intenção e citação do recurso On Your Data.

Name Tipo Description Required Default
all_retrieved_documents objeto Informações resumidas sobre documentos recuperados pela operação de recuperação de dados. No
└─ chunk_id cadeia A ID da parte da citação. No
└─ conteúdo cadeia O conteúdo da citação. No
└─ índice_fonte_de_dados inteiro O índice da fonte de dados usada para recuperação. No
└─ caminho do arquivo cadeia O caminho do arquivo para a citação. No
└─ motivo_do_filtro enumeração Se aplicável, uma indicação de por que o documento foi filtrado.
Valores possíveis: score, rerank
No
└─ pontuação_original_de_busca number A pontuação de pesquisa original para a recuperação. No
└─ pontuação_de_reclassificação number Pontuação de reclassificação para a recuperação. No
└─ consultas_de_busca matriz As consultas de pesquisa executadas para recuperar documentos. No
└─ título cadeia O título da citação. No
└─ URL cadeia A URL da citação. No
citations matriz As citações produzidas pela recuperação de dados. No
intenção cadeia A intenção detectada do histórico de chat, que é usada para levar o contexto da conversa entre interações No

AzureContentFilterBlocklistResult

Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas.

Name Tipo Description Required Default
details matriz Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. No
filtered boolean Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. Yes

AzureContentFilterCompletionTextSpan

Uma representação de um intervalo de texto de conclusão, conforme usado pelos resultados do filtro de conteúdo do OpenAI do Azure.

Name Tipo Description Required Default
completion_end_offset inteiro Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset em intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. Yes
completion_start_offset inteiro Deslocamento do ponto de código UTF32 que inicia o intervalo. Yes

AzureContentFilterCompletionTextSpanDetectionResult

Name Tipo Description Required Default
details matriz Informações detalhadas sobre os intervalos de texto de conclusão detectados. Yes
detected boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. Yes
filtered boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. Yes

AzureContentFilterCustomTopicResult

Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados.

Name Tipo Description Required Default
details matriz Os pares de IDs de tópicos individuais e se eles foram detectados. No
filtered boolean Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. Yes

AzureContentFilterDetectionResult

Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado.

Name Tipo Description Required Default
detected boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. Yes
filtered boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. Yes

AzureContentFilterImagePromptResults

Um resultado do filtro de conteúdo para o conteúdo da solicitação de entrada de uma operação de geração de imagem.

Name Tipo Description Required Default
custom_blocklists objeto Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. No
└─ detalhes matriz Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. No
└─ filtrado boolean Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. No
custom_topics objeto Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados. No
└─ detalhes matriz Os pares de IDs de tópicos individuais e se eles foram detectados. No
└─ filtrado boolean Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. No
jailbreak objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. Yes
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
profanity objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No

AzureContentFilterImageResponseResults

Um resultado de filtro de conteúdo para o conteúdo de resposta de saída de uma operação de geração de imagem.

Name Tipo Description Required Default
hate objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
self_harm objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
sexual objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
violence objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No

AzureContentFilterResultForChoice

Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo.

Name Tipo Description Required Default
custom_blocklists objeto Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. No
└─ detalhes matriz Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. No
└─ filtrado boolean Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. No
custom_topics objeto Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados. No
└─ detalhes matriz Os pares de IDs de tópicos individuais e se eles foram detectados. No
└─ filtrado boolean Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. No
erro objeto Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. No
└─ código inteiro Um código distinto e legível pelo computador associado ao erro. No
Mensagem └─ cadeia Uma mensagem legível por humanos associada ao erro. No
hate objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
profanity objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
protected_material_code objeto Um resultado de detecção que descreve uma correspondência com o código licenciado ou outro material de origem protegido. No
└─ citação objeto Se disponível, os detalhes da citação que descrevem a licença associada e sua localização. No
└─ URL cadeia A URL associada à licença. No
└─ Licença cadeia O nome ou identificador da licença associada à detecção. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
protected_material_text objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
self_harm objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
sexual objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
violence objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No

AzureContentFilterResultForPrompt

Um resultado de filtro de conteúdo associado a um único item de solicitação de entrada em um sistema de IA generativa.

Name Tipo Description Required Default
content_filter_results objeto Os detalhes da categoria de filtro de conteúdo para o resultado. No
└─ listas_personalizadas_de_bloqueio objeto Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. No
└─ detalhes matriz Os pares de IDs individuais da lista de bloqueio e se eles resultaram em ações de filtragem. No
└─ filtrado boolean Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. No
└─ tópicos_personalizados objeto Uma coleção de resultados de filtragem verdadeiro/falso dos tópicos personalizados configurados. No
└─ detalhes matriz Os pares de IDs de tópicos individuais e se eles foram detectados. No
└─ filtrado boolean Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. No
└─ erro objeto Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. No
└─ código inteiro Um código distinto e legível pelo computador associado ao erro. No
Mensagem └─ cadeia Uma mensagem legível por humanos associada ao erro. No
└─ ódio objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
└─ ataque_indireto objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ desbloqueio objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ palavrões objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado. No
└─ detectado boolean Se a categoria de conteúdo rotulado foi detectada no conteúdo. No
└─ filtrado boolean Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ automutilação objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
└─ sexual objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
└─ violência objeto Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. No
└─ filtrado boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. No
└─ severidade enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
No
prompt_index inteiro O índice da solicitação de entrada associado às categorias de resultado do filtro de conteúdo que acompanham. No

AzureContentFilterSeverityResult

Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria.

Name Tipo Description Required Default
filtered boolean Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. Yes
severity enumeração A gravidade rotulada do conteúdo.
Valores possíveis: safe, , low, mediumhigh
Yes

AzureCosmosDBChatDataSource

Representa uma configuração de fonte de dados que usará um recurso do Azure CosmosDB.

Name Tipo Description Required Default
parameters objeto As informações de parâmetro para controlar o uso da fonte de dados do Azure CosmosDB. Yes
└─ permitir_resultado_parcial boolean Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
└─ autenticação AzureChatDataSourceConnectionStringAuthenticationOptions No
└─ container_name cadeia No
└─ nome_do_banco_de_dados cadeia No
└─ embedding_dependency AzureChatDataSourceVectorizationSource Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados. No
└─ mapeamento_de_campos objeto No
└─ campos_de_conteúdo matriz No
└─ separador_dos_campos_de_conteúdo cadeia No
└─ campo_caminho_do_arquivo cadeia No
└─ campo_do_título cadeia No
└─ campo_de_url cadeia No
└─ campos_de_vetores matriz No
└─ in_scope boolean Se as consultas devem ser restritas ao uso dos dados indexados. No
└─ incluir_contextos matriz As propriedades de contexto de saída a serem incluídas na resposta.
Por padrão, as citações e a intenção serão solicitadas.
No ['citações', 'intenções']
└─ nome_do_índice cadeia No
└─ consultas_de_busca_máximas inteiro O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário.
Por padrão, o sistema fará uma determinação automática.
No
└─ rigidez inteiro A rigorosidade configurada da filtragem de relevância da pesquisa.
A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta.
No
└─ top_n_documents inteiro O número configurado de documentos a serem apresentados na consulta. No
tipo enumeração O identificador de tipo discriminado, que é sempre "azure_cosmos_db".
Valores possíveis: azure_cosmos_db
Yes

AzureCreateChatCompletionRequest

O modelo de solicitação estendida para conclusões de chat no serviço OpenAI do Azure. Isso adiciona a capacidade de fornecer fontes de dados para o recurso On Your Data.

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ Formato enumeração Especifica o formato do áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16.
Valores possíveis: wav, , aac, mp3, flac, , opuspcm16
No
└─ voz objeto No
data_sources matriz As fontes de dados a serem usadas para o recurso On Your Data, exclusivo do Azure OpenAI. No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. No 0
function_call enumeração Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.
Valores possíveis: none, auto
No
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem.
O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante.
No None
logprobs boolean Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.
Esse valor pode ser usado para controlar os custos do texto gerado por meio da API.

Esse valor agora foi preterido em favor de max_completion_tokens, e não é compatível com modelos da série o1.
No
messages matriz Uma lista de mensagens que resumem a conversa até agora. Dependendo do modelo usado, há suporte para diferentes tipos de mensagens (modalidades), como texto, imagens e áudio. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modalities objeto Tipos de saída que você gostaria que o modelo gerasse.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
No
modelo cadeia O identificador de implantação de modelo a ser usado para a solicitação de conclusão do chat. Yes
n inteiro Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. No 1
parallel_tool_calls objeto Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No
previsão objeto Representação base da saída prevista de um modelo. No
└─ tipo OpenAI.ChatOutputPredictionType No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. No 0
reasoning_effort objeto somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
response_format objeto No
└─ tipo enumeração
Valores possíveis: text, , json_objectjson_schema
No
seed inteiro Esse recurso está em Versão Beta.
Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.
O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar alterações no backend.
No
stop objeto Modelos de raciocínio mais recentes o3 e o4-mini não são suportados.

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada.
No
armazenar boolean Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em produtos de destilação de modelo ou de avaliação. No False
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. No False
stream_options objeto Opções para resposta de streaming. Defina isso somente quando você definir stream: true. No
└─ include_usage boolean Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia.

Todas as outras partes também incluirão um campo usage, mas com um valor nulo. NOTA: Se o fluxo for interrompido, você poderá não receber a parte de uso final que contém o uso total do token para a solicitação.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.

none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente.
No
tools matriz Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. No
user_security_context AzureUserSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. No

AzureCreateChatCompletionResponse

O modelo de resposta de conclusão de chat de nível superior estendido para o serviço OpenAI do Azure. Esse modelo adiciona anotações de filtro de conteúdo de IA responsável para entrada de solicitação.

Name Tipo Description Required Default
choices matriz Yes
created inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Yes
id cadeia Identificador exclusivo para conclusão de chat. Yes
modelo cadeia O modelo usado para a conclusão do chat. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Yes
prompt_filter_results matriz As anotações de filtro de conteúdo de IA responsável associadas a entradas de solicitação em conclusões de chat. No
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo.
No
uso OpenAI.CompletionUsage Estatísticas de uso para a solicitação de preenchimento. No

AzureCreateChatCompletionStreamResponse

Name Tipo Description Required Default
choices matriz Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. Também pode estar vazio para a última parte se você definir stream_options: {"include_usage": true}. Yes
content_filter_results AzureContentFilterResultForChoice Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo. No
created inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Cada parte tem o mesmo carimbo de data/hora. Yes
delta AzureChatCompletionStreamResponseDelta O modelo de resposta estendida para uma mensagem de resposta de chat de streaming no serviço Azure OpenAI.
Esse modelo adiciona suporte para o contexto de mensagem de chat, usado pelo recurso On Your Data para intenção, citações e outras informações relacionadas à geração aumentada de recuperação executada.
No
id cadeia Identificador exclusivo para conclusão de chat. Cada parte tem a mesma ID. Yes
modelo cadeia O modelo para gerar a conclusão. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Yes
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.
Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo.
No
uso objeto Estatísticas de uso para a solicitação de preenchimento. No
└─ completion_tokens inteiro Número de tokens na conclusão gerada. No 0
└─ completion_tokens_details objeto Divisão de tokens usados em uma conclusão. No
└─ tokens_de_predição_aceitos inteiro Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. No 0
└─ audio_tokens inteiro Tokens de entrada de áudio gerados pelo modelo. No 0
└─ tokens_de_raciocínio inteiro Tokens gerados pelo modelo para raciocínio. No 0
└─ rejected_prediction_tokens inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contabilizados no total de tokens de conclusão para fins de cobrança, saída e limites da janela de contexto. No 0
└─ prompt_tokens inteiro Número de tokens no prompt. No 0
└─ prompt_tokens_details objeto Divisão de tokens usados na solicitação. No
└─ audio_tokens inteiro Tokens de entrada de áudio presentes na solicitação. No 0
└─ tokens em cache inteiro Tokens armazenados em cache presentes no prompt. No 0
└─ total_tokens inteiro Número total de tokens utilizados na solicitação (prompt + conclusão). No 0

AzureCreateEmbeddingRequest

Name Tipo Description Required Default
dimensions inteiro O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. No
encoding_format enumeração O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64.
Valores possíveis: float, base64
No
entrada cadeia de caracteres ou matriz Yes
modelo cadeia O modelo a ser usado para a solicitação de inserção. Yes
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

AzureCreateFileRequestMultiPart

Name Tipo Description Required Default
expires_after objeto Yes
└─ âncora AzureFileExpiryAnchor No
└─ segundos inteiro No
arquivo cadeia Yes
purpose enumeração A finalidade pretendida do arquivo carregado. Um de: — assistants: usado na API de Assistentes — batch: usado na API do Lote — fine-tune: usado para ajuste fino — evals: usado nos conjuntos de dados de avaliação.
Valores possíveis: assistants, , batch, fine-tuneevals
Yes

AzureCreateImageEditRequestMultiPart

Name Tipo Description Required Default
em segundo plano enumeração Permite definir a transparência para a tela de fundo das imagens geradas.
Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.

Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.
Valores possíveis: transparent, , opaqueauto
No
imagem cadeia de caracteres ou matriz Yes
máscara cadeia No
modelo cadeia A implantação de modelo a ser usada para a operação de edição de imagem. Yes
n inteiro O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só é compatível com modelos da série gpt-image-1 que possuam os formatos de saída webp ou jpeg, e tem o valor padrão de 100. No 100
output_format enumeração O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.
O valor padrão é png.
Valores possíveis: png, , jpegwebp
No
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 1.000 caracteres para dall-e-2, e 32.000 caracteres para gpt-image-1 modelos da série. Yes
quality enumeração A qualidade da imagem que será gerada. high, medium e low só têm suporte para gpt-image-1modelos de série. dall-e-2 só dá suporte à qualidade standard. Usa auto como padrão.
Valores possíveis: standard, , low, medium, high, auto
No
response_format enumeração O formato no qual as imagens geradas são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro só tem suporte para dall-e-2modelos de série, pois gpt-image-1os modelos de série sempre retornarão imagens codificadas em base64.
Valores possíveis: url, b64_json
No
size enumeração O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série e um de 256x256, 512x512ou 1024x1024 para dall-e-2.
Valores possíveis: 256x256, , 512x512, 1024x1024, 1536x1024, , 1024x1536auto
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

AzureCreateImageRequest

Name Tipo Description Required Default
em segundo plano enumeração Permite definir a transparência para a tela de fundo das imagens geradas.
Esse parâmetro só tem suporte para gpt-image-1modelos de série. Deve ser um de transparent, opaque ou auto (valor padrão). Quando auto for usado, o modelo determinará automaticamente o melhor plano de fundo para a imagem.

Se transparent, o formato de saída precisa dar suporte à transparência, portanto, ele deve ser definido como png (valor padrão) ou webp.
Valores possíveis: transparent, , opaqueauto
No
modelo cadeia A implantação de modelo a ser usada para a geração de imagem. Yes
moderation enumeração Controlar o nível de moderação de conteúdo para imagens geradas por modelos de série gpt-image-1. Deve ser low para filtragem menos restritiva ou auto (valor padrão).
Valores possíveis: low, auto
No
n inteiro O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. Para dall-e-3, apenas n=1 é suportado. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com os formatos de saída webp ou jpeg e tem o valor padrão de 100. No 100
output_format enumeração O formato no qual as imagens geradas são retornadas. Esse parâmetro só tem suporte para gpt-image-1modelos de série. Pode ser png, jpeg ou webp.
Valores possíveis: png, , jpegwebp
No
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1, 1.000 caracteres para dall-e-2 e 4.000 caracteres para dall-e-3. Yes
quality enumeração A qualidade da imagem que será gerada.

- auto (valor padrão) selecionará automaticamente a melhor qualidade para o modelo fornecido.
- high medium e low são compatíveis com os modelos de série gpt-image-1.
- hd e standard têm suporte para dall-e-3.
- standard é a única opção para dall-e-2.
Valores possíveis: standard, , hd, low, medium, , highauto
No
response_format enumeração O formato no qual imagens geradas com dall-e-2 e dall-e-3 são retornadas. Deve ser um de url ou b64_json. As URLs só são válidas por 60 minutos após a geração da imagem. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.
Valores possíveis: url, b64_json
No
size enumeração O tamanho das imagens geradas. Deve ser um de 1024x1024, 1536x1024 (paisagem), 1024x1536 (retrato) ou auto (valor padrão) para gpt-image-1modelos de série, um de 256x256, 512x512ou 1024x1024 para dall-e-2, e um de 1024x1024, 1792x1024ou 1024x1792 para dall-e-3.
Valores possíveis: auto, , 1024x1024, 1536x1024, 1024x1536, 256x256, 512x512, , , 1792x10241024x1792
No
estilo enumeração O estilo das imagens geradas. Esse parâmetro só tem suporte para dall-e-3. Deve ser um de vivid ou natural. O Vivid faz com que o modelo se incline para gerar imagens hiper-reais e dramáticas. A função "Natural" faz com que o modelo produza imagens mais naturais e menos hiper-realistas.
Valores possíveis: vivid, natural
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

AzureCreateResponse

Name Tipo Description Required Default
em segundo plano boolean Se a resposta do modelo deve ser executada em segundo plano. No False
include matriz Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
- code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.
- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.
- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
- message.output_text.logprobs: inclua os logprobs com mensagens de assistente.
- reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero).
No
entrada cadeia de caracteres ou matriz No
instructions cadeia Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia A implantação do modelo a ser usada para a criação dessa resposta. Yes
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
solicitação objeto Referência a um modelo de prompt e suas variáveis. No
└─ id cadeia O identificador exclusivo do modelo de prompt a ser usado. No
└─ variáveis OpenAI.ResponsePromptVariables Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. No
└─ versão cadeia Versão opcional do modelo de prompt. No
reasoning objeto somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ esforço OpenAI.ReasoningEffort somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
└─ gerar_resumo enumeração Preterido: use summary em vez disso.

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
└─ resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
armazenar boolean Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. No True
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. No False
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
tool_choice objeto Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
No
└─ tipo OpenAI.ToolChoiceObjectType Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo, como a pesquisa de arquivos.
- Chamadas de função (ferramentas personalizadas): Funções definidas por você, permitindo que o modelo chame seu próprio código.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No

AzureCreateSpeechRequestMultiPart

Uma representação das opções de solicitação que controlam o comportamento de uma operação de conversão de texto em fala.

Name Tipo Description Required Default
entrada cadeia O texto para o qual gerar áudio. O comprimento máximo é de 4.096 caracteres. Yes
instructions cadeia Controle a voz do áudio gerado com instruções adicionais. Não funciona com tts-1 ou tts-1-hd. No
modelo cadeia O modelo a ser usado para essa solicitação de conversão de texto em fala. Yes
response_format objeto Os formatos de saída de áudio com suporte para conversão de texto em fala. No
speed number A velocidade da fala do áudio gerado. Os valores são válidos no intervalo de 0,25 a 4,0, com 1,0 os valores padrão e mais altos correspondentes à fala mais rápida. No 1
stream_format enumeração O formato para transmitir o áudio. Os formatos com suporte são sse e audio. sse não há suporte para tts-1 ou tts-1-hd.
Valores possíveis: sse, audio
No
voice objeto Yes

AzureCreateTranscriptionRequestMultiPart

As informações de configuração de uma solicitação de transcrição de áudio.

Name Tipo Description Required Default
chunking_strategy objeto No
└─ prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). No 300
└─ duração_do_silêncio_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos).
Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No 200
└─ limite number Limite de sensibilidade (0.0 a 1.0) para detecção de atividade de voz. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. No 0.5
└─ tipo enumeração Deve ser definido para server_vad a fim de habilitar o agrupamento manual usando o VAD do lado do servidor.
Valores possíveis: server_vad
No
arquivo cadeia Yes
filename cadeia O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio. No
include[] matriz Informações adicionais a serem incluídas na resposta de transcrição.
logprobs retornará as probabilidades logarítmicas dos tokens na resposta para entender a confiança do modelo na transcrição.
logprobs funciona somente quando o response_format está definido como json e apenas com os modelos gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe e gpt-4o-mini-transcribe-2025-12-15.
No
linguagem cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhorará a precisão e a latência. No
modelo cadeia O modelo a ser usado para essa solicitação de transcrição. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. No
response_format objeto No
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. Observação: o streaming não tem suporte para o whisper-1 modelo e será ignorado. No False
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. No ['segment']

AzureCreateTranslationRequestMultiPart

As informações de configuração de uma solicitação de transcrição de áudio.

Name Tipo Description Required Default
arquivo cadeia Yes
filename cadeia O nome de arquivo opcional ou o identificador descritivo a ser associado aos dados de áudio No
modelo cadeia O modelo a ser usado nessa solicitação de tradução. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. No
response_format objeto No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0

AzureErrorResponse

Name Tipo Description Required Default
erro objeto Os detalhes do erro. No
└─ código cadeia O identificador distinto gerado pelo computador para o erro. No
└─ erro_interno No
Mensagem └─ cadeia Uma mensagem legível por humanos associada ao erro. No
└─ param cadeia Se aplicável, o parâmetro de entrada de solicitação associado ao erro No
└─ tipo enumeração O tipo de objeto, sempre 'error.'
Valores possíveis: error
No

AzureEvalAPICompletionsSamplingParams

Name Tipo Description Required Default
parallel_tool_calls boolean No
response_format OpenAI.ResponseTextFormatConfiguration No
tools matriz No

AzureEvalAPIModelSamplingParams

Name Tipo Description Required Default
max_tokens inteiro O número máximo de tokens na saída gerada. No
reasoning_effort enumeração Controla o nível de esforço de raciocínio aplicado durante a geração.
Valores possíveis: low, , mediumhigh
No
seed inteiro Um valor inicial para inicializar a aleatoriedade durante a amostragem. No
temperature number Uma temperatura mais alta aumenta a aleatoriedade nas saídas. No
top_p number Uma alternativa à temperatura para amostragem de núcleo; 1.0 inclui todos os tokens. No

AzureEvalAPIResponseSamplingParams

Name Tipo Description Required Default
parallel_tool_calls boolean No
response_format OpenAI.ResponseTextFormatConfiguration No
tools matriz No

AzureFileExpiryAnchor

Property Value
Type cadeia
Values created_at

AzureFineTuneReinforcementMethod

Name Tipo Description Required Default
motoniveladora objeto Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. Yes
└─ calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. No
└─ métrica_de_avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
No
└─ graders objeto No
└─ entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. No
└─ modelo cadeia O modelo a ser usado para a avaliação. No
└─ nome cadeia O nome do avaliador. No
└─ Operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
No
└─ intervalo matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
└─ Referência cadeia O texto de referência para avaliação. No
└─ sampling_params Os parâmetros de amostragem do modelo. No
└─ tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
No
hiperparâmetros OpenAI.FineTuneReinforcementHyperparameters Os hiperparâmetros usados no trabalho de ajuste fino de reforço. No
response_format objeto No
└─ esquema_json objeto Esquema JSON para o formato de resposta No
└─ tipo enumeração Tipo de formato de resposta.
Valores possíveis: json_schema
No

AzureImage

Name Tipo Description Required Default
b64_json cadeia O JSON codificado em base64 da imagem gerada. Valor padrão para modelos da série gpt-image-1, e presente somente se response_format for definido como b64_json para dall-e-2 e dall-e-3. No
content_filter_results AzureContentFilterImageResponseResults Um resultado de filtro de conteúdo para o conteúdo de resposta de saída de uma operação de geração de imagem. Yes
prompt_filter_results AzureContentFilterImagePromptResults Um resultado do filtro de conteúdo para o conteúdo da solicitação de entrada de uma operação de geração de imagem. Yes
revised_prompt cadeia Somente dall-e-3 para o prompt revisado que foi usado para gerar a imagem. No
url cadeia Ao usar dall-e-2 ou dall-e-3, a URL da imagem gerada se response_format estiver definida como url (valor padrão). Sem suporte para modelos da série gpt-image-1. No

AzureImagesResponse

Name Tipo Description Required Default
em segundo plano enumeração O parâmetro de plano de fundo usado na geração de imagem. transparent ou opaque.
Valores possíveis: transparent, opaque
No
created inteiro O timestamp Unix (em segundos) indicando quando a imagem foi criada. Yes
dados matriz No
output_format enumeração O formato de saída da geração de imagem. png, webp ou jpeg.
Valores possíveis: png, , webpjpeg
No
quality enumeração A qualidade da imagem gerada. low, medium ou high.
Valores possíveis: low, , mediumhigh
No
size enumeração O tamanho da imagem gerada. 1024x1024, 1024x1536 ou 1536x1024.
Valores possíveis: 1024x1024, , 1024x15361536x1024
No
uso objeto Somente para os modelos da série gpt-image-1, as informações de uso do token para a geração de imagens. No
└─ tokens de entrada inteiro O número de tokens (imagens e texto) na solicitação de entrada. No
└─ detalhes_de_tokens_de_entrada objeto As informações detalhadas dos tokens de entrada para a geração de imagem. No
└─ image_tokens inteiro O número de tokens de imagem na solicitação de entrada. No
└─ text_tokens inteiro O número de tokens de texto na solicitação de entrada. No
└─ tokens_de_saída inteiro O número de tokens de imagem na imagem de saída. No
└─ total_tokens inteiro O número total de tokens (imagens e texto) usados para a geração de imagem. No

AzureListFilesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto enumeração
Valores possíveis: list
Yes

AzureOpenAIFile

Name Tipo Description Required Default
bytes inteiro O tamanho do arquivo, em bytes. Yes
created_at inteiro O carimbo de data/hora Unix (em segundos) da data em que o arquivo foi criado. Yes
expires_at inteiro O carimbo de data/hora Unix (em segundos) de quando o arquivo expirará. No
filename cadeia O nome do arquivo. Yes
id cadeia O identificador do arquivo, que pode ser referenciado nos pontos finais da API. Yes
objeto enumeração O tipo de objeto, que é sempre file.
Valores possíveis: file
Yes
purpose enumeração A finalidade pretendida do arquivo. Os valores com suporte são assistants, assistants_output, batch, batch_output, fine-tune e fine-tune-results.
Valores possíveis: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals
Yes
status enumeração
Valores possíveis: uploaded, pending, running, processed, error, deleting, deleted
Yes
detalhes_do_status cadeia Preterido. Para obter detalhes sobre por que um arquivo de treinamento de ajuste fino falhou na validação, consulte o error campo em fine_tuning.job. No

AzureOpenAIVideoGenerationErrorResponse

Name Tipo Description Required Default
codificar cadeia O identificador distinto gerado pelo computador para o erro. No
inner_error objeto Se aplicável, um erro upstream que originou esse erro. No
└─ código enumeração O código associado ao erro interno.
Valores possíveis: ResponsibleAIPolicyViolation
No
└─ detalhes_do_erro Os detalhes do resultado do filtro de conteúdo associados ao erro interno. No
└─ revised_prompt cadeia Se aplicável, a solicitação modificada usada para geração. No
mensagem cadeia Uma mensagem legível por humanos associada ao erro. No
param cadeia Se aplicável, o parâmetro de entrada de solicitação associado ao erro No
tipo cadeia Se aplicável, o número da linha de entrada associado ao erro. No

AzureResponse

Name Tipo Description Required Default
em segundo plano boolean Se a resposta do modelo deve ser executada em segundo plano. No False
created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. Yes
erro objeto Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. Yes
└─ código OpenAI.ResponseErrorCode O código de erro da resposta. No
Mensagem └─ cadeia Uma descrição do erro legível para humanos. No
id cadeia Identificador exclusivo para esta resposta. Yes
incomplete_details objeto Detalhes sobre por que a resposta está incompleta. Yes
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
instructions cadeia de caracteres ou matriz Yes
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
modelo cadeia O modelo usado para gerar essa resposta. Yes
objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
Yes
saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
Yes
output_text cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. Yes True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
solicitação objeto Referência a um modelo de prompt e suas variáveis. No
└─ id cadeia O identificador exclusivo do modelo de prompt a ser usado. No
└─ variáveis OpenAI.ResponsePromptVariables Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. No
└─ versão cadeia Versão opcional do modelo de prompt. No
reasoning objeto somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ esforço OpenAI.ReasoningEffort somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
└─ gerar_resumo enumeração Preterido: use summary em vez disso.

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
└─ resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
status enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
Yes
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
tool_choice objeto Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
No
└─ tipo OpenAI.ToolChoiceObjectType Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
Yes
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. Yes

AzureSearchChatDataSource

Representa uma configuração de fonte de dados que usará um recurso do Azure Search.

Name Tipo Description Required Default
parameters objeto As informações de parâmetro para controlar o uso da fonte de dados do Azure Search. Yes
└─ permitir_resultado_parcial boolean Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
└─ autenticação objeto No
└─ token_de_acesso cadeia No
└─ chave cadeia No
└─ managed_identity_resource_id cadeia No
└─ tipo enumeração
Valores possíveis: access_token
No
└─ embedding_dependency objeto Representa uma fonte de vetorização que faz chamadas de serviço público em uma implantação de modelo de inserção do OpenAI do Azure. No
└─ autenticação AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions O mecanismo de autenticação a ser usado com a origem de vetorização baseada em ponto de extremidade.
A autenticação de ponto de extremidade dá suporte a mecanismos de token de acesso e chave de API.
No
└─ deployment_name cadeia A implantação do modelo de inserção a ser usada para vetorização. Essa implantação deve existir no mesmo recurso do OpenAI do Azure que a implantação de modelo que está sendo usada para conclusões de chat. No
└─ dimensões inteiro O número de dimensões a serem solicitadas em inserções.
Só há suporte em modelos 'text-embedding-3' e posteriores.
No
└─ endpoint cadeia Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas.
Ele deve estar no formato de:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
O parâmetro de consulta api-version não é permitido.
No
└─ tipo enumeração O identificador de tipo, sempre 'integrated' para esse tipo de origem de vetorização.
Valores possíveis: integrated
No
└─ endpoint cadeia O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. No
└─ mapeamento_de_campos objeto Os mapeamentos de campo a serem usados com o recurso do Azure Search. No
└─ campos_de_conteúdo matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
└─ separador_dos_campos_de_conteúdo cadeia O padrão separador que os campos de conteúdo devem usar. No
└─ campo_caminho_do_arquivo cadeia O nome do campo de índice a ser utilizado como um caminho de arquivo. No
└─ Campos de Vetores de Imagem matriz Os nomes dos campos que representam dados vetoriais de imagens. No
└─ campo_do_título cadeia O nome do campo de índice a ser utilizado como título. No
└─ campo_de_url cadeia O nome do campo de índice a ser utilizado como URL. No
└─ campos_de_vetores matriz Os nomes dos campos que representam dados vetoriais. No
└─ filtro cadeia Um filtro a ser aplicado à pesquisa. No
└─ in_scope boolean Se as consultas devem ser restritas ao uso dos dados indexados. No
└─ incluir_contextos matriz As propriedades de contexto de saída a serem incluídas na resposta.
Por padrão, as citações e a intenção serão solicitadas.
No ['citações', 'intenções']
└─ nome_do_índice cadeia O nome do índice a ser usado, conforme especificado no recurso do Azure Search. No
└─ consultas_de_busca_máximas inteiro O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário.
Por padrão, o sistema fará uma determinação automática.
No
└─ tipo_de_consulta enumeração O tipo de consulta para o recurso do Azure Search a ser usado.
Valores possíveis: simple, , semantic, vector, vector_simple_hybrid, vector_semantic_hybrid
No
└─ configuração_semântica cadeia Configuração semântica adicional para a consulta. No
└─ rigidez inteiro A rigorosidade configurada da filtragem de relevância da pesquisa.
A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta.
No
└─ top_n_documents inteiro O número configurado de documentos a serem apresentados na consulta. No
tipo enumeração O identificador de tipo discriminado, que é sempre 'azure_search'.
Valores possíveis: azure_search
Yes

AzureUserSecurityContext

O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.

Name Tipo Description Required Default
application_name cadeia O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas nesse campo. No
end_user_id cadeia Esse identificador é a ID de objeto de usuário do Microsoft Entra ID (antigo Azure Active Directory) usado para autenticar usuários finais no aplicativo de IA generativa. Informações pessoais confidenciais não devem ser incluídas nesse campo. No
end_user_tenant_id cadeia A ID do locatário do Microsoft 365 à qual o usuário final pertence. Ele é necessário quando o aplicativo de IA generativa é multilocatário. No
source_ip cadeia Captura o endereço IP do cliente original. No

ChatCompletionMessageToolCallsItem

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Matriz de: OpenAI.ChatCompletionMessageToolCall

CreateVideoGenerationRequest

Name Tipo Description Required Default
height inteiro A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes
modelo cadeia O nome da implantação a ser usada para essa solicitação. Yes
n_seconds inteiro A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. No 5
n_variants inteiro O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. No 1
solicitação cadeia A solicitação para esse trabalho de geração de vídeo. Yes
width inteiro A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes

CreateVideoGenerationWithMediaRequestMultiPart

As propriedades de uma solicitação de trabalho de geração de vídeo com arquivos de mídia.

Name Tipo Description Required Default
files matriz Yes
height inteiro A altura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes
inpaint_items matriz Itens opcionais de preenchimento para esse trabalho de geração de vídeo. No
modelo cadeia O nome da implantação a ser usada para essa solicitação. Yes
n_seconds inteiro A duração do trabalho de geração de vídeo. Deve estar entre 1 e 20 segundos. No 5
n_variants inteiro O número de vídeos a serem criados como variantes para este trabalho. Precisa estar entre 1 e 5. Dimensões menores permitem mais variantes. No 1
solicitação cadeia A solicitação para esse trabalho de geração de vídeo. Yes
width inteiro A largura do vídeo. Há suporte para as seguintes dimensões: 480x480, 854x480, 720x720, 1280x720, 1080x1080 e 1920x1080 nas orientações paisagem e retrato. Yes

CropBounds

Os limites de recorte para um item de preenchimento. Isso especifica a área do item de mídia que deve ser usada para preenchimento.

Name Tipo Description Required Default
bottom_fraction number O limite inferior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. No 1
left_fraction number O limite esquerdo da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. No 0
right_fraction number O limite direito da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. No 1
top_fraction number O limite superior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. No 0

ElasticsearchChatDataSource

Name Tipo Description Required Default
parameters objeto As informações de parâmetro para controlar o uso da fonte de dados Elasticsearch. Yes
└─ permitir_resultado_parcial boolean Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
└─ autenticação objeto No
└─ chave_api_codificada cadeia No
└─ chave cadeia No
└─ key_id cadeia No
└─ tipo enumeração
Valores possíveis: encoded_api_key
No
└─ embedding_dependency AzureChatDataSourceVectorizationSource Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados. No
└─ endpoint cadeia No
└─ mapeamento_de_campos objeto No
└─ campos_de_conteúdo matriz No
└─ separador_dos_campos_de_conteúdo cadeia No
└─ campo_caminho_do_arquivo cadeia No
└─ campo_do_título cadeia No
└─ campo_de_url cadeia No
└─ campos_de_vetores matriz No
└─ in_scope boolean Se as consultas devem ser restritas ao uso dos dados indexados. No
└─ incluir_contextos matriz As propriedades de contexto de saída a serem incluídas na resposta.
Por padrão, as citações e a intenção serão solicitadas.
No ['citações', 'intenções']
└─ nome_do_índice cadeia No
└─ consultas_de_busca_máximas inteiro O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário.
Por padrão, o sistema fará uma determinação automática.
No
└─ tipo_de_consulta enumeração
Valores possíveis: simple, vector
No
└─ rigidez inteiro A rigorosidade configurada da filtragem de relevância da pesquisa.
A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta.
No
└─ top_n_documents inteiro O número configurado de documentos a serem apresentados na consulta. No
tipo enumeração O identificador de tipo discriminado, que é sempre 'elasticsearch'.
Valores possíveis: elasticsearch
Yes

InpaintItem

Um item de preenchimento para uma tarefa de geração de vídeo. Isso especifica o item de mídia que deve ser usado para preenchimento na geração do vídeo.

Name Tipo Description Required Default
crop_bounds objeto Os limites de recorte para um item de preenchimento.
Isso especifica a área do item de mídia que deve ser usada para preenchimento.
No
└─ bottom_fraction number O limite inferior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. No 1
└─ fração_esquerda number O limite esquerdo da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. No 0
└─ fração_direita number O limite direito da caixa de corte especificado como fração da largura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da largura do item de mídia original. No 1
└─ fração_superior number O limite superior da caixa de corte especificado como fração da altura do item de mídia original. Deve estar entre 0,0 e 1,0. Use, por exemplo, 0,5 para a metade da altura do item de mídia original. No 0
nome_do_arquivo cadeia O nome do arquivo do item de mídia. Ele deve corresponder ao nome do arquivo anexado nessa solicitação. Yes
frame_index inteiro O índice de quadros desse item de mídia. Isso especifica o quadro inicial no vídeo gerado resultante para esse item de preenchimento. Yes 0
tipo objeto O tipo do item de preenchimento. Yes

JobStatus

O status de um trabalho de geração de vídeo.

Property Value
Description O status de um trabalho de geração de vídeo.
Type cadeia
Values preprocessing
queued
running
processing
cancelled
succeeded
failed

MediaItemType

O tipo do item de preenchimento.

Property Value
Description O tipo do item de preenchimento.
Type cadeia
Values image

MongoDBChatDataSource

Name Tipo Description Required Default
parameters objeto As informações de parâmetro para controlar o uso da fonte de dados do MongoDB. Yes
└─ permitir_resultado_parcial boolean Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
└─ app_name cadeia O nome do aplicativo MongoDB. No
└─ autenticação objeto No
└─ senha cadeia No
└─ tipo enumeração
Valores possíveis: username_and_password
No
└─ nome de usuário cadeia No
└─ nome_da_colecao cadeia O nome da coleção do MongoDB. No
└─ nome_do_banco_de_dados cadeia O nome do banco de dados MongoDB. No
└─ embedding_dependency objeto Representa uma fonte de vetorização que faz chamadas de serviço público em uma implantação de modelo de inserção do OpenAI do Azure. No
└─ autenticação AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions O mecanismo de autenticação a ser usado com a origem de vetorização baseada em ponto de extremidade.
A autenticação de ponto de extremidade dá suporte a mecanismos de token de acesso e chave de API.
No
└─ deployment_name cadeia A implantação do modelo de inserção a ser usada para vetorização. Essa implantação deve existir no mesmo recurso do OpenAI do Azure que a implantação de modelo que está sendo usada para conclusões de chat. No
└─ dimensões inteiro O número de dimensões a serem solicitadas em inserções.
Só há suporte em modelos 'text-embedding-3' e posteriores.
No
└─ endpoint cadeia Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas.
Ele deve estar no formato de:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
O parâmetro de consulta api-version não é permitido.
No
└─ tipo enumeração O identificador de tipo, sempre 'deployment_name' para esse tipo de origem de vetorização.
Valores possíveis: deployment_name
No
└─ endpoint cadeia O nome do ponto de extremidade do cluster do Mongo DB. No
└─ mapeamento_de_campos objeto Mapeamentos de campo a serem aplicados aos dados usados pela fonte de dados do MongoDB.
Observe que os mapeamentos de conteúdo e de campo de vetor são necessários para o MongoDB.
No
└─ campos_de_conteúdo matriz No
└─ separador_dos_campos_de_conteúdo cadeia No
└─ campo_caminho_do_arquivo cadeia No
└─ campo_do_título cadeia No
└─ campo_de_url cadeia No
└─ campos_de_vetores matriz No
└─ in_scope boolean Se as consultas devem ser restritas ao uso dos dados indexados. No
└─ incluir_contextos matriz As propriedades de contexto de saída a serem incluídas na resposta.
Por padrão, as citações e a intenção serão solicitadas.
No ['citações', 'intenções']
└─ nome_do_índice cadeia O nome do índice MongoDB. No
└─ consultas_de_busca_máximas inteiro O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário.
Por padrão, o sistema fará uma determinação automática.
No
└─ rigidez inteiro A rigorosidade configurada da filtragem de relevância da pesquisa.
A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta.
No
└─ top_n_documents inteiro O número configurado de documentos a serem apresentados na consulta. No
tipo enumeração O identificador de tipo discriminado, que é sempre "mongo_db".
Valores possíveis: mongo_db
Yes

OpenAI.Annotation

Discriminador para OpenAI.Annotation

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Tipo Description Required Default
tipo OpenAI.AnnotationType Yes

OpenAI.AnnotationFileCitation

Uma citação a um arquivo.

Name Tipo Description Required Default
file_id cadeia A ID do arquivo. Yes
filename cadeia O nome do arquivo citado. Yes
indexar inteiro O índice do arquivo na lista de arquivos. Yes
tipo enumeração O tipo da citação de arquivo. Sempre file_citation.
Valores possíveis: file_citation
Yes

OpenAI.AnnotationFilePath

Um caminho para um arquivo.

Name Tipo Description Required Default
file_id cadeia A ID do arquivo. Yes
indexar inteiro O índice do arquivo na lista de arquivos. Yes
tipo enumeração O tipo do caminho do arquivo. Sempre file_path.
Valores possíveis: file_path
Yes

OpenAI.AnnotationType

Property Value
Type cadeia
Values file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Uma citação para um recurso da Web usado para gerar uma resposta de modelo.

Name Tipo Description Required Default
end_index inteiro O índice do último caractere da citação de URL na mensagem. Yes
start_index inteiro O índice do primeiro caractere da citação de URL na mensagem. Yes
title cadeia O título do recurso da Web. Yes
tipo enumeração O tipo da citação de URL. Sempre url_citation.
Valores possíveis: url_citation
Yes
url cadeia URL do recurso da Web. Yes

OpenAI.ApproximateLocation

Name Tipo Description Required Default
city cadeia No
country cadeia No
região cadeia No
timezone cadeia No
tipo enumeração
Valores possíveis: approximate
Yes

OpenAI.AudioResponseFormat

O formato da saída, em uma destas opções: json, , text, srt, ou verbose_jsonvtt. Para gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15. O único formato com suporte é json.

Property Value
Description O formato da saída, em uma destas opções: json, , text, srt, ou verbose_jsonvtt. Para gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15. O único formato com suporte é json.
Type cadeia
Values json
text
srt
verbose_json
vtt

OpenAI.AutoChunkingStrategyRequestParam

A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Name Tipo Description Required Default
tipo enumeração Sempre auto.
Valores possíveis: auto
Yes

OpenAI.ChatCompletionFunctionCallOption

Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes

OpenAI.ChatCompletionFunctions

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
parameters Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON.
Consulte a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No

OpenAI.ChatCompletionMessageAudioChunk

Name Tipo Description Required Default
dados cadeia No
expires_at inteiro No
id cadeia No
transcrição cadeia No

OpenAI.ChatCompletionMessageToolCall

Name Tipo Description Required Default
função objeto A função chamada pelo modelo. Yes
└─ Argumentos cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. No
└─ nome cadeia O nome da função a ser chamada. No
id cadeia A ID da chamada da ferramenta. Yes
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
Yes

OpenAI.ChatCompletionMessageToolCallChunk

Name Tipo Description Required Default
função objeto No
└─ Argumentos cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. No
└─ nome cadeia O nome da função a ser chamada. No
id cadeia A ID da chamada da ferramenta. No
indexar inteiro Yes
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
No

OpenAI.ChatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
função objeto Yes
└─ nome cadeia O nome da função a ser chamada. No
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
Yes

OpenAI.ChatCompletionRequestAssistantMessage

Mensagens enviadas pelo modelo em resposta às mensagens do usuário.

Name Tipo Description Required Default
audio objeto Dados sobre uma resposta de áudio anterior do modelo. No
└─ id cadeia Identificador exclusivo para uma resposta de áudio anterior do modelo. No
conteúdo cadeia de caracteres ou matriz No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ Argumentos cadeia No
└─ nome cadeia No
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
refusal cadeia A mensagem de recusa do assistente. No
função enumeração A função do autor das mensagens, nesse caso, assistant.
Valores possíveis: assistant
Yes
tool_calls ChatCompletionMessageToolCallsItem As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Name Tipo Description Required Default
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
enviar SMS cadeia O conteúdo do texto. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: refusal
Yes

OpenAI.ChatCompletionRequestDeveloperMessage

Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Nos modelos o1 e mais recentes, as mensagens developer substituem as mensagens system anteriores.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso, developer.
Valores possíveis: developer
Yes

OpenAI.ChatCompletionRequestFunctionMessage

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem de função. Yes
name cadeia O nome da função a ser chamada. Yes
função enumeração A função do autor das mensagens, nesse caso, function.
Valores possíveis: function
Yes

OpenAI.ChatCompletionRequestMessage

Discriminador para OpenAI.ChatCompletionRequestMessage

Esse componente usa a propriedade role para discriminar entre diferentes tipos:

Valor do tipo Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz No
função objeto A função do autor de uma mensagem Yes

OpenAI.ChatCompletionRequestMessageContentPart

Discriminador para OpenAI.ChatCompletionRequestMessageContentPart

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Name Tipo Description Required Default
tipo OpenAI.ChatCompletionRequestMessageContentPartType Yes

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Tipo Description Required Default
input_audio objeto Yes
└─ dados cadeia Dados de áudio codificados em Base64. No
└─ Formato enumeração O formato dos dados de áudio codificados. Atualmente compatível com "wav" e "mp3".
Valores possíveis: wav, mp3
No
tipo enumeração O tipo da parte de conteúdo. Sempre input_audio.
Valores possíveis: input_audio
Yes

OpenAI.ChatCompletionRequestMessageContentPartFile

Name Tipo Description Required Default
arquivo objeto Yes
└─ dados_do_arquivo cadeia Os dados de arquivo codificados em base64, usados ao passar o arquivo para o modelo como uma cadeia de caracteres. No
└─ identificador_de_arquivo cadeia A ID de um arquivo carregado a ser usado como entrada. No
└─ nome do arquivo cadeia O nome do arquivo, usado ao passar o arquivo para o modelo como uma cadeia de caracteres. No
tipo enumeração O tipo da parte de conteúdo. Sempre file.
Valores possíveis: file
Yes

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Tipo Description Required Default
image_url objeto Yes
└─ detalhe enumeração Especifica o nível de detalhes da imagem.
Valores possíveis: auto, , lowhigh
No
└─ URL cadeia Uma URL da imagem ou os dados de imagem codificados em base64. No
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: image_url
Yes

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Tipo Description Required Default
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: refusal
Yes

OpenAI.ChatCompletionRequestMessageContentPartText

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: text
Yes

OpenAI.ChatCompletionRequestMessageContentPartType

Property Value
Type cadeia
Values text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos o1 e mais recentes, use mensagens de developer para essa finalidade.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso, system.
Valores possíveis: system
Yes

OpenAI.ChatCompletionRequestSystemMessageContentPart

Referências: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz Yes
função enumeração A função do autor das mensagens, nesse caso, tool.
Valores possíveis: tool
Yes
tool_call_id cadeia Chamada de ferramenta à qual esta mensagem está respondendo. Yes

OpenAI.ChatCompletionRequestToolMessageContentPart

Referências: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Mensagens enviadas por um usuário final, contendo prompts ou informações de contexto adicionais.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso, user.
Valores possíveis: user
Yes

OpenAI.ChatCompletionRequestUserMessageContentPart

Name Tipo Description Required Default
arquivo objeto Yes
└─ dados_do_arquivo cadeia Os dados de arquivo codificados em base64, usados ao passar o arquivo para o modelo como uma cadeia de caracteres. No
└─ identificador_de_arquivo cadeia A ID de um arquivo carregado a ser usado como entrada. No
└─ nome do arquivo cadeia O nome do arquivo, usado ao passar o arquivo para o modelo como uma cadeia de caracteres. No
image_url objeto Yes
└─ detalhe enumeração Especifica o nível de detalhes da imagem.
Valores possíveis: auto, , lowhigh
No
└─ URL cadeia Uma URL da imagem ou os dados de imagem codificados em base64. No
input_audio objeto Yes
└─ dados cadeia Dados de áudio codificados em Base64. No
└─ Formato enumeração O formato dos dados de áudio codificados. Atualmente compatível com "wav" e "mp3".
Valores possíveis: wav, mp3
No
enviar SMS cadeia O conteúdo do texto. Yes
tipo enumeração O tipo da parte de conteúdo. Sempre file.
Valores possíveis: file
Yes

OpenAI.ChatCompletionRole

A função do autor de uma mensagem

Property Value
Description A função do autor de uma mensagem
Type cadeia
Values system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Opções para resposta de streaming. Defina isso somente quando você definir stream: true.

Name Tipo Description Required Default
include_usage boolean Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia.

Todas as outras partes também incluirão um campo usage, mas com um valor nulo. NOTA: Se o fluxo for interrompido, você poderá não receber a parte de uso final que contém o uso total do token para a solicitação.
No

OpenAI.ChatCompletionStreamResponseDelta

Um delta de conclusão de chat gerado por respostas de modelo transmitidas.

Name Tipo Description Required Default
audio objeto No
└─ dados cadeia No
└─ data_de_expiração inteiro No
└─ id cadeia No
└─ transcrição cadeia No
conteúdo cadeia O conteúdo da mensagem de parte. No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ Argumentos cadeia No
└─ nome cadeia No
refusal cadeia A mensagem de recusa gerada pelo modelo. No
função objeto A função do autor de uma mensagem No
tool_calls matriz No

OpenAI.ChatCompletionTokenLogprob

Name Tipo Description Required Default
bytes matriz Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token. Yes
logprob number A probabilidade de log desse token, se ele estiver dentro dos 20 tokens mais prováveis. Caso contrário, o valor -9999.0 é usado para significar que o token é muito improvável. Yes
símbolo cadeia O token. Yes
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. Yes

OpenAI.ChatCompletionTool

Name Tipo Description Required Default
função OpenAI.FunctionObject Yes
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
Yes

OpenAI.ChatCompletionToolChoiceOption

Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.

none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente.

Name Tipo Description Required Default
função objeto Yes
└─ nome cadeia O nome da função a ser chamada. No
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
Yes

OpenAI.ChatOutputPrediction

Representação base da saída prevista de um modelo.

Discriminador para OpenAI.ChatOutputPrediction

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
content OpenAI.ChatOutputPredictionContent
Name Tipo Description Required Default
tipo OpenAI.ChatOutputPredictionType Yes

OpenAI.ChatOutputPredictionContent

Conteúdo estático de saída prevista, como o conteúdo de um arquivo de texto que está sendo regenerado.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz Yes
tipo enumeração O tipo de conteúdo previsto que você deseja fornecer. No momento, esse tipo é sempre content.
Valores possíveis: content
Yes

OpenAI.ChatOutputPredictionType

Property Value
Type cadeia
Values content

OpenAI.ChunkingStrategyRequestParam

A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto.

Discriminador do OpenAI.ChunkingStrategyRequestParam

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
static OpenAI.StaticChunkingStrategyRequestParam
Name Tipo Description Required Default
tipo enumeração O tipo de estratégia de agrupamento.
Valores possíveis: auto, static
Yes

OpenAI.ChunkingStrategyResponseParam

Discriminador para OpenAI.ChunkingStrategyResponseParam

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Name Tipo Description Required Default
tipo enumeração
Valores possíveis: static, other
Yes

OpenAI.CodeInterpreterOutput

Discriminador para OpenAI.CodeInterpreterOutput

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Tipo Description Required Default
tipo OpenAI.CodeInterpreterOutputType Yes

OpenAI.CodeInterpreterOutputImage

A saída da imagem do interpretador de código.

Name Tipo Description Required Default
tipo enumeração O tipo da saída. Sempre “imagem”.
Valores possíveis: image
Yes
url cadeia A URL da saída da imagem do interpretador de código. Yes

OpenAI.CodeInterpreterOutputLogs

A saída de logs do interpretador de código.

Name Tipo Description Required Default
logs cadeia A saída de logs do interpretador de código. Yes
tipo enumeração O tipo da saída. Sempre “logs”.
Valores possíveis: logs
Yes

OpenAI.CodeInterpreterOutputType

Property Value
Type cadeia
Values logs
image

OpenAI.CodeInterpreterTool

Uma ferramenta que executa o código Python para ajudar a gerar uma resposta a um prompt.

Name Tipo Description Required Default
contêiner objeto Configuração para um contêiner de interpretador de código. Opcionalmente, especifique as IDs dos arquivos nos quais executar o código. Yes
└─ file_ids (identificadores de arquivo) matriz Uma lista opcional de arquivos carregados a serem disponibilizados para seu código. No
└─ tipo enumeração Sempre auto.
Valores possíveis: auto
No
tipo enumeração O tipo da ferramenta de interpretador de código. Sempre code_interpreter.
Valores possíveis: code_interpreter
Yes

OpenAI.CodeInterpreterToolAuto

Configuração para um contêiner de interpretador de código. Opcionalmente, especifique as IDs dos arquivos nos quais executar o código.

Name Tipo Description Required Default
file_ids matriz Uma lista opcional de arquivos carregados a serem disponibilizados para seu código. No
tipo enumeração Sempre auto.
Valores possíveis: auto
Yes

OpenAI.CodeInterpreterToolCallItemParam

Uma chamada de ferramenta para executar o código.

Name Tipo Description Required Default
codificar cadeia O código a ser executado ou nulo se não estiver disponível. Yes
container_id cadeia A ID do contêiner usado para executar o código. Yes
saídas matriz As saídas geradas pelo interpretador de código, como logs ou imagens.
Pode ser nulo se nenhuma saída estiver disponível.
Yes
tipo enumeração
Valores possíveis: code_interpreter_call
Yes

OpenAI.CodeInterpreterToolCallItemResource

Uma chamada de ferramenta para executar o código.

Name Tipo Description Required Default
codificar cadeia O código a ser executado ou nulo se não estiver disponível. Yes
container_id cadeia A ID do contêiner usado para executar o código. Yes
saídas matriz As saídas geradas pelo interpretador de código, como logs ou imagens.
Pode ser nulo se nenhuma saída estiver disponível.
Yes
status enumeração
Valores possíveis: in_progress, , completed, incomplete, interpreting, failed
Yes
tipo enumeração
Valores possíveis: code_interpreter_call
Yes

OpenAI.ComparisonFilter

Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.

Name Tipo Description Required Default
chave cadeia A chave a ser comparada com o valor. Yes
tipo enumeração Especifica o operador de comparação: eq, , ne, gt, gte, lt, lte.
- eq: igual
- ne: não é igual a
- gt: maior que
- gte: maior ou igual a
- lt: menor que
- lte: menor ou igual.
Valores possíveis: eq, , ne, gt, gte, , ltlte
Yes
value cadeia de caracteres ou número ou booleano Yes

OpenAI.CompletionUsage

Estatísticas de uso para a solicitação de preenchimento.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens na conclusão gerada. Yes 0
completion_tokens_details objeto Divisão de tokens usados em uma conclusão. No
└─ tokens_de_predição_aceitos inteiro Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. No 0
└─ audio_tokens inteiro Tokens de entrada de áudio gerados pelo modelo. No 0
└─ tokens_de_raciocínio inteiro Tokens gerados pelo modelo para raciocínio. No 0
└─ rejected_prediction_tokens inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contabilizados no total de tokens de conclusão para fins de cobrança, saída e limites da janela de contexto. No 0
prompt_tokens inteiro Número de tokens no prompt. Yes 0
prompt_tokens_details objeto Divisão de tokens usados na solicitação. No
└─ audio_tokens inteiro Tokens de entrada de áudio presentes na solicitação. No 0
└─ tokens em cache inteiro Tokens armazenados em cache presentes no prompt. No 0
total_tokens inteiro Número total de tokens utilizados na solicitação (prompt + conclusão). Yes 0

OpenAI.CompoundFilter

Combinar vários filtros usando and ou or.

Name Tipo Description Required Default
filters matriz Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. Yes
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Yes

OpenAI.ComputerAction

Discriminador para OpenAI.ComputerAction

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Tipo Description Required Default
tipo OpenAI.ComputerActionType Yes

OpenAI.ComputerActionClick

Uma ação de clique.

Name Tipo Description Required Default
button enumeração Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back ou forward.
Valores possíveis: left, , right, wheel, back, forward
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.
Valores possíveis: click
Yes
x inteiro A coordenada x em que o clique ocorreu. Yes
y inteiro A coordenada y em que o clique ocorreu. Yes

OpenAI.ComputerActionDoubleClick

Uma ação de clique duplo.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.
Valores possíveis: double_click
Yes
x inteiro A coordenada x em que o clique duplo ocorreu. Yes
y inteiro A coordenada y em que o clique duplo ocorreu. Yes

OpenAI.ComputerActionDrag

Uma ação de arrastar.

Name Tipo Description Required Default
caminho matriz Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo,{ x: 100, y: 200 }, { x: 200, y: 300 } Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.
Valores possíveis: drag
Yes

OpenAI.ComputerActionKeyPress

Uma coleção de pressionamentos de teclas que o modelo deseja realizar.

Name Tipo Description Required Default
keys matriz A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave. Yes
tipo enumeração Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.
Valores possíveis: keypress
Yes

OpenAI.ComputerActionMove

Uma ação de movimentação do mouse.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.
Valores possíveis: move
Yes
x inteiro A coordenada x para a qual mover. Yes
y inteiro A coordenada y para a qual mover. Yes

OpenAI.ComputerActionScreenshot

Uma ação de captura de tela.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.
Valores possíveis: screenshot
Yes

OpenAI.ComputerActionScroll

Uma ação de rolagem.

Name Tipo Description Required Default
scroll_x inteiro A distância de rolagem horizontal. Yes
scroll_y inteiro A distância de rolagem vertical. Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.
Valores possíveis: scroll
Yes
x inteiro A coordenada x em que a rolagem ocorreu. Yes
y inteiro A coordenada y em que a rolagem ocorreu. Yes

OpenAI.ComputerActionType

Property Value
Type cadeia
Values screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Uma ação para digitar texto.

Name Tipo Description Required Default
enviar SMS cadeia O texto a ser digitado. Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.
Valores possíveis: type
Yes

OpenAI.ComputerActionWait

Uma ação de espera.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.
Valores possíveis: wait
Yes

OpenAI.ComputerToolCallItemParam

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Name Tipo Description Required Default
ação OpenAI.ComputerAction Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída. Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada de computador. Yes
tipo enumeração
Valores possíveis: computer_call
Yes

OpenAI.ComputerToolCallItemResource

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Name Tipo Description Required Default
ação OpenAI.ComputerAction Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída. Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada de computador. Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração
Valores possíveis: computer_call
Yes

OpenAI.ComputerToolCallOutputItemOutput

Discriminador para OpenAI.ComputerToolCallOutputItemOutput

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Tipo Description Required Default
tipo OpenAI.ComputerToolCallOutputItemOutputType Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. Yes

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Tipo Description Required Default
file_id cadeia No
image_url cadeia No
tipo enumeração
Valores possíveis: computer_screenshot
Yes

OpenAI.ComputerToolCallOutputItemOutputType

Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.

Property Value
Description Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Type cadeia
Values computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

A saída de uma chamada de ferramenta de computador.

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. No
call_id cadeia A ID da chamada da ferramenta de computador que produziu a saída. Yes
saída OpenAI.ComputerToolCallOutputItemOutput Yes
tipo enumeração
Valores possíveis: computer_call_output
Yes

OpenAI.ComputerToolCallOutputItemResource

A saída de uma chamada de ferramenta de computador.

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. No
call_id cadeia A ID da chamada da ferramenta de computador que produziu a saída. Yes
saída OpenAI.ComputerToolCallOutputItemOutput Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração
Valores possíveis: computer_call_output
Yes

OpenAI.ComputerToolCallSafetyCheck

Uma verificação de segurança pendente para a chamada de computador.

Name Tipo Description Required Default
codificar cadeia O tipo da verificação de segurança pendente. Yes
id cadeia A ID da verificação de segurança pendente. Yes
mensagem cadeia Detalhes sobre a verificação de segurança pendente. Yes

OpenAI.ComputerUsePreviewTool

Uma ferramenta que controla um computador virtual.

Name Tipo Description Required Default
display_height inteiro A altura da exibição do computador. Yes
display_width inteiro A largura da exibição do computador. Yes
ambiente enumeração O tipo de ambiente de computador a ser controlado.
Valores possíveis: windows, , mac, linux, ubuntu, browser
Yes
tipo enumeração O tipo da ferramenta de uso do computador. Sempre computer_use_preview.
Valores possíveis: computer_use_preview
Yes

OpenAI.Coordinate

Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.

Name Tipo Description Required Default
x inteiro A coordenada x. Yes
y inteiro A coordenada y. Yes

OpenAI.CreateEmbeddingResponse

Name Tipo Description Required Default
dados matriz A lista de incorporações geradas pelo modelo. Yes
modelo cadeia O nome do modelo usado para gerar a incorporação. Yes
objeto enumeração O tipo de objeto, que é sempre "lista".
Valores possíveis: list
Yes
uso objeto As informações de uso da solicitação. Yes
└─ prompt_tokens inteiro O número de tokens usados pelo prompt. No
└─ total_tokens inteiro O número total de tokens usados pela solicitação. No

OpenAI.CreateEvalItem

Uma mensagem de chat que compõe o prompt ou contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}.

Name Tipo Description Required Default
conteúdo cadeia de caracteres OpenAI.EvalItemContent Entradas de texto para o modelo – podem conter cadeias de caracteres de modelo. Yes
função enumeração A função da entrada de mensagem. Uma opção entre user, assistant, system ou developer.
Valores possíveis: user, , assistant, systemdeveloper
Yes
tipo enumeração O tipo de entrada da mensagem. Sempre message.
Valores possíveis: message
No

OpenAI.CreateEvalRunRequest

Name Tipo Description Required Default
fonte_de_dados objeto Yes
└─ tipo OpenAI.EvalRunDataSourceType No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome da execução. No

OpenAI.CreateFineTuningJobRequest

Modelos válidos:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Tipo Description Required Default
hiperparâmetros objeto Os hiperparâmetros usados no trabalho de ajuste fino.
Agora, esse valor foi preterido em favor de method, e deve ser passado sob o parâmetro method.
No
└─ tamanho_do_lote (batch_size) enumeração
Valores possíveis: auto
No
└─ multiplicador_da_taxa_de_aprendizagem enumeração
Valores possíveis: auto
No
└─ n_epochs enumeração
Valores possíveis: auto
No
Integrações matriz Uma lista de integrações para habilitar seu trabalho de ajuste fino. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
método OpenAI.FineTuneMethod O método usado no ajuste fino. No
modelo cadeia de caracteres (veja os modelos válidos abaixo) O nome do modelo a ser refinado. Yes
seed inteiro A semente controla a reprodutibilidade do trabalho. Passar os mesmos parâmetros iniciais e de trabalho deve produzir os mesmos resultados, mas pode diferir em casos raros.
Se uma semente não for especificada, uma será gerada para você.
No
suffix cadeia Uma cadeia de caracteres de até 64 caracteres que será adicionada ao seu nome de modelo ajustado.

Por exemplo, um suffix "custom-model-name" produz um nome de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No None
arquivo_de_treinamento cadeia A ID de um arquivo carregado que contém dados de treinamento. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Além disso, você deve carregar seu arquivo com a finalidade fine-tune.

O conteúdo do arquivo deve diferir dependendo se o modelo usa o formato de chat, conclusões ou se o método de ajuste fino usa o formato de preferência.
Yes
arquivo_de_validação cadeia A ID de um arquivo carregado que contém os dados de validação.

Se você fornecer esse arquivo, os dados serão usados para gerar métricas de validação periodicamente durante o ajuste fino. Essas métricas podem ser exibidas no arquivo de resultados de ajuste fino.
Os mesmos dados não devem estar presentes nos arquivos de treinamento e validação.

Seu conjunto de dados deve ser formatado como um arquivo JSONL. Você deve carregar seu arquivo com a finalidade fine-tune.
No

OpenAI.CreateFineTuningJobRequestIntegration

Discriminador para OpenAI.CreateFineTuningJobRequestIntegration

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Tipo Description Required Default
tipo cadeia de caracteres (veja os modelos válidos abaixo) Yes

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: wandb
Yes
wandb objeto Yes
└─ entidade cadeia No
└─ nome cadeia No
└─ projeto cadeia No
└─ etiquetas matriz No

OpenAI.CreateVectorStoreFileBatchRequest

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

OpenAI.CreateVectorStoreFileRequest

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_id cadeia Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

OpenAI.CreateVectorStoreRequest

Name Tipo Description Required Default
chunking_strategy objeto A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400. No
└─ estático OpenAI.StaticChunkingStrategy No
└─ tipo enumeração Sempre static.
Valores possíveis: static
No
expires_after OpenAI.VectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

OpenAI.DeleteFileResponse

Name Tipo Description Required Default
excluído boolean Yes
id cadeia Yes
objeto enumeração
Valores possíveis: file
Yes

OpenAI.DeleteVectorStoreFileResponse

Name Tipo Description Required Default
excluído boolean Yes
id cadeia Yes
objeto enumeração
Valores possíveis: vector_store.file.deleted
Yes

OpenAI.DeleteVectorStoreResponse

Name Tipo Description Required Default
excluído boolean Yes
id cadeia Yes
objeto enumeração
Valores possíveis: vector_store.deleted
Yes

OpenAI.Embedding

Representa um vetor de incorporação retornado pelo endpoint de incorporação.

Name Tipo Description Required Default
embedding matriz ou cadeia de caracteres Yes
indexar inteiro O índice da inserção na lista de inserções. Yes
objeto enumeração O tipo de objeto, que é sempre de “inserção”.
Valores possíveis: embedding
Yes

OpenAI.Eval

Um objeto Eval com critérios de teste e configuração de fonte de dados. Uma avaliação representa uma tarefa a ser concluída na sua integração de LLM. Assim como:

  • Melhorar a qualidade do meu chatbot
  • Veja como meu chatbot lida bem com o suporte ao cliente
  • Verifique se o4-mini é melhor para o meu caso de uso do que gpt-4o.
Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) da criação da avaliação. Yes
configuração_da_fonte_de_dados objeto Yes
└─ tipo OpenAI.EvalDataSourceConfigType No
id cadeia Identificador exclusivo para a avaliação. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
name cadeia O nome da avaliação. Yes
objeto enumeração O tipo de objeto.
Valores possíveis: eval
Yes
critérios_de_teste matriz Uma lista de critérios de teste. Yes None

OpenAI.EvalApiError

Um objeto que representa uma resposta de erro da API de Eval.

Name Tipo Description Required Default
codificar cadeia O código do erro. Yes
mensagem cadeia A mensagem de erro. Yes

OpenAI.EvalCompletionsRunDataSourceParams

Um objeto CompletionsRunDataSource que descreve uma configuração de amostragem de modelo.

Name Tipo Description Required Default
mensagens_de_entrada objeto No
└─ item_reference cadeia Uma referência a uma variável no namespace item. Ou seja, "item.input_trajectory" No
└─ modelo matriz Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}. No
└─ tipo enumeração O tipo de mensagens de entrada. Sempre item_reference.
Valores possíveis: item_reference
No
modelo cadeia O nome do modelo a ser usado para gerar conclusões (por exemplo, "o3-mini"). No
sampling_params AzureEvalAPICompletionsSamplingParams No
fonte objeto Yes
└─ conteúdo matriz O conteúdo do arquivo jsonl. No
└─ criado_depois inteiro Um carimbo de data/hora Unix opcional para filtrar os itens criados após esse horário. No
└─ criado_antes inteiro Um carimbo de data/hora Unix opcional para filtrar itens criados antes desse horário. No
└─ id cadeia O identificador do arquivo. No
└─ limite inteiro Um número máximo opcional de itens a serem retornados. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ modelo cadeia Um modelo opcional para filtrar (por exemplo, 'gpt-4o'). No
└─ tipo enumeração O tipo de origem. Sempre stored_completions.
Valores possíveis: stored_completions
No
tipo enumeração O tipo de fonte de dados de execução. Sempre completions.
Valores possíveis: completions
Yes

OpenAI.EvalCustomDataSourceConfigParams

Um objeto CustomDataSourceConfig que define o esquema da fonte de dados usada para as execuções de avaliação. Esse esquema é usado para definir a forma dos dados que serão:

  • Usados para definir seus critérios de teste e
  • Quais dados são necessários ao criar uma execução
Name Tipo Description Required Default
incluir_esquema_exemplo boolean Se a avaliação deve esperar que você preencha o namespace de exemplo (ou seja, gerando respostas a partir da sua fonte de dados) No False
esquema_de_item objeto O esquema json para cada linha na fonte de dados. Yes
tipo enumeração O tipo de fonte de dados. Sempre custom.
Valores possíveis: custom
Yes

OpenAI.EvalCustomDataSourceConfigResource

Um CustomDataSourceConfig que especifica o esquema dos seus namespaces item e, opcionalmente, sample. O esquema de resposta define a forma dos dados que serão:

  • Usados para definir seus critérios de teste e
  • Quais dados são necessários ao criar uma execução
Name Tipo Description Required Default
esquema objeto O esquema JSON para os itens da fonte de dados de execução.
Saiba como criar esquemas JSON aqui.
Yes
tipo enumeração O tipo de fonte de dados. Sempre custom.
Valores possíveis: custom
Yes

OpenAI.EvalDataSourceConfigParams

Discriminador para OpenAI.EvalDataSourceConfigParams

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Name Tipo Description Required Default
tipo OpenAI.EvalDataSourceConfigType Yes

OpenAI.EvalDataSourceConfigResource

Discriminador para OpenAI.EvalDataSourceConfigResource

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Name Tipo Description Required Default
tipo OpenAI.EvalDataSourceConfigType Yes

OpenAI.EvalDataSourceConfigType

Property Value
Type cadeia
Values custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Um objeto LabelModelGrader que usa um modelo para atribuir rótulos a cada item na avaliação.

Name Tipo Description Required Default
entrada matriz Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}. Yes
rótulos matriz Os rótulos para classificar cada item na avaliação. Yes
modelo cadeia O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. Yes
name cadeia O nome do avaliador. Yes
etiquetas_de_passagem matriz Os rótulos que indicam um resultado aprovado. Deve ser um subconjunto de rótulos. Yes
tipo enumeração O tipo de objeto, que é sempre label_model.
Valores possíveis: label_model
Yes

OpenAI.EvalGraderLabelModelResource

Name Tipo Description Required Default
entrada matriz Yes
rótulos matriz Os rótulos a serem atribuídos a cada item na avaliação. Yes
modelo cadeia O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. Yes
name cadeia O nome do avaliador. Yes
etiquetas_de_passagem matriz Os rótulos que indicam um resultado aprovado. Deve ser um subconjunto de rótulos. Yes
tipo enumeração O tipo de objeto, que é sempre label_model.
Valores possíveis: label_model
Yes

OpenAI.EvalGraderParams

Discriminador para OpenAI.EvalGraderParams

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Name Tipo Description Required Default
tipo OpenAI.GraderType Yes

OpenAI.EvalGraderPythonParams

Name Tipo Description Required Default
image_tag cadeia A marca da imagem a ser usada no script python. No
name cadeia O nome do avaliador. Yes
limite_de_passagem number O limite para a pontuação. No
fonte cadeia O código-fonte do script python. Yes
tipo enumeração O tipo de objeto, que é sempre python.
Valores possíveis: python
Yes

OpenAI.EvalGraderPythonResource

Name Tipo Description Required Default
image_tag cadeia A marca da imagem a ser usada no script python. No
name cadeia O nome do avaliador. Yes
limite_de_passagem number O limite para a pontuação. No
fonte cadeia O código-fonte do script python. Yes
tipo enumeração O tipo de objeto, que é sempre python.
Valores possíveis: python
Yes

OpenAI.EvalGraderResource

Discriminador para OpenAI.EvalGraderResource

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Name Tipo Description Required Default
tipo OpenAI.GraderType Yes

OpenAI.EvalGraderScoreModelParams

Name Tipo Description Required Default
entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. Yes
modelo cadeia O modelo a ser usado para a avaliação. Yes
name cadeia O nome do avaliador. Yes
limite_de_passagem number O limite para a pontuação. No
alcance matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
sampling_params Os parâmetros de amostragem do modelo. No
tipo enumeração O tipo de objeto, que é sempre score_model.
Valores possíveis: score_model
Yes

OpenAI.EvalGraderScoreModelResource

Name Tipo Description Required Default
entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. Yes
modelo cadeia O modelo a ser usado para a avaliação. Yes
name cadeia O nome do avaliador. Yes
limite_de_passagem number O limite para a pontuação. No
alcance matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
sampling_params Os parâmetros de amostragem do modelo. No
tipo enumeração O tipo de objeto, que é sempre score_model.
Valores possíveis: score_model
Yes

OpenAI.EvalGraderStringCheckParams

Name Tipo Description Required Default
entrada cadeia O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. Yes
name cadeia O nome do avaliador. Yes
operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
Yes
referência cadeia O texto de referência. Isso pode incluir cadeias de caracteres de modelo. Yes
tipo enumeração O tipo de objeto, que é sempre string_check.
Valores possíveis: string_check
Yes

OpenAI.EvalGraderTextSimilarityParams

Name Tipo Description Required Default
métrica de avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
Yes
entrada cadeia O texto que está sendo avaliado. Yes
name cadeia O nome do avaliador. Yes
limite_de_passagem number O limite para a pontuação. Yes
referência cadeia O texto de referência para avaliação. Yes
tipo enumeração O tipo de avaliador.
Valores possíveis: text_similarity
Yes

OpenAI.EvalGraderTextSimilarityResource

Name Tipo Description Required Default
métrica de avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
Yes
entrada cadeia O texto que está sendo avaliado. Yes
name cadeia O nome do avaliador. Yes
limite_de_passagem number O limite para a pontuação. Yes
referência cadeia O texto de referência para avaliação. Yes
tipo enumeração O tipo de avaliador.
Valores possíveis: text_similarity
Yes

OpenAI.EvalItem

Uma mensagem de entrada para o modelo com uma função que indica a hierarquia de instruções a seguir. As instruções fornecidas com a função developer ou system têm precedência sobre as instruções fornecidas com a função user. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.

Name Tipo Description Required Default
conteúdo objeto Yes
└─ tipo OpenAI.EvalItemContentType No
função enumeração A função da entrada de mensagem. Uma opção entre user, assistant, system ou developer.
Valores possíveis: user, , assistant, systemdeveloper
Yes
tipo enumeração O tipo de entrada da mensagem. Sempre message.
Valores possíveis: message
No

OpenAI.EvalItemContent

Discriminador para OpenAI.EvalItemContent

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Name Tipo Description Required Default
tipo OpenAI.EvalItemContentType Yes

OpenAI.EvalItemContentInputText

Name Tipo Description Required Default
enviar SMS cadeia Yes
tipo enumeração
Valores possíveis: input_text
Yes

OpenAI.EvalItemContentOutputText

Name Tipo Description Required Default
enviar SMS cadeia Yes
tipo enumeração
Valores possíveis: output_text
Yes

OpenAI.EvalItemContentType

Property Value
Type cadeia
Values input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Um objeto JsonlRunDataSource com o qual especifica um arquivo JSONL que corresponde à avaliação

Name Tipo Description Required Default
fonte objeto Yes
└─ conteúdo matriz O conteúdo do arquivo jsonl. No
└─ id cadeia O identificador do arquivo. No
└─ tipo enumeração Tipo de fonte jsonl. Sempre file_id.
Valores possíveis: file_id
No
tipo enumeração O tipo de fonte de dados. Sempre jsonl.
Valores possíveis: jsonl
Yes

OpenAI.EvalList

Um objeto que representa uma lista de valores.

Name Tipo Description Required Default
dados matriz Uma matriz de objetos de avaliação. Yes
first_id cadeia O identificador da primeira avaliação na matriz de dados. Yes
has_more boolean Indica se há mais avaliações disponíveis. Yes
last_id cadeia O identificador da última avaliação na matriz de dados. Yes
objeto enumeração O tipo desse objeto. Ele é sempre definido como "lista".
Valores possíveis: list
Yes

OpenAI.EvalLogsDataSourceConfigParams

Uma configuração de fonte de dados que especifica a propriedade dos metadados da consulta de logs. Geralmente, são metadados como usecase=chatbot ou prompt-version=v2etc.

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
tipo enumeração O tipo de fonte de dados. Sempre logs.
Valores possíveis: logs
Yes

OpenAI.EvalLogsDataSourceConfigResource

Um LogsDataSourceConfig que especifica a propriedade de metadados da consulta de logs. Geralmente, são metadados como usecase=chatbot ou prompt-version=v2etc. O esquema retornado por essa configuração de fonte de dados é usado para definir quais variáveis estão disponíveis em suas avaliações. item e sample ambos são definidos ao usar essa configuração de fonte de dados.

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
esquema objeto O esquema JSON para os itens da fonte de dados de execução.
Saiba como criar esquemas JSON aqui.
Yes
tipo enumeração O tipo de fonte de dados. Sempre logs.
Valores possíveis: logs
Yes

OpenAI.EvalResponsesRunDataSourceParams

Um objeto ResponsesRunDataSource que descreve uma configuração de amostragem de modelo.

Name Tipo Description Required Default
mensagens_de_entrada objeto No
└─ item_reference cadeia Uma referência a uma variável no namespace item. Ou seja, "item.name" No
└─ modelo matriz Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao namespace item, ou seja, {{item.name}}. No
└─ tipo enumeração O tipo de mensagens de entrada. Sempre item_reference.
Valores possíveis: item_reference
No
modelo cadeia O nome do modelo a ser usado para gerar conclusões (por exemplo, "o3-mini"). No
sampling_params AzureEvalAPIResponseSamplingParams No
fonte objeto Yes
└─ conteúdo matriz O conteúdo do arquivo jsonl. No
└─ criado_depois inteiro Inclua somente itens criados após esse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ criado_antes inteiro Inclua somente itens criados antes desse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ id cadeia O identificador do arquivo. No
└─ instruções_busca cadeia Cadeia de caracteres opcional para pesquisar o campo “instruções”. Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ modelo cadeia O nome do modelo para o qual se quer encontrar respostas. Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ esforço_de_raciocínio OpenAI.ReasoningEffort Parâmetro de esforço de raciocínio opcional. Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ temperatura number Temperatura de amostragem. Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ ferramentas matriz Lista de nomes de ferramentas. Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ top_p number Parâmetro de amostragem de núcleo. Esse é um parâmetro de consulta usado para selecionar respostas. No
└─ tipo enumeração O tipo de fonte de dados de execução. Sempre responses.
Valores possíveis: responses
No
└─ usuários matriz Lista de identificadores de usuário. Esse é um parâmetro de consulta usado para selecionar respostas. No
tipo enumeração O tipo de fonte de dados de execução. Sempre responses.
Valores possíveis: responses
Yes

OpenAI.EvalRun

Um esquema que representa um processo de avaliação.

Name Tipo Description Required Default
created_at inteiro Carimbo de data/hora Unix (em segundos) da criação da execução de avaliação. Yes
fonte_de_dados objeto Yes
└─ tipo OpenAI.EvalRunDataSourceType No
erro OpenAI.EvalApiError Um objeto que representa uma resposta de erro da API de Eval. Yes
eval_id cadeia O identificador da avaliação associada. Yes
id cadeia Identificador exclusivo para a execução da avaliação. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
modelo cadeia O modelo que é avaliado, se aplicável. Yes
name cadeia O nome da execução da avaliação. Yes
objeto enumeração O tipo do objeto. Sempre "eval.run".
Valores possíveis: eval.run
Yes
per_model_usage matriz Estatísticas de uso para cada modelo durante a execução da avaliação. Yes
resultados_por_critério_de_teste matriz Resultados por critérios de teste aplicados durante a execução da avaliação. Yes
report_url cadeia A URL para o relatório da execução da avaliação no painel da interface do usuário. Yes
contagem_de_resultados objeto Contadores que resumem os resultados da execução da avaliação. Yes
└─ erro inteiro Número de itens de saída que resultaram em um erro. No
└─ falha inteiro Número de itens de saída que não passaram na avaliação. No
└─ aprovado inteiro Número de itens de saída que passaram na avaliação. No
└─ total inteiro Número total de itens de saída executados. No
status cadeia O status da execução da avaliação. Yes

OpenAI.EvalRunDataContentSource

Discriminador para OpenAI.EvalRunDataContentSource

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Name Tipo Description Required Default
tipo OpenAI.EvalRunDataContentSourceType Yes

OpenAI.EvalRunDataContentSourceType

Property Value
Type cadeia
Values file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: completions
Yes

OpenAI.EvalRunDataSourceJsonlResource

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: jsonl
Yes

OpenAI.EvalRunDataSourceParams

Discriminador para OpenAI.EvalRunDataSourceParams

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Name Tipo Description Required Default
tipo OpenAI.EvalRunDataSourceType Yes

OpenAI.EvalRunDataSourceResource

Name Tipo Description Required Default
tipo OpenAI.EvalRunDataSourceType Yes

OpenAI.EvalRunDataSourceResponsesResource

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: responses
Yes

OpenAI.EvalRunDataSourceType

Property Value
Type cadeia
Values jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Name Tipo Description Required Default
conteúdo matriz O conteúdo do arquivo jsonl. Yes
tipo enumeração Tipo de fonte jsonl. Sempre file_content.
Valores possíveis: file_content
Yes

OpenAI.EvalRunFileIdDataContentSource

Name Tipo Description Required Default
id cadeia O identificador do arquivo. Yes
tipo enumeração Tipo de fonte jsonl. Sempre file_id.
Valores possíveis: file_id
Yes

OpenAI.EvalRunList

Um objeto que representa uma lista de execuções para uma avaliação.

Name Tipo Description Required Default
dados matriz Uma matriz de objetos de execução de avaliação. Yes
first_id cadeia O identificador da primeira execução de avaliação na matriz de dados. Yes
has_more boolean Indica se há mais avaliações disponíveis. Yes
last_id cadeia O identificador da última execução de avaliação na matriz de dados. Yes
objeto enumeração O tipo desse objeto. Ele é sempre definido como "lista".
Valores possíveis: list
Yes

OpenAI.EvalRunOutputItem

Um esquema que representa um item de saída de um processo de avaliação.

Name Tipo Description Required Default
created_at inteiro Carimbo de data/hora Unix (em segundos) da criação da execução de avaliação. Yes
datasource_item objeto Detalhes do item da fonte de dados de entrada. Yes
identificador_do_item_da_fonte_de_dados inteiro O identificador do item da fonte de dados. Yes
eval_id cadeia O identificador do grupo de avaliação. Yes
id cadeia Identificador exclusivo para o item de saída da execução da avaliação. Yes
objeto enumeração O tipo do objeto. Sempre "eval.run.output_item".
Valores possíveis: eval.run.output_item
Yes
results matriz Uma lista de resultados do processo de avaliação. Yes
run_id cadeia O identificador da execução de avaliação associada a este item de saída. Yes
amostra objeto Uma amostra contendo a entrada e a saída da execução da avaliação. Yes
└─ erro OpenAI.EvalApiError Um objeto que representa uma resposta de erro da API de Eval. No
└─ motivo_de_conclusão cadeia O motivo pelo qual a geração da amostra foi concluída. No
└─ entrada matriz Uma matriz de mensagens de entrada. No
└─ max_completion_tokens (máximo de tokens de conclusão) inteiro O número máximo de tokens permitido para conclusão. No
└─ modelo cadeia O modelo usado para gerar o exemplo. No
└─ saída matriz Uma matriz de mensagens de saída. No
└─ semente inteiro A semente usada para gerar a amostra. No
└─ temperatura number A temperatura de amostragem usada. No
└─ top_p number O valor top_p usado para amostragem. No
└─ uso objeto Detalhes de uso do token para o exemplo. No
└─ tokens em cache inteiro O número de tokens recuperados do cache. No
└─ completion_tokens inteiro O número de tokens de conclusão gerados. No
└─ prompt_tokens inteiro O número de tokens de prompt usados. No
└─ total_tokens inteiro O número total de tokens usados. No
status cadeia O status da execução da avaliação. Yes

OpenAI.EvalRunOutputItemList

Um objeto que representa uma lista de itens de saída para uma execução de avaliação.

Name Tipo Description Required Default
dados matriz Uma matriz de objetos de item de saída de execução de avaliação. Yes
first_id cadeia O identificador do primeiro item de saída da execução de avaliação na matriz de dados. Yes
has_more boolean Indica se há mais itens de saída de execução de avaliação disponíveis. Yes
last_id cadeia O identificador do último item de saída da execução de avaliação na matriz de dados. Yes
objeto enumeração O tipo desse objeto. Ele é sempre definido como "lista".
Valores possíveis: list
Yes

OpenAI.EvalRunResponsesDataContentSource

Um objeto EvalResponsesSource que descreve uma configuração de fonte de dados de execução.

Name Tipo Description Required Default
created_after inteiro Inclua somente itens criados após esse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. No
criado_antes inteiro Inclua somente itens criados antes desse carimbo de data/hora (inclusive). Esse é um parâmetro de consulta usado para selecionar respostas. No
instructions_search cadeia Cadeia de caracteres opcional para pesquisar o campo “instruções”. Esse é um parâmetro de consulta usado para selecionar respostas. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia O nome do modelo para o qual se quer encontrar respostas. Esse é um parâmetro de consulta usado para selecionar respostas. No
reasoning_effort objeto somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
temperature number Temperatura de amostragem. Esse é um parâmetro de consulta usado para selecionar respostas. No
tools matriz Lista de nomes de ferramentas. Esse é um parâmetro de consulta usado para selecionar respostas. No
top_p number Parâmetro de amostragem de núcleo. Esse é um parâmetro de consulta usado para selecionar respostas. No
tipo enumeração O tipo de fonte de dados de execução. Sempre responses.
Valores possíveis: responses
Yes
users matriz Lista de identificadores de usuário. Esse é um parâmetro de consulta usado para selecionar respostas. No

OpenAI.EvalRunStoredCompletionsDataContentSource

Uma configuração StoredCompletionsRunDataSource que descreve um conjunto de filtros

Name Tipo Description Required Default
created_after inteiro Um carimbo de data/hora Unix opcional para filtrar os itens criados após esse horário. No
criado_antes inteiro Um carimbo de data/hora Unix opcional para filtrar itens criados antes desse horário. No
limit inteiro Um número máximo opcional de itens a serem retornados. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
modelo cadeia Um modelo opcional para filtrar (por exemplo, 'gpt-4o'). No
tipo enumeração O tipo de origem. Sempre stored_completions.
Valores possíveis: stored_completions
Yes

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Preterido em favor de LogsDataSourceConfig.

Name Tipo Description Required Default
metadados objeto Filtros de metadados da fonte de dados de conclusões armazenadas. No
tipo enumeração O tipo de fonte de dados. Sempre stored_completions.
Valores possíveis: stored_completions
Yes

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Preterido em favor de LogsDataSourceConfig.

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
esquema objeto O esquema JSON para os itens da fonte de dados de execução.
Saiba como criar esquemas JSON aqui.
Yes
tipo enumeração O tipo de fonte de dados. Sempre stored_completions.
Valores possíveis: stored_completions
Yes

OpenAI.FileSearchTool

Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.

Name Tipo Description Required Default
filters objeto No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. No
ranking_options objeto No
└─ ranker enumeração O classificador a ser usado para a pesquisa de arquivos.
Valores possíveis: auto, default-2024-11-15
No
└─ limite_de_pontuação number O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. No
tipo enumeração O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.
Valores possíveis: file_search
Yes
vector_store_ids matriz Os IDs dos repositórios de vetores a serem pesquisados. Yes

OpenAI.FileSearchToolCallItemParam

Os resultados de uma chamada de ferramenta de pesquisa de arquivo.

Name Tipo Description Required Default
queries matriz As consultas usadas para pesquisar arquivos. Yes
results matriz Os resultados da chamada da ferramenta de pesquisa de arquivos. No
tipo enumeração
Valores possíveis: file_search_call
Yes

OpenAI.FileSearchToolCallItemResource

Os resultados de uma chamada de ferramenta de pesquisa de arquivo.

Name Tipo Description Required Default
queries matriz As consultas usadas para pesquisar arquivos. Yes
results matriz Os resultados da chamada da ferramenta de pesquisa de arquivos. No
status enumeração O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress, searchingincomplete ou failed.
Valores possíveis: in_progress, , searching, completed, incomplete, failed
Yes
tipo enumeração
Valores possíveis: file_search_call
Yes

OpenAI.Filters

Name Tipo Description Required Default
filters matriz Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. Yes
chave cadeia A chave a ser comparada com o valor. Yes
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Yes
value cadeia de caracteres ou número ou booleano O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. Yes

OpenAI.FineTuneDPOHyperparameters

Os hiperparâmetros usados no trabalho de ajuste fino do DPO.

Name Tipo Description Required Default
tamanho_do_lote enumeração
Valores possíveis: auto
No
beta enumeração
Valores possíveis: auto
No
multiplicador_da_taxa_de_aprendizado enumeração
Valores possíveis: auto
No
n_épocas enumeração
Valores possíveis: auto
No

OpenAI.FineTuneDPOMethod

Configuração do método de ajuste fino do DPO.

Name Tipo Description Required Default
hiperparâmetros OpenAI.FineTuneDPOHyperparameters Os hiperparâmetros usados no trabalho de ajuste fino do DPO. No

OpenAI.FineTuneMethod

O método usado no ajuste fino.

Name Tipo Description Required Default
dpo OpenAI.FineTuneDPOMethod Configuração do método de ajuste fino do DPO. No
reforço AzureFineTuneReinforcementMethod No
Supervisionado OpenAI.FineTuneSupervisedMethod Configuração do método de ajuste fino a ser supervisionado. No
tipo enumeração O tipo de método. É, supervised, dpoou reinforcement.
Valores possíveis: supervised, , dporeinforcement
Yes

OpenAI.FineTuneReinforcementHyperparameters

Os hiperparâmetros usados no trabalho de ajuste fino de reforço.

Name Tipo Description Required Default
tamanho_do_lote enumeração
Valores possíveis: auto
No
compute_multiplier enumeração
Valores possíveis: auto
No
eval_interval enumeração
Valores possíveis: auto
No
eval_samples enumeração
Valores possíveis: auto
No
multiplicador_da_taxa_de_aprendizado enumeração
Valores possíveis: auto
No
n_épocas enumeração
Valores possíveis: auto
No
reasoning_effort enumeração Nível de esforço de raciocínio.
Valores possíveis: default, , low, mediumhigh
No

OpenAI.FineTuneSupervisedHyperparameters

Os hiperparâmetros usados no trabalho de ajuste fino.

Name Tipo Description Required Default
tamanho_do_lote enumeração
Valores possíveis: auto
No
multiplicador_da_taxa_de_aprendizado enumeração
Valores possíveis: auto
No
n_épocas enumeração
Valores possíveis: auto
No

OpenAI.FineTuneSupervisedMethod

Configuração do método de ajuste fino a ser supervisionado.

Name Tipo Description Required Default
hiperparâmetros OpenAI.FineTuneSupervisedHyperparameters Os hiperparâmetros usados no trabalho de ajuste fino. No

OpenAI.FineTuningIntegration

Discriminatório para OpenAI.FineTuningIntegration

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Tipo Description Required Default
tipo cadeia de caracteres (veja os modelos válidos abaixo) Yes

OpenAI.FineTuningIntegrationWandb

Name Tipo Description Required Default
tipo enumeração O tipo da integração que está sendo ativada para a tarefa de ajuste fino.
Valores possíveis: wandb
Yes
wandb objeto As configurações para sua integração com Pesos e Vieses. Esse conteúdo especifica o projeto para o qual as métricas serão enviadas. Opcionalmente, você pode definir um nome de exibição explícito para sua execução, adicionar marcas à sua execução e definir uma entidade padrão (equipe, nome de usuário etc) para ser associada à sua execução. Yes
└─ entidade cadeia A entidade a ser usada para a execução. Isso permite definir a equipe ou o nome de usuário do usuário do WandB que você quer associar à execução. Se não estiver definido, será usada a entidade padrão para a chave de API do WandB registrada. No
└─ nome cadeia Um nome de exibição a ser definido para a execução. Se não estiver definido, usaremos a ID do trabalho como o nome. No
└─ projeto cadeia O nome do projeto no qual a nova execução será criada. No
└─ etiquetas matriz Uma lista de marcas a serem anexadas à execução recém-criada. Essas marcas são passadas diretamente para o WandB. Algumas tags padrão são geradas pelo OpenAI: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". No

OpenAI.FineTuningJob

O objeto fine_tuning.job representa um trabalho de ajuste fino que foi criado pela API.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) da criação da tarefa de ajuste fino. Yes
erro objeto Quanto aos trabalhos de ajuste fino que tenham failed, isso conterá mais informações sobre a causa da falha. Yes
└─ código cadeia Um código de erro legível pelo computador. No
Mensagem └─ cadeia Uma mensagem de erro legível por humanos. No
└─ param cadeia O parâmetro que era inválido, geralmente training_file ou validation_file. Esse campo será nulo se a falha não tiver sido específica do parâmetro. No
estimativa de conclusão inteiro O carimbo de data/hora unix (em segundos) para quando o trabalho de ajuste fino é estimado para ser concluído. O valor será nulo se o trabalho de ajuste fino não estiver em execução. No
fine_tuned_model cadeia O nome do modelo ajustado que está sendo criado. O valor será nulo se o trabalho de ajuste fino ainda estiver em execução. Yes
finished_at inteiro O carimbo de data/hora Unix (em segundos) de quando o trabalho de ajuste fino foi concluído. O valor será nulo se o trabalho de ajuste fino ainda estiver em execução. Yes
hiperparâmetros objeto Os hiperparâmetros usados no trabalho de ajuste fino. Esse valor só será retornado ao executar os trabalhos supervised. Yes
└─ tamanho_do_lote (batch_size) enumeração
Valores possíveis: auto
No
└─ multiplicador_da_taxa_de_aprendizagem enumeração
Valores possíveis: auto
No
└─ n_epochs enumeração
Valores possíveis: auto
No
id cadeia O identificador do objeto, que pode ser referenciado nos pontos de extremidade da API. Yes
Integrações matriz Uma lista de integrações para habilitar esse trabalho de ajuste fino. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
método OpenAI.FineTuneMethod O método usado no ajuste fino. No
modelo cadeia O modelo base que está sendo ajustado. Yes
objeto enumeração O tipo de objeto, o qual será sempre "fine_tuning.job".
Valores possíveis: fine_tuning.job
Yes
organization_id cadeia A organização que possui o trabalho de ajuste fino. Yes
arquivos_de_resultado matriz As IDs do arquivo de resultados compilados para o trabalho de ajuste fino. Você pode recuperar os resultados com a API de Arquivos. Yes
seed inteiro A posição inicial usada para o trabalho de ajuste fino. Yes
status enumeração O status atual do trabalho de ajuste fino, que pode ser validating_files, queued, running, succeeded, failed ou cancelled.
Valores possíveis: validating_files, , queued, running, succeeded, , failedcancelled
Yes
trained_tokens inteiro O número total de tokens faturáveis processados por esse trabalho de ajuste fino. O valor será nulo se o trabalho de ajuste fino ainda estiver em execução. Yes
arquivo_de_treinamento cadeia A ID do arquivo usada para treinamento. Você pode recuperar os dados de treinamento com a API de Arquivos. Yes
user_provided_suffix cadeia O sufixo descritivo aplicado ao trabalho, conforme especificado na solicitação de criação do trabalho. No
arquivo_de_validação cadeia A ID do arquivo usada para validação. Você pode recuperar os resultados de validação com a API de Arquivos. Yes

OpenAI.FineTuningJobCheckpoint

O objeto fine_tuning.job.checkpoint representa um ponto de verificação de modelo para um trabalho de ajuste fino que está pronto para ser usado.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora unix (em segundos) para quando o ponto de verificação foi criado. Yes
fine_tuned_model_checkpoint cadeia O nome do modelo de ponto de verificação ajustado que é criado. Yes
fine_tuning_job_id cadeia O nome do trabalho de ajuste fino do qual esse ponto de verificação foi criado. Yes
id cadeia O identificador de ponto de verificação, que pode ser referenciado nos pontos de extremidade da API. Yes
métricas objeto Métricas no número da etapa durante o trabalho de ajuste fino. Yes
└─ full_valid_loss number No
└─ full_valid_mean_token_accuracy number No
└─ etapa number No
└─ train_loss number No
└─ train_mean_token_accuracy number No
└─ perda_de_validação number No
└─ precisão_média_dos_tokens_válidos number No
objeto enumeração O tipo de objeto, o qual será sempre "fine_tuning.job.checkpoint".
Valores possíveis: fine_tuning.job.checkpoint
Yes
número_do_passo inteiro O número da etapa em que o ponto de verificação foi criado. Yes

OpenAI.FineTuningJobEvent

Ajustar objeto de evento de trabalho

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) da criação da tarefa de ajuste fino. Yes
dados Os dados associados ao evento. No
id cadeia O identificador do objeto. Yes
nível enumeração O nível de log do evento.
Valores possíveis: info, , warnerror
Yes
mensagem cadeia A mensagem do evento. Yes
objeto enumeração O tipo de objeto, o qual será sempre "fine_tuning.job.event".
Valores possíveis: fine_tuning.job.event
Yes
tipo enumeração O tipo do evento.
Valores possíveis: message, metrics
No

OpenAI.FunctionObject

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
parameters Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. No
strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no campo parameters. Somente um subconjunto de esquema JSON tem suporte quando strict é true. No False

OpenAI.FunctionTool

Define uma função em seu próprio código que o modelo pode optar por chamar.

Name Tipo Description Required Default
description cadeia Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada. No
name cadeia O nome da função a ser chamada. Yes
parameters Um objeto de esquema JSON que descreve os parâmetros da função. Yes
strict boolean Se deve impor a validação estrita de parâmetro. Padrão true. Yes
tipo enumeração O tipo da ferramenta de função. Sempre function.
Valores possíveis: function
Yes

OpenAI.FunctionToolCallItemParam

Uma chamada de ferramenta para executar uma função.

Name Tipo Description Required Default
arguments cadeia Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. Yes
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. Yes
name cadeia O nome da função a ser executada. Yes
tipo enumeração
Valores possíveis: function_call
Yes

OpenAI.FunctionToolCallItemResource

Uma chamada de ferramenta para executar uma função.

Name Tipo Description Required Default
arguments cadeia Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. Yes
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. Yes
name cadeia O nome da função a ser executada. Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração
Valores possíveis: function_call
Yes

OpenAI.FunctionToolCallOutputItemParam

A saída de uma chamada de ferramenta de função.

Name Tipo Description Required Default
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. Yes
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. Yes
tipo enumeração
Valores possíveis: function_call_output
Yes

OpenAI.FunctionToolCallOutputItemResource

A saída de uma chamada de ferramenta de função.

Name Tipo Description Required Default
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. Yes
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração
Valores possíveis: function_call_output
Yes

OpenAI.Grader

Discriminador do OpenAI.Grader

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Name Tipo Description Required Default
tipo OpenAI.GraderType Yes

OpenAI.GraderLabelModel

Um objeto LabelModelGrader que usa um modelo para atribuir rótulos a cada item na avaliação.

Name Tipo Description Required Default
entrada matriz Yes
rótulos matriz Os rótulos a serem atribuídos a cada item na avaliação. Yes
modelo cadeia O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. Yes
name cadeia O nome do avaliador. Yes
etiquetas_de_passagem matriz Os rótulos que indicam um resultado aprovado. Deve ser um subconjunto de rótulos. Yes
tipo enumeração O tipo de objeto, que é sempre label_model.
Valores possíveis: label_model
Yes

OpenAI.GraderMulti

Um objeto MultiGrader combina os resultados de vários avaliadores para produzir uma única pontuação.

Name Tipo Description Required Default
calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. Yes
Série objeto Yes
name cadeia O nome do avaliador. Yes
tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
Yes

OpenAI.GraderPython

Um objeto PythonGrader que executa um script python na entrada.

Name Tipo Description Required Default
image_tag cadeia A marca da imagem a ser usada no script python. No
name cadeia O nome do avaliador. Yes
fonte cadeia O código-fonte do script python. Yes
tipo enumeração O tipo de objeto, que é sempre python.
Valores possíveis: python
Yes

OpenAI.GraderScoreModel

Um objeto ScoreModelGrader que usa um modelo para atribuir uma pontuação à entrada.

Name Tipo Description Required Default
entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. Yes
modelo cadeia O modelo a ser usado para a avaliação. Yes
name cadeia O nome do avaliador. Yes
alcance matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
sampling_params Os parâmetros de amostragem do modelo. No
tipo enumeração O tipo de objeto, que é sempre score_model.
Valores possíveis: score_model
Yes

OpenAI.GraderStringCheck

Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada.

Name Tipo Description Required Default
entrada cadeia O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. Yes
name cadeia O nome do avaliador. Yes
operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
Yes
referência cadeia O texto de referência. Isso pode incluir cadeias de caracteres de modelo. Yes
tipo enumeração O tipo de objeto, que é sempre string_check.
Valores possíveis: string_check
Yes

OpenAI.GraderTextSimilarity

Um objeto TextSimilarityGrader que classifica o texto com base em métricas de similaridade.

Name Tipo Description Required Default
métrica de avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
Yes
entrada cadeia O texto que está sendo avaliado. Yes
name cadeia O nome do avaliador. Yes
referência cadeia O texto de referência para avaliação. Yes
tipo enumeração O tipo de avaliador.
Valores possíveis: text_similarity
Yes

OpenAI.GraderType

Property Value
Type cadeia
Values string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Uma ferramenta que gera imagens usando um modelo como gpt-image-1.5.

Name Tipo Description Required Default
em segundo plano enumeração Tipo de plano de fundo para a imagem gerada. Uma opção entre transparent, opaque ou auto. Padrão: auto.
Valores possíveis: transparent, , opaqueauto
No
input_image_mask objeto Máscara opcional para inpainting. Contém image_url (cadeia de caracteres, opcional) e file_id (cadeia de caracteres, opcional). No
└─ identificador_de_arquivo cadeia ID do arquivo para a imagem da máscara. No
└─ URL da imagem cadeia Imagem de máscara codificada em Base64. No
modelo enumeração O modelo de geração de imagem a ser usado. Padrão: gpt-image-1.
Valores possíveis: gpt-image-1, gpt-image-1.5
No
moderation enumeração Nível de moderação para a imagem gerada. Padrão: auto.
Valores possíveis: auto, low
No
output_compression inteiro Nível de compactação para a imagem de saída. Padrão: 100. No 100
output_format enumeração O formato de saída da imagem gerada. Uma opção entre png, webp ou jpeg. Padrão: png.
Valores possíveis: png, , webpjpeg
No
partial_images inteiro Número de imagens parciais a serem geradas no modo de streaming, de 0 (valor padrão) a 3. No 0
quality enumeração A qualidade da imagem gerada. Uma opção entre low, medium, high ou auto. Padrão: auto.
Valores possíveis: low, , medium, highauto
No
size enumeração O tamanho da imagem gerada. Uma opção entre 1024x1024, 1024x1536, 1536x1024 ou auto. Padrão: auto.
Valores possíveis: 1024x1024, , 1024x1536, 1536x1024auto
No
tipo enumeração O tipo da ferramenta de geração de imagem. Sempre image_generation.
Valores possíveis: image_generation
Yes

OpenAI.ImageGenToolCallItemParam

Uma solicitação de geração de imagem feita pelo modelo.

Name Tipo Description Required Default
result cadeia A imagem gerada codificada em base64. Yes
tipo enumeração
Valores possíveis: image_generation_call
Yes

OpenAI.ImageGenToolCallItemResource

Uma solicitação de geração de imagem feita pelo modelo.

Name Tipo Description Required Default
result cadeia A imagem gerada codificada em base64. Yes
status enumeração
Valores possíveis: in_progress, , completed, generatingfailed
Yes
tipo enumeração
Valores possíveis: image_generation_call
Yes

OpenAI.ImplicitUserMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz Yes

OpenAI.Includable

Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:

  • code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.
  • computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
  • file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos.
  • message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
  • message.output_text.logprobs: inclua logprobs com mensagens de assistente.
  • reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero).
Property Value
Description Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
- code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.
- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.
- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
- message.output_text.logprobs: inclua os logprobs com mensagens de assistente.
- reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero).
Type cadeia
Values code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Discriminador para OpenAI.ItemContent

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Tipo Description Required Default
tipo OpenAI.ItemContentType Conteúdo de entrada e saída multi modal. Yes

OpenAI.ItemContentInputAudio

Uma entrada de áudio para o modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio codificados em Base64. Yes
format enumeração O formato dos dados de áudio. Os formatos com suporte no momento são mp3 e wav.
Valores possíveis: mp3, wav
Yes
tipo enumeração O tipo do item de entrada. Sempre input_audio.
Valores possíveis: input_audio
Yes

OpenAI.ItemContentInputFile

Uma entrada de arquivo para o modelo.

Name Tipo Description Required Default
file_data cadeia O conteúdo do arquivo a ser enviado para o modelo. No
file_id cadeia A ID do arquivo a ser enviado para o modelo. No
filename cadeia O nome do arquivo a ser enviado para o modelo. No
tipo enumeração O tipo do item de entrada. Sempre input_file.
Valores possíveis: input_file
Yes

OpenAI.ItemContentInputImage

Uma entrada de imagem para o modelo.

Name Tipo Description Required Default
detail enumeração O nível de detalhes da imagem a ser enviada para o modelo. Uma opção entre high, low ou auto. Usa auto como padrão.
Valores possíveis: low, , highauto
No
file_id cadeia A ID do arquivo a ser enviado para o modelo. No
image_url cadeia A URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou uma imagem codificada em base64 em uma URL de dados. No
tipo enumeração O tipo do item de entrada. Sempre input_image.
Valores possíveis: input_image
Yes

OpenAI.ItemContentInputText

Uma entrada de texto para o modelo.

Name Tipo Description Required Default
enviar SMS cadeia A entrada de texto para o modelo. Yes
tipo enumeração O tipo do item de entrada. Sempre input_text.
Valores possíveis: input_text
Yes

OpenAI.ItemContentOutputAudio

Uma saída de áudio do modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio do modelo codificados em Base64. Yes
transcrição cadeia A transcrição dos dados de áudio provenientes do modelo. Yes
tipo enumeração O tipo do áudio de saída. Sempre output_audio.
Valores possíveis: output_audio
Yes

OpenAI.ItemContentOutputText

Uma saída de texto do modelo.

Name Tipo Description Required Default
annotations matriz As anotações da saída de texto. Yes
logprobs matriz No
enviar SMS cadeia A saída de texto do modelo. Yes
tipo enumeração O tipo do texto de saída. Sempre output_text.
Valores possíveis: output_text
Yes

OpenAI.ItemContentRefusal

Uma recusa do modelo.

Name Tipo Description Required Default
refusal cadeia A explicação da recusa do modelo. Yes
tipo enumeração O tipo da recusa. Sempre refusal.
Valores possíveis: refusal
Yes

OpenAI.ItemContentType

Conteúdo de entrada e saída multi modal.

Property Value
Description Conteúdo de entrada e saída multi modal.
Type cadeia
Values input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Item de conteúdo usado para gerar uma resposta.

Discriminador para OpenAI.ItemParam

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Name Tipo Description Required Default
tipo OpenAI.ItemType Yes

OpenAI.ItemReferenceItemParam

Um identificador interno para um item a ser referenciado.

Name Tipo Description Required Default
id cadeia A ID originada pelo serviço do item de resposta gerado anteriormente sendo referenciado. Yes
tipo enumeração
Valores possíveis: item_reference
Yes

OpenAI.ItemResource

Item de conteúdo usado para gerar uma resposta.

Discriminador para OpenAI.ItemResource

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Name Tipo Description Required Default
id cadeia Yes
tipo OpenAI.ItemType Yes

OpenAI.ItemType

Property Value
Type cadeia
Values message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia No
has_more boolean Yes
last_id cadeia No
objeto enumeração
Valores possíveis: list
Yes

OpenAI.ListFineTuningJobEventsResponse

Name Tipo Description Required Default
dados matriz Yes
has_more boolean Yes
objeto enumeração
Valores possíveis: list
Yes

OpenAI.ListModelsResponse

Name Tipo Description Required Default
dados matriz Yes
objeto enumeração
Valores possíveis: list
Yes

OpenAI.ListPaginatedFineTuningJobsResponse

Name Tipo Description Required Default
dados matriz Yes
has_more boolean Yes
objeto enumeração
Valores possíveis: list
Yes

OpenAI.ListVectorStoreFilesFilter

Property Value
Type cadeia
Values in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto enumeração
Valores possíveis: list
Yes

OpenAI.ListVectorStoresResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto enumeração
Valores possíveis: list
Yes

OpenAI.LocalShellExecAction

Execute um comando shell no servidor.

Name Tipo Description Required Default
command matriz O comando a ser executado. Yes
env objeto Variáveis de ambiente a serem definidas para o comando. Yes
tempo_de_espera_ms inteiro Tempo limite opcional em milissegundos para o comando. No
tipo enumeração O tipo da ação do shell local. Sempre exec.
Valores possíveis: exec
Yes
usuário cadeia Usuário opcional para executar o comando como. No
working_directory cadeia Diretório de trabalho opcional para executar o comando. No

OpenAI.LocalShellTool

Uma ferramenta que permite que o modelo execute comandos de shell em um ambiente local.

Name Tipo Description Required Default
tipo enumeração O tipo da ferramenta de shell local. Sempre local_shell.
Valores possíveis: local_shell
Yes

OpenAI.LocalShellToolCallItemParam

Uma chamada de ferramenta para executar um comando no shell local.

Name Tipo Description Required Default
ação OpenAI.LocalShellExecAction Execute um comando shell no servidor. Yes
call_id cadeia A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. Yes
tipo enumeração
Valores possíveis: local_shell_call
Yes

OpenAI.LocalShellToolCallItemResource

Uma chamada de ferramenta para executar um comando no shell local.

Name Tipo Description Required Default
ação OpenAI.LocalShellExecAction Execute um comando shell no servidor. Yes
call_id cadeia A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. Yes
status enumeração
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração
Valores possíveis: local_shell_call
Yes

OpenAI.LocalShellToolCallOutputItemParam

A saída de uma chamada de ferramenta de shell local.

Name Tipo Description Required Default
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de shell local. Yes
tipo enumeração
Valores possíveis: local_shell_call_output
Yes

OpenAI.LocalShellToolCallOutputItemResource

A saída de uma chamada de ferramenta de shell local.

Name Tipo Description Required Default
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de shell local. Yes
status enumeração
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração
Valores possíveis: local_shell_call_output
Yes

OpenAI.Location

Discriminador para OpenAI.Location

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
approximate OpenAI.ApproximateLocation
Name Tipo Description Required Default
tipo OpenAI.LocationType Yes

OpenAI.LocationType

Property Value
Type cadeia
Values approximate

OpenAI.LogProb

A probabilidade de log de um token.

Name Tipo Description Required Default
bytes matriz Yes
logprob number Yes
símbolo cadeia Yes
top_logprobs matriz Yes

OpenAI.MCPApprovalRequestItemParam

Uma solicitação de aprovação humana de uma invocação de ferramenta.

Name Tipo Description Required Default
arguments cadeia Uma string JSON de argumentos para a ferramenta. Yes
name cadeia O nome da ferramenta a ser executada. Yes
server_label cadeia O rótulo do servidor MCP que está fazendo a solicitação. Yes
tipo enumeração
Valores possíveis: mcp_approval_request
Yes

OpenAI.MCPApprovalRequestItemResource

Uma solicitação de aprovação humana de uma invocação de ferramenta.

Name Tipo Description Required Default
arguments cadeia Uma string JSON de argumentos para a ferramenta. Yes
name cadeia O nome da ferramenta a ser executada. Yes
server_label cadeia O rótulo do servidor MCP que está fazendo a solicitação. Yes
tipo enumeração
Valores possíveis: mcp_approval_request
Yes

OpenAI.MCPApprovalResponseItemParam

Uma resposta a uma solicitação de aprovação do MCP.

Name Tipo Description Required Default
approval_request_id cadeia A ID da solicitação de aprovação que está sendo respondida. Yes
approve boolean Se a solicitação foi aprovada. Yes
reason cadeia Motivo opcional para a decisão. No
tipo enumeração
Valores possíveis: mcp_approval_response
Yes

OpenAI.MCPApprovalResponseItemResource

Uma resposta a uma solicitação de aprovação do MCP.

Name Tipo Description Required Default
approval_request_id cadeia A ID da solicitação de aprovação que está sendo respondida. Yes
approve boolean Se a solicitação foi aprovada. Yes
reason cadeia Motivo opcional para a decisão. No
tipo enumeração
Valores possíveis: mcp_approval_response
Yes

OpenAI.MCPCallItemParam

Uma invocação de uma ferramenta em um servidor MCP.

Name Tipo Description Required Default
arguments cadeia Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. Yes
erro cadeia O erro da chamada da ferramenta, se houver. No
name cadeia O nome da ferramenta que foi executada. Yes
saída cadeia A saída da chamada da ferramenta. No
server_label cadeia O rótulo do servidor MCP que executa a ferramenta. Yes
tipo enumeração
Valores possíveis: mcp_call
Yes

OpenAI.MCPCallItemResource

Uma invocação de uma ferramenta em um servidor MCP.

Name Tipo Description Required Default
arguments cadeia Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. Yes
erro cadeia O erro da chamada da ferramenta, se houver. No
name cadeia O nome da ferramenta que foi executada. Yes
saída cadeia A saída da chamada da ferramenta. No
server_label cadeia O rótulo do servidor MCP que executa a ferramenta. Yes
tipo enumeração
Valores possíveis: mcp_call
Yes

OpenAI.MCPListToolsItemParam

Uma lista de ferramentas disponíveis em um servidor MCP.

Name Tipo Description Required Default
erro cadeia Mensagem de erro se o servidor não puder listar ferramentas. No
server_label cadeia O rótulo do servidor MCP. Yes
tools matriz As ferramentas disponíveis no servidor. Yes
tipo enumeração
Valores possíveis: mcp_list_tools
Yes

OpenAI.MCPListToolsItemResource

Uma lista de ferramentas disponíveis em um servidor MCP.

Name Tipo Description Required Default
erro cadeia Mensagem de erro se o servidor não puder listar ferramentas. No
server_label cadeia O rótulo do servidor MCP. Yes
tools matriz As ferramentas disponíveis no servidor. Yes
tipo enumeração
Valores possíveis: mcp_list_tools
Yes

OpenAI.MCPListToolsTool

Uma ferramenta disponível em um servidor MCP.

Name Tipo Description Required Default
annotations Anotações adicionais sobre a ferramenta. No
description cadeia A descrição da ferramenta. No
input_schema O esquema JSON que descreve a entrada da ferramenta. Yes
name cadeia O nome da ferramenta. Yes

OpenAI.MCPTool

Conceda ao modelo acesso a ferramentas adicionais por meio de servidores remotos do Protocolo de Contexto de Modelo.

Name Tipo Description Required Default
allowed_tools objeto No
└─ nomes_das_ferramentas matriz Lista de nomes de ferramentas permitidos. No
headers objeto Cabeçalhos HTTP opcionais para enviar ao servidor MCP. Use para autenticação ou outras finalidades. No
require_approval objeto (consulte modelos válidos abaixo) Especifique quais das ferramentas do servidor MCP exigem aprovação. No
server_label cadeia Um rótulo para esse servidor MCP, usado para identificá-lo em chamadas de ferramenta. Yes
server_url cadeia A URL do servidor MCP. Yes
tipo enumeração O tipo da ferramenta MCP. Sempre mcp.
Valores possíveis: mcp
Yes

OpenAI.MetadataPropertyForRequest

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No

OpenAI.Model

Descreve uma oferta do modelo OpenAI que pode ser usada com a API.

Name Tipo Description Required Default
created inteiro O carimbo de data/hora unix (em segundos) quando o modelo foi criado. Yes
id cadeia O identificador de modelo, que pode ser referenciado nos pontos de extremidade da API. Yes
objeto enumeração O tipo de objeto, que é sempre "modelo".
Valores possíveis: model
Yes
owned_by cadeia A organização que possui o modelo. Yes

OpenAI.OtherChunkingStrategyResponseParam

Isso é retornado quando a estratégia de divisão em partes é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do conceito de chunking_strategy ser introduzido na API.

Name Tipo Description Required Default
tipo enumeração Sempre other.
Valores possíveis: other
Yes

OpenAI.ParallelToolCalls

Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.

Tipo: booliano

OpenAI.Prompt

Referência a um modelo de prompt e suas variáveis.

Name Tipo Description Required Default
id cadeia O identificador exclusivo do modelo de prompt a ser usado. Yes
Variáveis objeto Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. No
versão cadeia Versão opcional do modelo de prompt. No

OpenAI.RankingOptions

Name Tipo Description Required Default
classificador enumeração O classificador a ser usado para a pesquisa de arquivos.
Valores possíveis: auto, default-2024-11-15
No
score_threshold number O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. No

OpenAI.Reasoning

somente modelos da série o

Name Tipo Description Required Default
Esforço objeto somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
generate_summary enumeração Preterido: use summary em vez disso.

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No

OpenAI.ReasoningEffort

somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.

Property Value
Description somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
Type cadeia
Values low
medium
high

OpenAI.ReasoningItemParam

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta. Certifique-se de incluir esses itens em inputpara a API de Respostas para as próximas rodadas de uma conversa se você estiver gerenciando manualmente o contexto.

Name Tipo Description Required Default
encrypted_content cadeia O conteúdo criptografado do item de raciocínio - preenchido quando uma resposta é gerada com reasoning.encrypted_content no parâmetro include. No
resumo matriz Conteúdo de texto de raciocínio. Yes
tipo enumeração
Valores possíveis: reasoning
Yes

OpenAI.ReasoningItemResource

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta. Certifique-se de incluir esses itens em inputpara a API de Respostas para as próximas rodadas de uma conversa se você estiver gerenciando manualmente o contexto.

Name Tipo Description Required Default
encrypted_content cadeia O conteúdo criptografado do item de raciocínio - preenchido quando uma resposta é gerada com reasoning.encrypted_content no parâmetro include. No
resumo matriz Conteúdo de texto de raciocínio. Yes
tipo enumeração
Valores possíveis: reasoning
Yes

OpenAI.ReasoningItemSummaryPart

Discriminador para OpenAI.ReasoningItemSummaryPart

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Tipo Description Required Default
tipo OpenAI.ReasoningItemSummaryPartType Yes

OpenAI.ReasoningItemSummaryPartType

Property Value
Type cadeia
Values summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Tipo Description Required Default
enviar SMS cadeia Yes
tipo enumeração
Valores possíveis: summary_text
Yes

OpenAI.Response

Name Tipo Description Required Default
em segundo plano boolean Se a resposta do modelo deve ser executada em segundo plano. No False
created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. Yes
erro objeto Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. Yes
└─ código OpenAI.ResponseErrorCode O código de erro da resposta. No
Mensagem └─ cadeia Uma descrição do erro legível para humanos. No
id cadeia Identificador exclusivo para esta resposta. Yes
incomplete_details objeto Detalhes sobre por que a resposta está incompleta. Yes
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
instructions cadeia de caracteres ou matriz Yes
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
Yes
saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
Yes
output_text cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. Yes True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
solicitação objeto Referência a um modelo de prompt e suas variáveis. No
└─ id cadeia O identificador exclusivo do modelo de prompt a ser usado. No
└─ variáveis OpenAI.ResponsePromptVariables Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos. No
└─ versão cadeia Versão opcional do modelo de prompt. No
reasoning objeto somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ esforço OpenAI.ReasoningEffort somente modelos da série o

Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
No
└─ gerar_resumo enumeração Preterido: use summary em vez disso.

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
└─ resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre auto, concise ou detailed.
Valores possíveis: auto, , concisedetailed
No
status enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
Yes
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
tool_choice objeto Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
No
└─ tipo OpenAI.ToolChoiceObjectType Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
Yes
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. Yes

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Emitido quando um snippet de código parcial é transmitido pelo interpretador de código.

Name Tipo Description Required Default
delta cadeia O snippet de código parcial que está sendo transmitido pelo interpretador de código. Yes
item_id cadeia O identificador exclusivo do item de chamada da ferramenta interpretadora de código. Yes
output_index inteiro O índice do item de saída na resposta para o qual o código está sendo transmitido. Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call_code.delta.
Valores possíveis: response.code_interpreter_call_code.delta
Yes

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Emitido quando o snippet de código é finalizado pelo interpretador de código.

Name Tipo Description Required Default
codificar cadeia A saída final do snippet de código pelo intérprete de código. Yes
item_id cadeia O identificador exclusivo do item de chamada da ferramenta interpretadora de código. Yes
output_index inteiro O índice do item de saída na resposta para a qual o código é finalizado. Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call_code.done.
Valores possíveis: response.code_interpreter_call_code.done
Yes

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Emitido quando a chamada do interpretador de código é concluída.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de chamada da ferramenta interpretadora de código. Yes
output_index inteiro O índice do item de saída na resposta para a qual a chamada do interpretador de código é concluída. Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.completed.
Valores possíveis: response.code_interpreter_call.completed
Yes

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Emitido quando uma chamada de interpretador de código está em andamento.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de chamada da ferramenta interpretadora de código. Yes
output_index inteiro O índice do item de saída na resposta para a qual a chamada do interpretador de código está em andamento. Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.in_progress.
Valores possíveis: response.code_interpreter_call.in_progress
Yes

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Emitido quando o interpretador de código está interpretando ativamente o snippet de código.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de chamada da ferramenta interpretadora de código. Yes
output_index inteiro O índice do item de saída na resposta para a qual o interpretador de código está interpretando o código. Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.interpreting.
Valores possíveis: response.code_interpreter_call.interpreting
Yes

OpenAI.ResponseCompletedEvent

Emitido quando a resposta do modelo é concluída.

Name Tipo Description Required Default
response objeto Yes
└─ plano de fundo boolean Se a resposta do modelo deve ser executada em segundo plano. No False
└─ created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. No
└─ erro OpenAI.ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. No
└─ id cadeia Identificador exclusivo para esta resposta. No
└─ detalhes_incompletos objeto Detalhes sobre por que a resposta está incompleta. No
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
└─ instruções cadeia de caracteres ou matriz Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
└─ max_output_tokens (número máximo de tokens de saída) inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
└─ max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
No
└─ saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
No
└─ texto_de_saida cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
└─ parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
└─ ID_de_resposta_anterior cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
└─ comando OpenAI.Prompt Referência a um modelo de prompt e suas variáveis. No
└─ raciocínio OpenAI.Reasoning somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ estado enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
└─ temperatura number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No
└─ texto objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
└─ escolha_de_ferramenta OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. No
└─ ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
└─ top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
└─ top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No
└─ truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
└─ uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
└─ usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No
tipo enumeração O tipo de evento. Sempre response.completed.
Valores possíveis: response.completed
Yes

OpenAI.ResponseContentPartAddedEvent

Emitido quando uma nova parte de conteúdo é adicionada.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que foi adicionada. Yes
item_id cadeia A ID do item de saída ao qual a parte de conteúdo foi adicionada. Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada. Yes
part objeto Yes
└─ tipo OpenAI.ItemContentType Conteúdo de entrada e saída multi modal. No
tipo enumeração O tipo de evento. Sempre response.content_part.added.
Valores possíveis: response.content_part.added
Yes

OpenAI.ResponseContentPartDoneEvent

Emitido quando uma parte do conteúdo é concluída.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que está concluída. Yes
item_id cadeia A ID do item de saída ao qual a parte de conteúdo foi adicionada. Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada. Yes
part objeto Yes
└─ tipo OpenAI.ItemContentType Conteúdo de entrada e saída multi modal. No
tipo enumeração O tipo de evento. Sempre response.content_part.done.
Valores possíveis: response.content_part.done
Yes

OpenAI.ResponseCreatedEvent

Um evento emitido quando uma resposta é criada.

Name Tipo Description Required Default
response objeto Yes
└─ plano de fundo boolean Se a resposta do modelo deve ser executada em segundo plano. No False
└─ created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. No
└─ erro OpenAI.ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. No
└─ id cadeia Identificador exclusivo para esta resposta. No
└─ detalhes_incompletos objeto Detalhes sobre por que a resposta está incompleta. No
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
└─ instruções cadeia de caracteres ou matriz Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
└─ max_output_tokens (número máximo de tokens de saída) inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
└─ max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
No
└─ saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
No
└─ texto_de_saida cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
└─ parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
└─ ID_de_resposta_anterior cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
└─ comando OpenAI.Prompt Referência a um modelo de prompt e suas variáveis. No
└─ raciocínio OpenAI.Reasoning somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ estado enumeração O status da geração de resposta. Uma opção entre completed, failed,
in_progress, cancelled, queuedou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
└─ temperatura number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No
└─ texto objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
└─ escolha_de_ferramenta OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. No
└─ ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
└─ top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
└─ top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No
└─ truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
└─ uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
└─ usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No
tipo enumeração O tipo de evento. Sempre response.created.
Valores possíveis: response.created
Yes

OpenAI.ResponseError

Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.

Name Tipo Description Required Default
codificar OpenAI.ResponseErrorCode O código de erro da resposta. Yes
mensagem cadeia Uma descrição do erro legível para humanos. Yes

OpenAI.ResponseErrorCode

O código de erro da resposta.

Property Value
Description O código de erro da resposta.
Type cadeia
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Emitido quando ocorre um erro.

Name Tipo Description Required Default
codificar cadeia O código do erro. Yes
mensagem cadeia A mensagem de erro. Yes
param cadeia O parâmetro de erro. Yes
tipo enumeração O tipo de evento. Sempre error.
Valores possíveis: error
Yes

OpenAI.ResponseFailedEvent

Um evento emitido quando uma resposta falha.

Name Tipo Description Required Default
response objeto Yes
└─ plano de fundo boolean Se a resposta do modelo deve ser executada em segundo plano. No False
└─ created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. No
└─ erro OpenAI.ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. No
└─ id cadeia Identificador exclusivo para esta resposta. No
└─ detalhes_incompletos objeto Detalhes sobre por que a resposta está incompleta. No
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
└─ instruções cadeia de caracteres ou matriz Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
└─ max_output_tokens (número máximo de tokens de saída) inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
└─ max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
No
└─ saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
No
└─ texto_de_saida cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
└─ parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
└─ ID_de_resposta_anterior cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
└─ comando OpenAI.Prompt Referência a um modelo de prompt e suas variáveis. No
└─ raciocínio OpenAI.Reasoning somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ estado enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
└─ temperatura number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No
└─ texto objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
└─ escolha_de_ferramenta OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. No
└─ ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
└─ top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
└─ top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No
└─ truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
└─ uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
└─ usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No
tipo enumeração O tipo de evento. Sempre response.failed.
Valores possíveis: response.failed
Yes

OpenAI.ResponseFileSearchCallCompletedEvent

Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.completed.
Valores possíveis: response.file_search_call.completed
Yes

OpenAI.ResponseFileSearchCallInProgressEvent

Emitido quando uma chamada de pesquisa de arquivo é iniciada.

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.in_progress.
Valores possíveis: response.file_search_call.in_progress
Yes

OpenAI.ResponseFileSearchCallSearchingEvent

Emitido quando uma pesquisa de arquivo está em andamento.

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.searching.
Valores possíveis: response.file_search_call.searching
Yes

OpenAI.ResponseFormat

Discriminador para OpenAI.ResponseFormat

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Tipo Description Required Default
tipo enumeração
Valores possíveis: text, , json_objectjson_schema
Yes

OpenAI.ResponseFormatJsonObject

Formato de resposta de objeto JSON. Um método mais antigo de geração de respostas JSON. O uso json_schema é recomendado para modelos que dão suporte a ele. Observe que o modelo não gerará JSON sem um sistema ou mensagem de usuário instruindo-o a fazê-lo.

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_object.
Valores possíveis: json_object
Yes

OpenAI.ResponseFormatJsonSchema

Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas.

Name Tipo Description Required Default
json_schema objeto Opções de configuração de Saídas Estruturadas, incluindo um esquema JSON. Yes
└─ descrição cadeia Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. No
└─ nome cadeia O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. No
└─ esquema OpenAI.ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Saiba como criar esquemas JSON aqui.
No
└─ rigoroso boolean Se deseja habilitar a adesão estrita do esquema ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true.
No False
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_schema.
Valores possíveis: json_schema
Yes

OpenAI.ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui.

Tipo: objeto

OpenAI.ResponseFormatText

Formato de resposta padrão. Usado para gerar respostas de texto.

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre text.
Valores possíveis: text
Yes

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Emitido quando há um delta de argumentos parciais de chamada de função.

Name Tipo Description Required Default
delta cadeia O delta de argumentos de chamada de função que é adicionado. Yes
item_id cadeia A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. Yes
output_index inteiro O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado. Yes
tipo enumeração O tipo de evento. Sempre response.function_call_arguments.delta.
Valores possíveis: response.function_call_arguments.delta
Yes

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Emitido quando os argumentos de chamada de função são finalizados.

Name Tipo Description Required Default
arguments cadeia Os argumentos de chamada de função. Yes
item_id cadeia O ID do item. Yes
output_index inteiro O índice do item de saída. Yes
tipo enumeração
Valores possíveis: response.function_call_arguments.done
Yes

OpenAI.ResponseImageGenCallCompletedEvent

Emitido quando uma chamada de ferramenta de geração de imagem é concluída e a imagem final está disponível.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de geração de imagem que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Sempre 'response.image_generation_call.completed'.
Valores possíveis: response.image_generation_call.completed
Yes

OpenAI.ResponseImageGenCallGeneratingEvent

Emitido quando uma chamada de ferramenta de geração de imagem está gerando ativamente uma imagem (estado intermediário).

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de geração de imagem que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Always 'response.image_generation_call.generating'.
Valores possíveis: response.image_generation_call.generating
Yes

OpenAI.ResponseImageGenCallInProgressEvent

Emitido quando uma chamada de ferramenta de geração de imagem está em andamento.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de geração de imagem que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Always 'response.image_generation_call.in_progress'.
Valores possíveis: response.image_generation_call.in_progress
Yes

OpenAI.ResponseImageGenCallPartialImageEvent

Emitido quando uma imagem parcial está disponível durante o streaming de geração de imagem.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de geração de imagem que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
partial_image_b64 cadeia Dados de imagem parciais codificados em Base64, adequados para renderização como uma imagem. Yes
partial_image_index inteiro Índice baseado em 0 para a imagem parcial (o back-end é baseado em 1, mas é baseado em 0 para o usuário). Yes
tipo enumeração O tipo de evento. Sempre 'response.image_generation_call.partial_image'.
Valores possíveis: response.image_generation_call.partial_image
Yes

OpenAI.ResponseInProgressEvent

Emitido quando a resposta está em andamento.

Name Tipo Description Required Default
response objeto Yes
└─ plano de fundo boolean Se a resposta do modelo deve ser executada em segundo plano. No False
└─ created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. No
└─ erro OpenAI.ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. No
└─ id cadeia Identificador exclusivo para esta resposta. No
└─ detalhes_incompletos objeto Detalhes sobre por que a resposta está incompleta. No
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
└─ instruções cadeia de caracteres ou matriz Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
└─ max_output_tokens (número máximo de tokens de saída) inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
└─ max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
No
└─ saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
No
└─ texto_de_saida cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
└─ parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
└─ ID_de_resposta_anterior cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
└─ comando OpenAI.Prompt Referência a um modelo de prompt e suas variáveis. No
└─ raciocínio OpenAI.Reasoning somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ estado enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
└─ temperatura number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No
└─ texto objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
└─ escolha_de_ferramenta OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. No
└─ ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
└─ top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
└─ top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No
└─ truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
└─ uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
└─ usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No
tipo enumeração O tipo de evento. Sempre response.in_progress.
Valores possíveis: response.in_progress
Yes

OpenAI.ResponseIncompleteEvent

Um evento emitido quando uma resposta é concluída como incompleta.

Name Tipo Description Required Default
response objeto Yes
└─ plano de fundo boolean Se a resposta do modelo deve ser executada em segundo plano. No False
└─ created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. No
└─ erro OpenAI.ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. No
└─ id cadeia Identificador exclusivo para esta resposta. No
└─ detalhes_incompletos objeto Detalhes sobre por que a resposta está incompleta. No
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
└─ instruções cadeia de caracteres ou matriz Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
└─ max_output_tokens (número máximo de tokens de saída) inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
└─ max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
No
└─ saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
No
└─ texto_de_saida cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
└─ parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
└─ ID_de_resposta_anterior cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
└─ comando OpenAI.Prompt Referência a um modelo de prompt e suas variáveis. No
└─ raciocínio OpenAI.Reasoning somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ estado enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
└─ temperatura number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No
└─ texto objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
└─ escolha_de_ferramenta OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. No
└─ ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
└─ top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
└─ top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No
└─ truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
└─ uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
└─ usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No
tipo enumeração O tipo de evento. Sempre response.incomplete.
Valores possíveis: response.incomplete
Yes

OpenAI.ResponseItemList

Uma lista de itens de resposta.

Name Tipo Description Required Default
dados matriz Uma lista de itens usados para gerar essa resposta. Yes
first_id cadeia A ID do primeiro item da lista. Yes
has_more boolean Se há mais itens disponíveis. Yes
last_id cadeia A ID do último item da lista. Yes
objeto enumeração O tipo de objeto retornado deve ser list.
Valores possíveis: list
Yes

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Emitido quando há um delta (atualização parcial) para os argumentos de uma chamada de ferramenta MCP.

Name Tipo Description Required Default
delta A atualização parcial para os argumentos da chamada da ferramenta MCP. Yes
item_id cadeia O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Sempre 'response.mcp_call.arguments_delta'.
Valores possíveis: response.mcp_call.arguments_delta
Yes

OpenAI.ResponseMCPCallArgumentsDoneEvent

Emitido quando os argumentos de uma chamada de ferramenta MCP são finalizados.

Name Tipo Description Required Default
arguments Os argumentos finalizados para a chamada da ferramenta MCP. Yes
item_id cadeia O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Sempre 'response.mcp_call.arguments_done'.
Valores possíveis: response.mcp_call.arguments_done
Yes

OpenAI.ResponseMCPCallCompletedEvent

Emitido quando uma chamada de ferramenta MCP é concluída com êxito.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Always 'response.mcp_call.completed'.
Valores possíveis: response.mcp_call.completed
Yes

OpenAI.ResponseMCPCallFailedEvent

Emitido quando uma chamada de ferramenta MCP falha.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre 'response.mcp_call.falhou'.
Valores possíveis: response.mcp_call.failed
Yes

OpenAI.ResponseMCPCallInProgressEvent

Emitido quando uma chamada de ferramenta MCP está em andamento.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Always 'response.mcp_call.in_progress'.
Valores possíveis: response.mcp_call.in_progress
Yes

OpenAI.ResponseMCPListToolsCompletedEvent

Emitido quando a lista de ferramentas MCP disponíveis foi recuperada com êxito.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre 'response.mcp_list_tools.completed'.
Valores possíveis: response.mcp_list_tools.completed
Yes

OpenAI.ResponseMCPListToolsFailedEvent

Emitido quando a tentativa de listar as ferramentas MCP disponíveis falhou.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre 'response.mcp_list_tools.falhou'.
Valores possíveis: response.mcp_list_tools.failed
Yes

OpenAI.ResponseMCPListToolsInProgressEvent

Emitido quando o sistema está no processo de recuperação da lista de ferramentas MCP disponíveis.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre 'response.mcp_list_tools.in_progress'.
Valores possíveis: response.mcp_list_tools.in_progress
Yes

OpenAI.ResponseOutputItemAddedEvent

Emitido quando um novo item de saída é adicionado.

Name Tipo Description Required Default
item objeto Item de conteúdo usado para gerar uma resposta. Yes
└─ id cadeia No
└─ tipo OpenAI.ItemType No
output_index inteiro O índice do item de saída que foi adicionado. Yes
tipo enumeração O tipo de evento. Sempre response.output_item.added.
Valores possíveis: response.output_item.added
Yes

OpenAI.ResponseOutputItemDoneEvent

Emitido quando um item de saída é marcado como concluído.

Name Tipo Description Required Default
item objeto Item de conteúdo usado para gerar uma resposta. Yes
└─ id cadeia No
└─ tipo OpenAI.ItemType No
output_index inteiro O índice do item de saída que foi marcado como concluído. Yes
tipo enumeração O tipo de evento. Sempre response.output_item.done.
Valores possíveis: response.output_item.done
Yes

OpenAI.ResponsePromptVariables

Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.

Tipo: objeto

OpenAI.ResponseQueuedEvent

Emitido quando uma resposta é enfileirada e aguardando para ser processada.

Name Tipo Description Required Default
response objeto Yes
└─ plano de fundo boolean Se a resposta do modelo deve ser executada em segundo plano. No False
└─ created_at inteiro Unix timestamp (em segundos) de quando esta Resposta foi criada. No
└─ erro OpenAI.ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. No
└─ id cadeia Identificador exclusivo para esta resposta. No
└─ detalhes_incompletos objeto Detalhes sobre por que a resposta está incompleta. No
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
└─ instruções cadeia de caracteres ou matriz Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
└─ max_output_tokens (número máximo de tokens de saída) inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio No
└─ max_tool_calls inteiro O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas. No
└─ metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
└─ objeto enumeração O tipo de objeto desse recurso – sempre definido como response.
Valores possíveis: response
No
└─ saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
No
└─ texto_de_saida cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
└─ parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. No True
└─ ID_de_resposta_anterior cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
└─ comando OpenAI.Prompt Referência a um modelo de prompt e suas variáveis. No
└─ raciocínio OpenAI.Reasoning somente modelos da série o

Opções de configuração para modelos de raciocínio.
No
└─ estado enumeração O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.
Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete
No
└─ temperatura number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No
└─ texto objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. No
└─ Formato OpenAI.ResponseTextFormatConfiguration No
└─ escolha_de_ferramenta OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. No
└─ ferramentas matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo.
No
└─ top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. No
└─ top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No
└─ truncamento enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
Valores possíveis: auto, disabled
No
└─ uso OpenAI.ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. No
└─ usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. No
tipo enumeração O tipo de evento. Sempre 'response.enfileirado'.
Valores possíveis: response.queued
Yes

OpenAI.ResponseReasoningDeltaEvent

Emitido quando há um delta (atualização parcial) no conteúdo do raciocínio.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo de raciocínio dentro do item de saída. Yes
delta A atualização parcial para o conteúdo de raciocínio. Yes
item_id cadeia O identificador único do item para o qual o raciocínio está sendo atualizado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
tipo enumeração O tipo de evento. Sempre 'response.reasoning.delta'.
Valores possíveis: response.reasoning.delta
Yes

OpenAI.ResponseReasoningDoneEvent

Emitido quando o conteúdo do raciocínio é finalizado para um item.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo de raciocínio dentro do item de saída. Yes
item_id cadeia O identificador exclusivo do item para o qual o raciocínio é finalizado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
enviar SMS cadeia O texto de raciocínio finalizado. Yes
tipo enumeração O tipo de evento. Sempre 'response.reasoning.done'.
Valores possíveis: response.reasoning.done
Yes

OpenAI.ResponseReasoningSummaryDeltaEvent

Emitido quando há uma atualização parcial (delta) no conteúdo do resumo de raciocínio.

Name Tipo Description Required Default
delta A atualização parcial para o conteúdo de resumo do raciocínio. Yes
item_id cadeia O identificador exclusivo do item para o qual o resumo do raciocínio está sendo atualizado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
summary_index inteiro O índice da parte de resumo dentro do item de saída. Yes
tipo enumeração O tipo de evento. Sempre "response.reasoning_summary.delta".
Valores possíveis: response.reasoning_summary.delta
Yes

OpenAI.ResponseReasoningSummaryDoneEvent

Emitido quando o conteúdo do resumo do raciocínio é finalizado para um item.

Name Tipo Description Required Default
item_id cadeia O identificador exclusivo do item para o qual o resumo do raciocínio é finalizado. Yes
output_index inteiro O índice do item de saída na matriz de saída da resposta. Yes
summary_index inteiro O índice da parte de resumo dentro do item de saída. Yes
enviar SMS cadeia O texto de resumo do raciocínio finalizado. Yes
tipo enumeração O tipo de evento. Always 'response.reasoning_summary.done'.
Valores possíveis: response.reasoning_summary.done
Yes

OpenAI.ResponseReasoningSummaryPartAddedEvent

Emitido quando uma nova parte de resumo de raciocínio é adicionada.

Name Tipo Description Required Default
item_id cadeia A ID do item à qual essa parte de resumo está associada. Yes
output_index inteiro O índice do item de saída ao qual essa parte de resumo está associada. Yes
part objeto Yes
└─ tipo OpenAI.ReasoningItemSummaryPartType No
summary_index inteiro O índice da parte de resumo dentro do resumo do raciocínio. Yes
tipo enumeração O tipo de evento. Sempre response.reasoning_summary_part.added.
Valores possíveis: response.reasoning_summary_part.added
Yes

OpenAI.ResponseReasoningSummaryPartDoneEvent

Emitido quando uma parte do resumo do raciocínio é concluída.

Name Tipo Description Required Default
item_id cadeia A ID do item à qual essa parte de resumo está associada. Yes
output_index inteiro O índice do item de saída ao qual essa parte de resumo está associada. Yes
part objeto Yes
└─ tipo OpenAI.ReasoningItemSummaryPartType No
summary_index inteiro O índice da parte de resumo dentro do resumo do raciocínio. Yes
tipo enumeração O tipo de evento. Sempre response.reasoning_summary_part.done.
Valores possíveis: response.reasoning_summary_part.done
Yes

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Emitido quando um delta é adicionado a um texto de resumo lógico.

Name Tipo Description Required Default
delta cadeia O delta de texto que foi adicionado ao resumo. Yes
item_id cadeia A ID do item ao qual este delta de texto de resumo está associado. Yes
output_index inteiro O índice do item de saída ao qual este delta de texto de resumo está associado. Yes
summary_index inteiro O índice da parte de resumo dentro do resumo do raciocínio. Yes
tipo enumeração O tipo de evento. Sempre response.reasoning_summary_text.delta.
Valores possíveis: response.reasoning_summary_text.delta
Yes

OpenAI.ResponseReasoningSummaryTextDoneEvent

Emitido quando um texto de resumo de raciocínio é concluído.

Name Tipo Description Required Default
item_id cadeia A ID do item ao qual este texto de resumo está associado. Yes
output_index inteiro O índice do item de saída ao qual este texto de resumo está associado. Yes
summary_index inteiro O índice da parte de resumo dentro do resumo do raciocínio. Yes
enviar SMS cadeia O texto completo do resumo do raciocínio concluído. Yes
tipo enumeração O tipo de evento. Sempre response.reasoning_summary_text.done.
Valores possíveis: response.reasoning_summary_text.done
Yes

OpenAI.ResponseRefusalDeltaEvent

Emitido quando há um texto de recusa parcial.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o texto de recusa é adicionado. Yes
delta cadeia O texto de recusa que é adicionado. Yes
item_id cadeia A ID do item de saída ao qual o texto de recusa é adicionado. Yes
output_index inteiro O índice do item de saída ao qual o texto de recusa é adicionado. Yes
tipo enumeração O tipo de evento. Sempre response.refusal.delta.
Valores possíveis: response.refusal.delta
Yes

OpenAI.ResponseRefusalDoneEvent

Emitido quando o texto de recusa é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que o texto de recusa é finalizado. Yes
item_id cadeia A ID do item de saída em que o texto de recusa é finalizado. Yes
output_index inteiro O índice do item de saída em que o texto de recusa é finalizado. Yes
refusal cadeia O texto finalizado de recusa. Yes
tipo enumeração O tipo de evento. Sempre response.refusal.done.
Valores possíveis: response.refusal.done
Yes

OpenAI.ResponseStreamEvent

Discriminador para OpenAI.ResponseStreamEvent

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Tipo Description Required Default
sequence_number inteiro O número sequencial para esse evento. Yes
tipo OpenAI.ResponseStreamEventType Yes

OpenAI.ResponseStreamEventType

Property Value
Type cadeia
Values response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Emitido quando há um delta de texto adicional.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o delta de texto foi adicionado. Yes
delta cadeia O delta de texto que foi adicionado. Yes
item_id cadeia A ID do item de saída ao qual o delta de texto foi adicionado. Yes
output_index inteiro O índice do item de saída ao qual o delta de texto foi adicionado. Yes
tipo enumeração O tipo de evento. Sempre response.output_text.delta.
Valores possíveis: response.output_text.delta
Yes

OpenAI.ResponseTextDoneEvent

Emitido quando o conteúdo do texto é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que o conteúdo do texto é finalizado. Yes
item_id cadeia A ID do item de saída em que o conteúdo do texto é finalizado. Yes
output_index inteiro O índice do item de saída que o conteúdo do texto é finalizado. Yes
enviar SMS cadeia O conteúdo do texto finalizado. Yes
tipo enumeração O tipo de evento. Sempre response.output_text.done.
Valores possíveis: response.output_text.done
Yes

OpenAI.ResponseTextFormatConfiguration

Discriminador para OpenAI.ResponseTextFormatConfiguration

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Tipo Description Required Default
tipo OpenAI.ResponseTextFormatConfigurationType Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
Yes

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: json_object
Yes

OpenAI.ResponseTextFormatConfigurationJsonSchema

Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas.

Name Tipo Description Required Default
description cadeia Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. No
name cadeia O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
esquema OpenAI.ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Saiba como criar esquemas JSON aqui.
Yes
strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true.
No False
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_schema.
Valores possíveis: json_schema
Yes

OpenAI.ResponseTextFormatConfigurationText

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: text
Yes

OpenAI.ResponseTextFormatConfigurationType

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.

Property Value
Description Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schemaé preferencial dos modelos que dão suporte a ele.

OpenAI.ResponseUsage

Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. Yes
input_tokens_details objeto Um detalhamento detalhado dos tokens de entrada. Yes
└─ tokens em cache inteiro O número de tokens recuperados do cache. No
output_tokens inteiro O número de tokens de saída. Yes
output_tokens_details objeto Um detalhamento detalhado dos tokens de saída. Yes
└─ tokens_de_raciocínio inteiro O número de tokens de raciocínio. No
total_tokens inteiro O número total de tokens usados. Yes

OpenAI.ResponseWebSearchCallCompletedEvent

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
item_id cadeia ID exclusiva para o item de saída associado à chamada de pesquisa na Web. Yes
output_index inteiro O índice do item de saída ao qual a chamada de pesquisa na Web está associada. Yes
tipo enumeração O tipo de evento. Sempre response.web_search_call.completed.
Valores possíveis: response.web_search_call.completed
Yes

OpenAI.ResponseWebSearchCallInProgressEvent

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
item_id cadeia ID exclusiva para o item de saída associado à chamada de pesquisa na Web. Yes
output_index inteiro O índice do item de saída ao qual a chamada de pesquisa na Web está associada. Yes
tipo enumeração O tipo de evento. Sempre response.web_search_call.in_progress.
Valores possíveis: response.web_search_call.in_progress
Yes

OpenAI.ResponseWebSearchCallSearchingEvent

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
item_id cadeia ID exclusiva para o item de saída associado à chamada de pesquisa na Web. Yes
output_index inteiro O índice do item de saída ao qual a chamada de pesquisa na Web está associada. Yes
tipo enumeração O tipo de evento. Sempre response.web_search_call.searching.
Valores possíveis: response.web_search_call.searching
Yes

OpenAI.ResponsesAssistantMessageItemParam

Um item de parâmetro de mensagem com a função assistant.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre assistant.
Valores possíveis: assistant
Yes

OpenAI.ResponsesAssistantMessageItemResource

Um item de recurso de mensagem com a função assistant.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre assistant.
Valores possíveis: assistant
Yes

OpenAI.ResponsesDeveloperMessageItemParam

Um item de parâmetro de mensagem com a função developer.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre developer.
Valores possíveis: developer
Yes

OpenAI.ResponsesDeveloperMessageItemResource

Um item de recurso de mensagem com a função developer.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre developer.
Valores possíveis: developer
Yes

OpenAI.ResponsesMessageItemParam

Um item de mensagem de resposta, que representa uma função e um conteúdo, conforme fornecido como parâmetros de solicitação do cliente.

Discriminador para OpenAI.ResponsesMessageItemParam

Esse componente usa a propriedade role para discriminar entre diferentes tipos:

Valor do tipo Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Tipo Description Required Default
função objeto A coleção de funções válidas para itens de mensagem de respostas. Yes
tipo enumeração O tipo do item de respostas, que é sempre "mensagem".
Valores possíveis: message
Yes

OpenAI.ResponsesMessageItemResource

Um item de recurso de mensagem de resposta, que representa uma função e um conteúdo, conforme fornecido nas respostas do serviço.

Discriminador para OpenAI.ResponsesMessageItemResource

Esse componente usa a propriedade role para discriminar entre diferentes tipos:

Valor do tipo Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Tipo Description Required Default
função objeto A coleção de funções válidas para itens de mensagem de respostas. Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.
Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo do item de respostas, que é sempre "mensagem".
Valores possíveis: message
Yes

OpenAI.ResponsesMessageRole

A coleção de funções válidas para itens de mensagem de respostas.

Property Value
Description A coleção de funções válidas para itens de mensagem de respostas.
Type cadeia
Values system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Um item de parâmetro de mensagem com a função system.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre system.
Valores possíveis: system
Yes

OpenAI.ResponsesSystemMessageItemResource

Um item de recurso de mensagem com a função system.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre system.
Valores possíveis: system
Yes

OpenAI.ResponsesUserMessageItemParam

Um item de parâmetro de mensagem com a função user.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre user.
Valores possíveis: user
Yes

OpenAI.ResponsesUserMessageItemResource

Um item de recurso de mensagem com a função user.

Name Tipo Description Required Default
conteúdo matriz O conteúdo associado à mensagem. Yes
função enumeração A função da mensagem, que é sempre user.
Valores possíveis: user
Yes

OpenAI.RunGraderRequest

Name Tipo Description Required Default
motoniveladora objeto Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. Yes
└─ calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. No
└─ métrica_de_avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
No
└─ graders objeto No
└─ etiqueta_de_imagem cadeia A marca da imagem a ser usada no script python. No
└─ entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. No
└─ modelo cadeia O modelo a ser usado para a avaliação. No
└─ nome cadeia O nome do avaliador. No
└─ Operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
No
└─ intervalo matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
└─ Referência cadeia O texto de referência para avaliação. No
└─ sampling_params Os parâmetros de amostragem do modelo. No
└─ origem cadeia O código-fonte do script python. No
└─ tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
No
item O item de conjunto de dados fornecido ao avaliador. Isso será usado para preencher o item namespace. No
model_sample cadeia O exemplo de modelo a ser avaliado. Esse valor será usado para preencher o sample namespace.
A output_json variável será preenchida se o exemplo de modelo for uma cadeia de caracteres JSON válida.
Yes

OpenAI.RunGraderResponse

Name Tipo Description Required Default
metadados objeto Yes
└─ erros objeto No
└─ erro_de_análise_de_fórmula boolean No
└─ erro_de_variável_inválida (invalid_variable_error) boolean No
└─ model_grader_parse_error boolean No
└─ model_grader_refusal_error boolean No
└─ model_grader_server_error boolean No
└─ model_grader_server_error_details cadeia No
└─ outro_erro boolean No
└─ python_grader_runtime_error boolean No
└─ python_grader_runtime_error_details cadeia No
└─ Erro do Servidor de Avaliação Python boolean No
└─ tipo_de_erro_do_servidor_python_grader cadeia No
Erro_de_Análise_de_Exemplo boolean No
└─ truncated_observation_error boolean No
└─ unresponsive_reward_error boolean No
└─ tempo_de_execução number No
└─ nome cadeia No
└─ nome_modelo_amostrado cadeia No
└─ pontuações No
└─ uso_de_token inteiro No
└─ tipo cadeia No
model_grader_token_usage_per_model Yes
recompensa number Yes
sub_rewards Yes

OpenAI.StaticChunkingStrategy

Name Tipo Description Required Default
chunk_overlap_tokens inteiro O número de tokens que se sobrepõem entre as partes. O valor padrão é 400.

Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Yes
max_chunk_size_tokens inteiro O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. Yes

OpenAI.StaticChunkingStrategyRequestParam

Personalize sua própria estratégia de agrupamento definindo o tamanho da parte e a sobreposição das partes.

Name Tipo Description Required Default
estático OpenAI.StaticChunkingStrategy Yes
tipo enumeração Sempre static.
Valores possíveis: static
Yes

OpenAI.StaticChunkingStrategyResponseParam

Name Tipo Description Required Default
estático OpenAI.StaticChunkingStrategy Yes
tipo enumeração Sempre static.
Valores possíveis: static
Yes

OpenAI.StopConfiguration

Modelos de raciocínio mais recentes o3 e o4-mini não são suportados.

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada.

Esse esquema aceita um dos seguintes tipos:

  • string
  • array

OpenAI.Tool

Discriminador para OpenAI.Tool

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Name Tipo Description Required Default
tipo OpenAI.ToolType Uma ferramenta que pode ser usada para gerar uma resposta. Yes

OpenAI.ToolChoiceObject

Discriminador para OpenAI.ToolChoiceObject

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Tipo Description Required Default
tipo OpenAI.ToolChoiceObjectType Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. Yes

OpenAI.ToolChoiceObjectCodeInterpreter

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: code_interpreter
Yes

OpenAI.ToolChoiceObjectComputer

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: computer_use_preview
Yes

OpenAI.ToolChoiceObjectFileSearch

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: file_search
Yes

OpenAI.ToolChoiceObjectFunction

Use essa opção para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes
tipo enumeração Para a chamada de função, o tipo é sempre function.
Valores possíveis: function
Yes

OpenAI.ToolChoiceObjectImageGen

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: image_generation
Yes

OpenAI.ToolChoiceObjectMCP

Use essa opção para forçar o modelo a chamar uma ferramenta específica em um servidor MCP remoto.

Name Tipo Description Required Default
name cadeia O nome da ferramenta a ser chamada no servidor. No
server_label cadeia O rótulo do servidor MCP a ser usado. Yes
tipo enumeração Quanto ás ferramentas MCP, o tipo será sempre mcp.
Valores possíveis: mcp
Yes

OpenAI.ToolChoiceObjectType

Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.

Property Value
Description Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.
Type cadeia
Values file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
tipo enumeração
Valores possíveis: web_search_preview
Yes

OpenAI.ToolChoiceOptions

Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.

Property Value
Description Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
Type cadeia
Values none
auto
required

OpenAI.ToolType

Uma ferramenta que pode ser usada para gerar uma resposta.

Property Value
Description Uma ferramenta que pode ser usada para gerar uma resposta.
Type cadeia
Values file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

A probabilidade de log superior de um token.

Name Tipo Description Required Default
bytes matriz Yes
logprob number Yes
símbolo cadeia Yes

OpenAI.TranscriptionAudioResponseFormat

Referências: OpenAI.AudioResponseFormat

OpenAI.TranscriptionInclude

Property Value
Type cadeia
Values logprobs

OpenAI.TranscriptionSegment

Name Tipo Description Required Default
avg_logprob number Logprob médio do segmento. Se o valor for menor que -1, considere que os logprobs falharam. Yes
compression_ratio number Taxa de compactação do segmento. Se o valor for maior que 2,4, considere que a compressão falhou. Yes
end number Hora de término do segmento em segundos. Yes
id inteiro Identificador exclusivo do segmento. Yes
no_speech_prob number Probabilidade de nenhuma fala no segmento. Se o valor for maior que 1,0 e estiver avg_logprob abaixo de -1, considere esse segmento silencioso. Yes
seek inteiro Buscar deslocamento do segmento. Yes
start number Hora de início do segmento em segundos. Yes
temperature number Parâmetro de temperatura usado para gerar o segmento. Yes
enviar SMS cadeia Conteúdo de texto do segmento. Yes
tokens matriz Matriz de IDs de token para o conteúdo do texto. Yes

OpenAI.TranscriptionWord

Name Tipo Description Required Default
end number Hora de término da palavra em segundos. Yes
start number Hora de início da palavra em segundos. Yes
palavra cadeia O conteúdo do texto da palavra. Yes

OpenAI.TranslationAudioResponseFormat

Referências: OpenAI.AudioResponseFormat

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. Yes

OpenAI.UpdateVectorStoreRequest

Name Tipo Description Required Default
expires_after objeto A política de expiração de um repositório de vetores. No
└─ âncora enumeração Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.
Valores possíveis: last_active_at
No
└─ dias inteiro O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

OpenAI.VadConfig

Name Tipo Description Required Default
prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). No 300
silence_duration_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos).
Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No 200
limite number Limite de sensibilidade (0.0 a 1.0) para detecção de atividade de voz. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. No 0.5
tipo enumeração Deve ser definido para server_vad a fim de habilitar o agrupamento manual usando o VAD do lado do servidor.
Valores possíveis: server_vad
Yes

OpenAI.ValidateGraderRequest

Name Tipo Description Required Default
motoniveladora objeto Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. Yes
└─ calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. No
└─ métrica_de_avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
No
└─ graders objeto No
└─ etiqueta_de_imagem cadeia A marca da imagem a ser usada no script python. No
└─ entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. No
└─ modelo cadeia O modelo a ser usado para a avaliação. No
└─ nome cadeia O nome do avaliador. No
└─ Operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
No
└─ intervalo matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
└─ Referência cadeia O texto de referência para avaliação. No
└─ sampling_params Os parâmetros de amostragem do modelo. No
└─ origem cadeia O código-fonte do script python. No
└─ tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
No

OpenAI.ValidateGraderResponse

Name Tipo Description Required Default
motoniveladora objeto Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada. No
└─ calculate_output cadeia Uma fórmula para calcular a saída com base nos resultados do avaliador. No
└─ métrica_de_avaliação enumeração A métrica de avaliação a ser usada. Um de fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 ou rouge_l.
Valores possíveis: fuzzy_match, , bleu, gleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , , , rouge_5rouge_l
No
└─ graders objeto No
└─ etiqueta_de_imagem cadeia A marca da imagem a ser usada no script python. No
└─ entrada matriz O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. No
└─ modelo cadeia O modelo a ser usado para a avaliação. No
└─ nome cadeia O nome do avaliador. No
└─ Operação enumeração A operação de verificação de cadeia de caracteres a ser executada. Uma opção entre eq, ne, like ou ilike.
Valores possíveis: eq, , ne, likeilike
No
└─ intervalo matriz O intervalo da pontuação. Usa [0, 1] como padrão. No
└─ Referência cadeia O texto de referência para avaliação. No
└─ sampling_params Os parâmetros de amostragem do modelo. No
└─ origem cadeia O código-fonte do script python. No
└─ tipo enumeração O tipo de objeto, que é sempre multi.
Valores possíveis: multi
No

OpenAI.VectorStoreExpirationAfter

A política de expiração de um repositório de vetores.

Name Tipo Description Required Default
âncora enumeração Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.
Valores possíveis: last_active_at
Yes
dias inteiro O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. Yes

OpenAI.VectorStoreFileAttributes

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.

Tipo: objeto

OpenAI.VectorStoreFileBatchObject

Um lote de arquivos anexados a um repositório de vetores.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) de quando o lote de arquivos do repositório de vetores foi criado. Yes
contagem_de_arquivos objeto Yes
└─ cancelado inteiro O número de arquivos que foram cancelados. No
└─ concluído inteiro O número de arquivos que foram processados. No
└─ falha inteiro O número de arquivos que falharam ao processar. No
└─ em andamento inteiro O número de arquivos que estão sendo processados no momento. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.file_batch.
Valores possíveis: vector_store.files_batch
Yes
status enumeração O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed.
Valores possíveis: in_progress, , completed, cancelledfailed
Yes
vector_store_id cadeia A ID do repositório de vetores ao qual o arquivo está anexado. Yes

OpenAI.VectorStoreFileObject

Uma lista de arquivos anexados a um repositório de vetores.

Name Tipo Description Required Default
Atributos objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. No
chunking_strategy objeto No
└─ tipo enumeração
Valores possíveis: static, other
No
created_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
último_erro objeto O último erro associado a esse arquivo do repositório de vetores. Será null se não houver erros. Yes
└─ código enumeração Uma opção entre server_error ou rate_limit_exceeded.
Valores possíveis: server_error, , unsupported_fileinvalid_file
No
Mensagem └─ cadeia Uma descrição do erro legível para humanos. No
objeto enumeração O tipo de objeto, que é sempre vector_store.file.
Valores possíveis: vector_store.file
Yes
status enumeração O status do arquivo do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed. O status completed indica que o arquivo do repositório de vetores está pronto para uso.
Valores possíveis: in_progress, , completed, cancelledfailed
Yes
usage_bytes inteiro O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. Yes
vector_store_id cadeia A ID do repositório de vetores ao qual o arquivo está anexado. Yes

OpenAI.VectorStoreObject

Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. Yes
expires_after OpenAI.VectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
expires_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores expirará. No
contagem_de_arquivos objeto Yes
└─ cancelado inteiro O número de arquivos que foram cancelados. No
└─ concluído inteiro O número de arquivos que foram processados com sucesso. No
└─ falha inteiro O número de arquivos que falharam ao processar. No
└─ em andamento inteiro O número de arquivos que estão sendo processados no momento. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
última_atividade_em inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores esteve ativo pela última vez. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
name cadeia O nome do repositório de vetores. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vector_store
Yes
status enumeração O status do repositório de vetores, que pode ser expired, in_progress ou completed. Um status de completed indica que o repositório de vetores está pronto para uso.
Valores possíveis: expired, , in_progresscompleted
Yes
usage_bytes inteiro O número total de bytes usados pelos arquivos no repositório de vetores. Yes

OpenAI.VoiceIdsShared

Property Value
Type cadeia
Values alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Discriminador para OpenAI.WebSearchAction

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Tipo Description Required Default
tipo OpenAI.WebSearchActionType Yes

OpenAI.WebSearchActionFind

Tipo de ação "localizar": pesquisa um padrão em uma página carregada.

Name Tipo Description Required Default
padrão cadeia O padrão ou texto a ser pesquisado na página. Yes
tipo enumeração O tipo de ação.
Valores possíveis: find
Yes
url cadeia A URL da página pesquisou o padrão. Yes

OpenAI.WebSearchActionOpenPage

Tipo de ação "open_page" - abre uma URL específica dos resultados da pesquisa.

Name Tipo Description Required Default
tipo enumeração O tipo de ação.
Valores possíveis: open_page
Yes
url cadeia A URL aberta pelo modelo. Yes

OpenAI.WebSearchActionSearch

Tipo de ação "pesquisa" - Executa uma consulta de pesquisa na Web.

Name Tipo Description Required Default
consulta cadeia A consulta de pesquisa. Yes
tipo enumeração O tipo de ação.
Valores possíveis: search
Yes

OpenAI.WebSearchActionType

Property Value
Type cadeia
Values search
open_page
find

OpenAI.WebSearchPreviewTool

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
search_context_size enumeração Diretrizes de alto nível para a quantidade de espaço de janela de contexto a ser usada para a pesquisa. Uma opção entre low, medium ou high. medium é o padrão.
Valores possíveis: low, , mediumhigh
No
tipo enumeração O tipo da ferramenta de pesquisa na Web. Uma opção entre web_search_preview ou web_search_preview_2025_03_11.
Valores possíveis: web_search_preview
Yes
user_location objeto No
└─ tipo OpenAI.LocationType No

OpenAI.WebSearchToolCallItemParam

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
ação objeto Yes
└─ tipo OpenAI.WebSearchActionType No
tipo enumeração
Valores possíveis: web_search_call
Yes

OpenAI.WebSearchToolCallItemResource

Observação: web_search ainda não está disponível por meio do Azure OpenAI.

Name Tipo Description Required Default
ação objeto Yes
└─ tipo OpenAI.WebSearchActionType No
status enumeração O status da chamada da ferramenta de pesquisa na Web.
Valores possíveis: in_progress, , searching, completedfailed
Yes
tipo enumeração
Valores possíveis: web_search_call
Yes

PineconeChatDataSource

Name Tipo Description Required Default
parameters objeto As informações de parâmetro para controlar o uso da fonte de dados Pinecone. Yes
└─ permitir_resultado_parcial boolean Se definido como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas parciais falharem. Se não for especificada ou especificada como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
└─ autenticação objeto No
└─ chave cadeia No
└─ tipo enumeração
Valores possíveis: api_key
No
└─ embedding_dependency objeto Uma representação de uma fonte de vetorização de dados utilizável como um recurso de inserção com uma fonte de dados. No
└─ tipo AzureChatDataSourceVectorizationSourceType O identificador de diferenciação para a fonte de vetorização concreta. No
└─ ambiente cadeia O nome do ambiente a ser usado com Pinecone. No
└─ mapeamento_de_campos objeto Mapeamentos de campo a serem aplicados aos dados usados pela fonte de dados Pinecone.
Observe que os mapeamentos de campo de conteúdo são necessários para Pinecone.
No
└─ campos_de_conteúdo matriz No
└─ separador_dos_campos_de_conteúdo cadeia No
└─ campo_caminho_do_arquivo cadeia No
└─ campo_do_título cadeia No
└─ campo_de_url cadeia No
└─ in_scope boolean Se as consultas devem ser restritas ao uso dos dados indexados. No
└─ incluir_contextos matriz As propriedades de contexto de saída a serem incluídas na resposta.
Por padrão, as citações e a intenção serão solicitadas.
No ['citações', 'intenções']
└─ nome_do_índice cadeia O nome do índice de banco de dados Pinecone a ser usado. No
└─ consultas_de_busca_máximas inteiro O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma única mensagem de usuário.
Por padrão, o sistema fará uma determinação automática.
No
└─ rigidez inteiro A rigorosidade configurada da filtragem de relevância da pesquisa.
A rigidez mais alta aumentará a precisão, mas diminuirá o recall da resposta.
No
└─ top_n_documents inteiro O número configurado de documentos a serem apresentados na consulta. No
tipo enumeração O identificador de tipo discriminado, que é sempre "pinecone".
Valores possíveis: pinecone
Yes

Quality

A qualidade do conteúdo do vídeo a ser recuperado. Isso especifica a qualidade do conteúdo do vídeo que deve ser retornado.

Property Value
Description A qualidade do conteúdo do vídeo a ser recuperado.
Isso especifica a qualidade do conteúdo do vídeo que deve ser retornado.
Type cadeia
Values high
low

ResponseFormatJSONSchemaRequest

Name Tipo Description Required Default
json_schema objeto Esquema JSON para o formato de resposta Yes
tipo enumeração Tipo de formato de resposta
Valores possíveis: json_schema
Yes

ResponseModalities

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Matriz de: string

SpeechGenerationResponseFormat

Os formatos de saída de áudio com suporte para conversão de texto em fala.

Esse componente pode ser um dos seguintes:

VideoGeneration

Um resultado de geração de vídeo.

Name Tipo Description Required Default
created_at inteiro A hora em que a geração de vídeo foi criada. Yes
height inteiro A altura do vídeo. Yes
id cadeia A ID da geração de vídeo. Yes
job_id cadeia A ID do trabalho de geração de vídeo para esse vídeo. Yes
n_seconds inteiro A duração da geração de vídeo. Yes
objeto enumeração
Valores possíveis: video.generation
Yes
solicitação cadeia A solicitação para essa geração de vídeo. Yes
width inteiro A largura do vídeo. Yes

VideoGenerationJob

Um trabalho de geração de vídeo.

Name Tipo Description Required Default
created_at inteiro A hora em que o trabalho foi criado. Yes
expires_at inteiro A hora em que o trabalho é excluído automaticamente do serviço. O conteúdo do vídeo e os metadados do trabalho devem ser armazenados antes dessa data para evitar a perda de dados. No
failure_reason cadeia de caracteres (veja os modelos válidos abaixo) No
finished_at inteiro A hora em que o trabalho terminou com todas as gerações de vídeo. No
generations matriz Os vídeos gerados para esse trabalho. O número depende do n_variants determinado e do sucesso de criação das gerações. No
height inteiro A altura do vídeo. Yes
id cadeia A ID do trabalho. Yes
inpaint_items matriz Itens opcionais de preenchimento para esse trabalho de geração de vídeo. No
modelo cadeia O nome da implantação a ser usada para este trabalho de geração de vídeo. Yes
n_seconds inteiro A duração do trabalho de geração de vídeo. Yes
n_variants inteiro O número de vídeos a serem criados como variantes para este trabalho de geração de vídeo. Yes
objeto enumeração
Valores possíveis: video.generation.job
Yes
solicitação cadeia A solicitação para esse trabalho de geração de vídeo. Yes
status objeto O status de um trabalho de geração de vídeo. Yes
width inteiro A altura do vídeo. Yes

VideoGenerationJobList

Uma lista de trabalhos de geração de vídeo.

Name Tipo Description Required Default
dados matriz A lista de trabalhos de geração de vídeo. Yes
first_id cadeia A ID do primeiro trabalho na página atual, se disponível. No
has_more boolean Um sinalizador que indica se há mais trabalhos disponíveis após a lista. Yes
last_id cadeia A ID do último trabalho na página atual, se disponível. No
objeto enumeração
Valores possíveis: list
Yes

Próximas etapas

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.