Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Este artigo é para ajudá-lo a entender o ciclo de vida de suporte para APIs OpenAI do Azure.
Observação
Novos objetos de resposta da API podem ser adicionados à resposta da API a qualquer momento. Recomendamos que você analise apenas os objetos de resposta necessários.
Evolução da API
Anteriormente, o Azure OpenAI recebia atualizações mensais de novas versões de API. Aproveitar os novos recursos exigia a atualização constante do código e das variáveis de ambiente a cada nova versão da API. O Azure OpenAI também exigiu a etapa extra de usar clientes específicos do Azure que criavam sobrecarga ao migrar código entre o OpenAI e o Azure OpenAI.
A partir de agosto de 2025, agora você pode optar por nossa próxima geração v1 Azure OpenAI APIs, que adicionam suporte para:
- Acesso contínuo aos recursos mais recentes sem a necessidade de especificar novos
api-version's a cada mês. - Ciclo de lançamento de API mais rápido com lançamento de novos recursos com mais frequência.
- Suporte ao cliente da OpenAI com alterações mínimas de código para alternar entre OpenAI e Azure OpenAI quando utilizar autenticação baseada em chave.
- Suporte ao cliente OpenAI para autenticação baseada em token e atualização automática de token sem a necessidade de depender de um cliente OpenAI do Azure separado.
- Faça chamadas de conclusão de bate-papo com modelos de outros provedores, como DeepSeek e Grok, que suportam a sintaxe de conclusão de bate-papo v1.
O acesso a novas chamadas de API que ainda estão em visualização será controlado passando cabeçalhos de visualização específicos do recurso, permitindo que você opte pelos recursos desejados, sem ter que trocar versões de API. Como alternativa, alguns recursos indicarão o status da visualização por meio do caminho da API e não exigem um cabeçalho adicional.
Examples:
-
/openai/v1/evalsestá em pré-visualização e requer a passagem de um"aoai-evals":"preview"cabeçalho. -
/openai/v1/fine_tuning/alpha/graders/está em pré-visualização e não requer cabeçalho personalizado devido à presença de no caminho daalphaAPI.
Para a inicialização inicial da API v1 Geralmente Disponível (GA), estamos oferecendo suporte apenas a um subconjunto dos recursos da API de inferência e criação. Todos os recursos do GA são suportados para uso na produção. Adicionaremos rapidamente suporte para mais recursos em breve.
Alterações de código
API v1
Chave da API:
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)
response = client.responses.create(
model="gpt-4.1-nano", # Replace with your model deployment name
input="This is a test.",
)
print(response.model_dump_json(indent=2))
-
OpenAI()cliente é usado em vez deAzureOpenAI(). -
base_urltransmite o ponto de extremidade do Azure OpenAI e/openai/v1é anexado ao endereço do ponto de extremidade. -
api-versionnão é mais um parâmetro necessário com a v1 GA API.
Chave de API com variáveis de ambiente definidas para OPENAI_BASE_URL e OPENAI_API_KEY:
client = OpenAI()
ID do Microsoft Entra:
Importante
A manipulação da atualização automática de tokens era tratada anteriormente através do uso do AzureOpenAI() cliente. A API v1 remove essa dependência, adicionando suporte à atualização automática de token ao OpenAI() cliente.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key = token_provider
)
response = client.responses.create(
model="gpt-4.1-nano",
input= "This is a test"
)
print(response.model_dump_json(indent=2))
-
base_urltransmite o ponto de extremidade do Azure OpenAI e/openai/v1é anexado ao endereço do ponto de extremidade. -
api_keyé definido comotoken_provider, permitindo a recuperação automática e a atualização de um token de autenticação em vez de usar uma chave de API estática.
Suporte ao modelo
Para modelos do Azure OpenAI, recomendamos o uso da API de respostas, no entanto, a API v1 também permite que você faça chamadas de conclusão de chat com modelos de outros provedores, como DeepSeek e Grok, que suportam a sintaxe de conclusão de bate-papo OpenAI v1.
base_url aceitará ambos os formatos https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/ e https://YOUR-RESOURCE-NAME.services.ai.azure.com/openai/v1/.
Observação
A API Responses também funciona com modelos Foundry vendidos diretamente pela Azure, como modelos Microsoft AI, DeepSeek e Grok. Para aprender a usar a API de Respostas com estes modelos, veja Como gerar respostas textuais com os Modelos Microsoft Foundry.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=token_provider,
)
completion = client.chat.completions.create(
model="MAI-DS-R1", # Replace with your model deployment name.
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Tell me about the attention is all you need paper"}
]
)
#print(completion.choices[0].message)
print(completion.model_dump_json(indent=2))
Suporte à API v1
Situação
Os recursos geralmente disponíveis são suportados para uso na produção.
| Caminho da API | Situação |
|---|---|
/openai/v1/chat/completions |
Geralmente disponível |
/openai/v1/embeddings |
Geralmente disponível |
/openai/v1/evals |
Preview |
/openai/v1/files |
Geralmente disponível |
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy |
Preview |
/openai/v1/fine_tuning/alpha/graders/ |
Preview |
/openai/v1/fine_tuning/ |
Geralmente disponível |
/openai/v1/models |
Geralmente disponível |
/openai/v1/responses |
Geralmente disponível |
/openai/v1/vector_stores |
Geralmente disponível |
Visualizar cabeçalhos
| Caminho da API | Header |
|---|---|
/openai/v1/evals |
"aoai-evals":"preview" |
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy |
"aoai-copy-ft-checkpoints" : "preview" |
Alterações entre a versão de pré-visualização v1 e 2025-04-01-preview
- API de visualização v1
- Suporte à geração de vídeo
-
NOVOS Recursos da API de Respostas
- Integração da ferramenta de servidores MCP (Remote Model Context Protocol)
- Suporte para tarefas assíncronas em segundo plano
- Itens de raciocínio criptografados
- Geração de imagens
Alterações entre 2025-04-01-preview e 2025-03-01-preview
Alterações entre 2025-03-01-preview e 2025-02-01-preview
- API de respostas
- Utilização do computador
Alterações entre 2025-02-01-preview e 2025-01-01-preview
- Completações armazenadas (suporte à API de destilação).
Alterações entre 2025-01-01-preview e 2024-12-01-preview
-
predictionparâmetro adicionado para suporte de saídas previstas . -
gpt-4o-audio-previewsuporte a modelos.
Alterações entre 2024-12-01-preview e 2024-10-01-preview
-
store, emetadataparâmetros adicionados para suporte a completações armazenadas. -
reasoning_effortadicionado para os modelos de raciocínio mais recentes. -
user_security_contextadicionado para integração com o Microsoft Defender for Cloud.
Alterações entre 2024-09-01-preview e 2024-08-01-preview
-
max_completion_tokensadicionado ao suporteo1-previeweo1-minimodelos.max_tokensNão funciona com os modelos da série O1 . -
parallel_tool_callsfoi adicionado. -
completion_tokens_details&reasoning_tokensadicionado. -
stream_options&include_usageadicionado.
Alterações entre a especificação da API 2024-07-01-preview e 2024-08-01-preview
- Suporte a saídas estruturadas.
- API de upload de arquivo grande adicionada.
- Sobre as alterações de dados:
- Integração com a base de dados Mongo.
-
role_informationparâmetro removido. -
rerank_scoreadicionado ao objeto de citação. - Fonte de dados AML removida.
- Melhorias na integração da vetorização do AI Search.
Alterações entre a especificação da API 2024-5-01-preview e 2024-07-01-preview
- Adicionado suporte para API em lote
- Parâmetros de estratégia de fragmentação de armazenamento vetorial
-
max_num_resultsque a ferramenta de pesquisa de arquivos deve produzir.
Alterações entre a especificação da API 2024-04-01-preview e 2024-05-01-preview
- Suporte a assistentes v2 - Ferramenta de pesquisa de arquivos e armazenamento vetorial
- Ajuste fino de pontos de verificação, sementes, eventos
- Sobre as suas atualizações de dados
- O DALL-E 2 agora suporta a implantação de modelos e pode ser usado com a API de visualização mais recente.
- Atualizações de filtragem de conteúdo
Alterações entre a especificação da API 2024-03-01-preview e 2024-04-01-preview
-
Breaking Change: Parâmetros de melhorias removidos. Isso afeta o
gpt-4modelo Version:vision-preview. - timestamp_granularities parâmetro adicionado.
-
audioWordobjeto adicionado. - TTS adicional
response_formats: wav & pcm.
Problemas conhecidos
- A
2025-04-01-previewespecificação do Azure OpenAI usa OpenAPI 3.1, é um problema conhecido que atualmente não é totalmente suportado pelo Gerenciamento de API do Azure