Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Neste artigo, você aprenderá a escrever solicitações de consulta para modelos básicos otimizados para chat e tarefas de uso geral e enviá-las para seu ponto de extremidade de serviço de modelo.
Os exemplos neste artigo aplicam-se à consulta de modelos básicos que são disponibilizados usando:
- APIs de modelos de base que são conhecidas como modelos de base hospedados por Databricks.
- Modelos externos que são referidos como modelos de base hospedados fora do Databricks.
Requerimentos
- Consulte Requisitos.
- Instale o pacote apropriado no cluster com base na opção de cliente de consulta escolhida.
Exemplos de consulta
Os exemplos nesta seção mostram como consultar o modelo Anthropic Claude Sonnet 4.5 disponibilizado pelo endpoint pay-per-token das APIs do Foundation Model, databricks-claude-sonnet-4-5*usando as diferentes opções do cliente.
Conclusões do OpenAI Chat
Para usar o cliente OpenAI, especifique o nome do ponto de extremidade do modelo como entrada model. O exemplo a seguir pressupõe que você tenha um token de API Databricks e o openai instalado no seu ambiente de computação. Você também precisa da instância do espaço de trabalho Databricks para conectar o cliente OpenAI ao Databricks.
import os
import openai
from openai import OpenAI
client = OpenAI(
api_key="dapi-your-databricks-token",
base_url="https://example.staging.cloud.databricks.com/serving-endpoints"
)
response = client.chat.completions.create(
model="databricks-claude-sonnet-4-5",
messages=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_tokens=256
)
Respostas OpenAI
Importante
A API Responses só é compatível com modelos OpenAI.
Para utilizar a API OpenAI Responses, especifique o nome do endpoint do modelo de serviço como model entrada. O exemplo seguinte assume que tem um token da API do Azure Databricks e que openai está instalado nos seus recursos de computação. Também precisa da sua instância de workspace Azure Databricks para ligar o cliente OpenAI ao Azure Databricks.
import os
import openai
from openai import OpenAI
client = OpenAI(
api_key="dapi-your-databricks-token",
base_url="https://example.staging.cloud.databricks.com/serving-endpoints"
)
response = client.responses.create(
model="databricks-gpt-5",
input=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_output_tokens=256
)
API REST
Importante
O exemplo a seguir usa parâmetros de API REST para consultar pontos de extremidade de serviço que servem modelos externos. Esses parâmetros estão em Visualização pública e a definição pode mudar. Consulte POST /serving-endpoints/{name}/invocations.
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": " What is a mixture of experts model?"
}
]
}' \
https://<workspace_host>.databricks.com/serving-endpoints/<your-external-model-endpoint>/invocations \
SDK de desenvolvimentos MLflow
Importante
O exemplo a seguir usa a predict() API do MLflow Deployments SDK.
import mlflow.deployments
# Only required when running this example outside of a Databricks Notebook
export DATABRICKS_HOST="https://<workspace_host>.databricks.com"
export DATABRICKS_TOKEN="dapi-your-databricks-token"
client = mlflow.deployments.get_deploy_client("databricks")
chat_response = client.predict(
endpoint="databricks-claude-sonnet-4-5",
inputs={
"messages": [
{
"role": "user",
"content": "Hello!"
},
{
"role": "assistant",
"content": "Hello! How can I assist you today?"
},
{
"role": "user",
"content": "What is a mixture of experts model??"
}
],
"temperature": 0.1,
"max_tokens": 20
}
)
Databricks Python SDK
Esse código deve ser executado em um bloco de anotações em seu espaço de trabalho. Veja Usar o SDK do Databricks para Python a partir de um notebook do Azure Databricks.
from databricks.sdk import WorkspaceClient
from databricks.sdk.service.serving import ChatMessage, ChatMessageRole
w = WorkspaceClient()
response = w.serving_endpoints.query(
name="databricks-claude-sonnet-4-5",
messages=[
ChatMessage(
role=ChatMessageRole.SYSTEM, content="You are a helpful assistant."
),
ChatMessage(
role=ChatMessageRole.USER, content="What is a mixture of experts model?"
),
],
max_tokens=128,
)
print(f"RESPONSE:\n{response.choices[0].message.content}")
Como exemplo, a seguir está o formato de solicitação esperado para um modelo de chat ao usar a API REST. Para modelos externos, você pode incluir parâmetros adicionais que são válidos para um determinado provedor e configuração de ponto final. Consulte Parâmetros de consulta adicionais.
{
"messages": [
{
"role": "user",
"content": "What is a mixture of experts model?"
}
],
"max_tokens": 100,
"temperature": 0.1
}
A seguir está um formato de resposta esperado para uma solicitação feita usando a API REST:
{
"model": "databricks-claude-sonnet-4-5",
"choices": [
{
"message": {},
"index": 0,
"finish_reason": null
}
],
"usage": {
"prompt_tokens": 7,
"completion_tokens": 74,
"total_tokens": 81
},
"object": "chat.completion",
"id": null,
"created": 1698824353
}
Modelos suportados
Consulte Tipos de modelo Foundation para modelos de chat suportados.