Partilhar via


Explorar Modelos da Microsoft Foundry

Observação

Este documento refere-se ao portal Microsoft Foundry (clássico).

🔍 Consulte a documentação (nova) da Microsoft Foundry para saber mais sobre o novo portal.

O Microsoft Foundry Models é o seu destino único para descobrir, avaliar e implementar modelos de IA poderosos — quer esteja a construir um copilot personalizado, a criar um agente, a melhorar uma aplicação existente ou a explorar novas capacidades de IA.

Com os modelos de fundição, você pode:

  • Explore um rico catálogo de modelos de ponta da Microsoft, OpenAI, DeepSeek, Hugging Face, Meta e muito mais.
  • Compare e avalie modelos lado a lado usando tarefas do mundo real e seus próprios dados.
  • Implante com confiança, graças às ferramentas integradas para ajuste fino, observabilidade e IA responsável.
  • Escolha seu caminho: traga seu próprio modelo, use um hospedado ou integre-se perfeitamente aos serviços do Azure.
  • Quer seja um programador, cientista de dados ou arquiteto empresarial, a Foundry Models dá-lhe a flexibilidade e o controlo para criar soluções de IA que podem ser dimensionadas de forma segura, responsável e rápida.

A Foundry oferece um catálogo abrangente de modelos de IA. Existem mais de 1900+ modelos que vão desde Modelos de Fundação, Modelos de Raciocínio, Modelos de Linguagem Pequena, Modelos Multimodais, Modelos Específicos de Domínio, Modelos da Indústria e muito mais.

O nosso catálogo está organizado em duas categorias principais:

Compreender a distinção entre estas categorias ajuda-o a escolher os modelos certos com base nos seus requisitos específicos e objetivos estratégicos.

Observação

  • Para todos os modelos, os Clientes continuam responsáveis por (i) cumprir a lei na utilização de qualquer modelo ou sistema; (ii) rever descrições de modelos no catálogo de modelos, cartões de modelos disponibilizados pelo fornecedor de modelos e outra documentação relevante; (iii) selecionar um modelo adequado para o seu caso de uso e (iv) implementar medidas adequadas (incluindo o uso do Azure AI Content Safety) para garantir que o uso das Ferramentas Foundry pelo Cliente cumpre a Política de Utilização Aceitável nos Termos de Produto da Microsoft e no Código de Conduta dos Serviços de IA Empresarial da Microsoft.

Modelos vendidos diretamente pelo Azure

Estes são modelos que são hospedados e vendidos pela Microsoft sob os Termos de Produto da Microsoft. A Microsoft avaliou esses modelos e eles estão profundamente integrados ao ecossistema de IA do Azure. Os modelos vêm de uma variedade de fornecedores e oferecem integração aprimorada, desempenho otimizado e suporte direto da Microsoft, incluindo SLAs (Service Level Agreements, contratos de nível de serviço) de nível empresarial.

Características dos modelos vendidos diretamente pelo Azure:

  • Suporte disponível na Microsoft.
  • Alto nível de integração com os serviços e a infraestrutura do Azure.
  • Sujeito a revisão interna com base nos padrões de IA Responsável da Microsoft.
  • A documentação do modelo e os relatórios de transparência fornecem visibilidade ao cliente para os riscos, mitigações e limitações do modelo.
  • Escalabilidade, confiabilidade e segurança de nível empresarial.

Alguns desses modelos também têm o benefício da taxa de transferência provisionada fungível, o que significa que você pode usar de forma flexível sua cota e reservas em qualquer um desses modelos.

Modelos de Parceiros e Comunidade

Estes modelos constituem a grande maioria dos Modelos Foundry e são fornecidos por organizações terceirizadas de confiança, parceiros, laboratórios de investigação e colaboradores comunitários. Esses modelos oferecem recursos de IA especializados e diversificados, cobrindo uma ampla gama de cenários, indústrias e inovações. Exemplos de modelos de Parceiros e da comunidade são a família de grandes modelos de linguagem desenvolvidos pela Anthropic e modelos abertos do hub Hugging Face.

Anthropic inclui a família Claude de grandes modelos de linguagem de última geração que suportam entrada de texto e imagem, saída de texto, capacidades multilíngues e visão. Para obter ajuda com modelos Anthropic, utilize o Suporte da Microsoft. Para saber mais sobre privacidade, consulte Dados, privacidade e segurança para modelos Claude no Microsoft Foundry (pré-visualização) e Política de privacidade Anthropic. Para termos de serviço, consulte Termos de Serviço Comerciais. Para aprender a trabalhar com modelos Anthropic, consulte Implementar e usar modelos Claude no Microsoft Foundry.

O Hugging Face hub inclui centenas de modelos para inferência em tempo real com computação gerida. A Hugging Face cria e mantém modelos listados nesta coleção. Para obter ajuda com os modelos Hugging Face, use o fórum Hugging Face ou o suporte Hugging Face. Aprenda como implementar modelos Hugging Face em Implementar modelos abertos com a Microsoft Foundry.

Características dos Modelos de Parceiros e Comunidade:

  • Desenvolvido e apoiado por parceiros externos e colaboradores da comunidade
  • Gama diversificada de modelos especializados que atendem a nichos ou casos de uso amplos
  • Normalmente validado pelos próprios provedores, com diretrizes de integração fornecidas pelo Azure
  • Inovação impulsionada pela comunidade e rápida disponibilidade de modelos de ponta
  • Integração padrão de IA do Azure, com suporte e manutenção gerenciados pelos respetivos provedores

Os modelos de parceiros e comunidade podem ser implantados como opções de implantação de computação gerenciada ou API sem servidor. O provedor de modelos seleciona como os modelos podem ser implantados.

Solicitar a inclusão de um modelo no catálogo de modelos

Pode pedir que adicionemos um modelo ao catálogo de modelos, diretamente a partir da página do catálogo de modelos no portal Foundry. Na barra de pesquisa da página do catálogo de modelos, uma pesquisa por um modelo que não existe no catálogo, como mymodel, retorna o botão Solicitar um modelo . Selecione este botão para abrir um formulário onde pode partilhar detalhes sobre o modelo que está a solicitar.

Uma captura de tela mostrando onde solicitar a inclusão de um modelo no catálogo de modelos.

Escolher entre modelos diretos e modelos de parceiros e modelos de comunidade

Ao selecionar modelos da Foundry Models, considere o seguinte:

  • Caso de uso e requisitos: os modelos vendidos diretamente pelo Azure são ideais para cenários que exigem integração profunda com o Azure, suporte garantido e SLAs corporativos. Modelos de parceiros e comunidade se destacam em casos de uso especializados e cenários liderados por inovação.
  • Expectativas de suporte: Os modelos vendidos diretamente pelo Azure vêm com suporte e manutenção robustos fornecidos pela Microsoft. Esses modelos são suportados por seus provedores, com diferentes níveis de SLA e estruturas de suporte.
  • Inovação e especialização: os modelos de parceiros e da comunidade oferecem acesso rápido a inovações especializadas e recursos de nicho, muitas vezes desenvolvidos por laboratórios de pesquisa líderes e provedores emergentes de IA.

Visão geral dos recursos do Catálogo de Modelos

O catálogo de modelos no portal Foundry é o ponto de encontro e utilização de uma vasta gama de modelos para construir aplicações de IA generativa. O catálogo de modelos apresenta centenas de modelos em provedores de modelos como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA e Hugging Face, incluindo modelos treinados pela Microsoft. Os modelos de fornecedores que não a Microsoft são Produtos que não são da Microsoft, conforme definido nos Termos de Produto da Microsoft, e estão sujeitos aos termos fornecidos com os modelos.

Você pode pesquisar e descobrir modelos que atendam às suas necessidades por meio de pesquisa de palavras-chave e filtros. O catálogo de modelos também oferece a tabela de classificação de desempenho do modelo e métricas de benchmark para modelos selecionados. Você pode acessá-los selecionando Procurar tabela de classificação e Comparar modelos. Os dados de referência também podem ser acessados na guia Benchmark do cartão modelo.

Nos filtros do catálogo de modelos, você encontrará:

  • Coleção: você pode filtrar modelos com base na coleção do provedor de modelos.
  • Setor: você pode filtrar os modelos treinados em conjuntos de dados específicos do setor.
  • Recursos: você pode filtrar recursos exclusivos do modelo, como raciocínio e chamada de ferramentas.
  • Opções de implantação: você pode filtrar os modelos que oferecem suporte a opções de implantação específicas.
    • serverless API: esta opção permite que você pague por chamada de API.
    • Provisionado: mais adequado para pontuação em tempo real para grande volume consistente.
    • Lote: mais adequado para trabalhos em lote com custo otimizado, e não latência. Nenhum suporte para ambiente de teste é fornecido para a implantação em lote.
    • Computação gerenciada: essa opção permite implantar um modelo em uma máquina virtual do Azure. Você será cobrado por hospedagem e inferência.
  • Tarefas de inferência: você pode filtrar modelos com base no tipo de tarefa de inferência.
  • Ajustar tarefas: você pode filtrar modelos com base no tipo de tarefa de ajuste fino.
  • Licenças: você pode filtrar modelos com base no tipo de licença.

No modelo de cartão, você encontrará:

  • Fatos rápidos: você verá as principais informações sobre o modelo em um piscar de olhos.
  • Detalhes: esta página contém informações detalhadas sobre o modelo, incluindo descrição, informações de versão, tipo de dados suportado, etc.
  • Benchmarks: você encontrará métricas de benchmark de desempenho para modelos selecionados.
  • Implantações existentes: se você já implantou o modelo, poderá encontrá-lo na guia Implantações existentes.
  • Licença: você encontrará informações legais relacionadas ao licenciamento de modelos.
  • Artefactos: este separador será apresentado apenas para modelos abertos. Você pode ver os ativos do modelo e baixá-los através da interface do usuário.

Implantação de modelo: computação gerenciada e implantações de API sem servidor

Além de implantar no Azure OpenAI, o catálogo de modelos oferece duas maneiras distintas de implantar modelos para seu uso: computação gerenciada e implantações de API sem servidor.

As opções de implantação e os recursos disponíveis para cada modelo variam, conforme descrito nas tabelas a seguir. Saiba mais sobre o processamento de dados com as opções de implantação.

Capacidades das opções de implantação de modelo

Caraterísticas Computação sob gestão implantação de API sem servidor
Experiência de implementação e faturação Os pesos de modelo são implantados em máquinas virtuais dedicadas com computação gerenciada. Uma computação gerenciada, que pode ter uma ou mais implantações, disponibiliza uma API REST para inferência. Você é cobrado pelas horas principais da máquina virtual que as implantações usam. O acesso aos modelos é feito por meio de uma implementação que aprovisiona uma API para aceder aos mesmos. A API fornece acesso ao modelo que a Microsoft hospeda e gerencia, para inferência. Você é cobrado pelas entradas e saídas para as APIs, geralmente em tokens. As informações de preços são fornecidas antes da implantação.
Autenticação de API Chaves e autenticação Microsoft Entra. Apenas chaves.
Segurança dos Conteúdos Utilize as APIs do serviço de Segurança de Conteúdo do Azure AI. Os filtros da Segurança de Conteúdos do Azure AI estão disponíveis integrados nas APIs de inferência. Os filtros de Segurança de Conteúdo do Azure AI são cobrados separadamente.
Isolamento de rede Configurar redes geridas para hubs Foundry. A computação gerenciada segue a configuração do sinalizador de acesso à rede pública (PNA) do hub. Para obter mais informações, consulte a seção Isolamento de rede para modelos implantados por meio de implantações de API sem servidor , mais adiante neste artigo.

Modelos disponíveis para opções de implementação suportadas

Para modelos do Azure OpenAI, consulte Azure OpenAI.

Para ver uma lista de modelos suportados para implementação de APIs serverless ou Managed Compute, consulte a página inicial do catálogo de modelos no Foundry. Use o filtro Opções de implantação para selecionar a implantação de API sem servidor ou Computação gerenciada.

Uma captura de tela mostrando como filtrar por modelos de computação gerenciados no catálogo.

Diagrama que ilustra modelos como um serviço e o ciclo de serviço das computações geridas.

Ciclo de vida do modelo: depreciação e desativação

Os modelos de IA evoluem rapidamente e, quando uma nova versão ou um novo modelo com capacidades atualizadas da mesma família de modelos fica disponível, modelos mais antigos podem ser retirados do catálogo de modelos da Foundry. Para permitir uma transição suave para uma versão mais recente do modelo, alguns modelos oferecem aos usuários a opção de ativar as atualizações automáticas. Para saber mais sobre o ciclo de vida do modelo de diferentes modelos, as próximas datas de desativação do modelo e os modelos e versões de substituição sugeridos, consulte:

Computação sob gestão

A capacidade de implantar modelos como computação gerenciada se baseia nos recursos de plataforma do Aprendizado de Máquina do Azure para permitir a integração perfeita da ampla coleção de modelos no catálogo de modelos em todo o ciclo de vida das operações LLM (modelo de linguagem grande).

Diagrama que mostra o ciclo de vida de operações de modelo de linguagem grande.

Disponibilidade de modelos para implantação como computação gerenciada

Os modelos são disponibilizados através dos registos do Azure Machine Learning. Esses registros permitem uma abordagem de aprendizado de máquina em primeiro lugar para hospedar e distribuir ativos do Azure Machine Learning. Esses ativos incluem pesos de modelo, tempos de execução de contêiner para executar os modelos, pipelines para avaliar e ajustar os modelos e conjuntos de dados para benchmarks e amostras.

Os registos baseiam-se numa infraestrutura altamente escalável e pronta para a empresa que:

  • Fornece artefatos de modelo de acesso de baixa latência para todas as regiões do Azure com replicação geográfica interna.

  • Dá suporte a requisitos de segurança corporativa, como limitar o acesso a modelos usando a Política do Azure e a implantação segura usando redes virtuais gerenciadas.

Implantação de modelos para inferência com computação gerenciada

Os modelos disponíveis para implantação em computação gerenciada podem ser implantados na computação gerenciada do Azure Machine Learning para inferência em tempo real. A implantação em computação gerenciada exige que você tenha uma cota de máquina virtual em sua assinatura do Azure para os produtos específicos de que precisa para executar o modelo de forma otimizada. Alguns modelos permitem que se possa implantar numa quota temporariamente partilhada para teste de modelos.

Saiba mais sobre a implantação de modelos:

Criação de aplicativos de IA generativa com computação gerenciada

O recurso de fluxo de prompts no Azure Machine Learning oferece uma ótima experiência para prototipagem. Você pode usar modelos implantados com computação sob gestão no fluxo de prompt com a ferramenta Open Model LLM. Você também pode usar a API REST disponibilizada pela computação gerida em ferramentas LLM populares, como LangChain, com a extensão Azure Machine Learning.

Segurança de conteúdo para modelos implantados como computação gerenciada

O serviço Azure AI Content Safety está disponível para uso com computação gerenciada para rastrear várias categorias de conteúdo prejudicial, como conteúdo sexual, violência, ódio e automutilação. Você também pode usar o serviço para detetar ameaças avançadas, como a deteção de riscos associados a jailbreak e a deteção de texto de material protegido.

Você pode consultar este bloco de anotações para obter referência à integração com o Azure AI Content Safety for Llama 2. Ou pode usar a ferramenta Segurança de Conteúdo (Texto) no fluxo de prompts para enviar respostas do modelo para a Segurança de Conteúdo do Azure AI para verificação. Você é cobrado separadamente por esse uso, conforme descrito nos preços do Azure AI Content Safety.

Faturamento de implantação de API sem servidor

Você pode implantar determinados modelos no catálogo de modelos com cobrança de API sem servidor. Esse método de implantação, também chamado de implantação de API sem servidor, fornece uma maneira de consumir os modelos como APIs sem hospedá-los em sua assinatura. Os modelos são hospedados em uma infraestrutura gerenciada pela Microsoft, que permite o acesso baseado em API ao modelo do provedor de modelos. O acesso baseado em API pode reduzir drasticamente o custo de acesso a um modelo e simplificar a experiência de provisionamento.

Os modelos que estão disponíveis para implantação como implantações de API sem servidor são oferecidos pelo provedor de modelo, mas são hospedados em uma infraestrutura do Azure gerenciada pela Microsoft e acessados via API. Os fornecedores de modelos definem os termos de licença e definem o preço de utilização dos seus modelos. O serviço Azure Machine Learning:

  • Gerencia a infraestrutura de hospedagem.
  • Disponibiliza as APIs de inferência.
  • Atua como processador de dados para prompts enviados e saída de conteúdo por modelos implantados via MaaS.

Saiba mais sobre o processamento de dados para MaaS no artigo sobre privacidade de dados.

Diagrama que mostra o ciclo de serviço do editor de modelos.

Observação

As assinaturas do Provedor de Soluções na Nuvem (CSP) não têm a capacidade de comprar modelos de implantação de API sem servidor.

Faturação

A experiência de descoberta, subscrição e consumo dos modelos implementados via MaaS está disponível no portal Foundry e no Azure Machine Learning Studio. Os usuários aceitam os termos de licença para uso dos modelos. As informações de preços para consumo são fornecidas durante a implantação.

Os modelos de fornecedores que não são da Microsoft são faturados através do Azure Marketplace, de acordo com os Termos de Utilização do Microsoft Commercial Marketplace.

Os modelos da Microsoft são faturados através de contadores do Azure como Serviços de Consumo de Primeira Parte. Conforme descrito nos Termos do Produto, você compra Serviços de Consumo de Primeira Parte usando medidores do Azure, mas eles não estão sujeitos aos termos de serviço do Azure. A utilização destes modelos está sujeita aos termos de licença fornecidos.

Modelos de afinação fina

Alguns modelos também suportam ajuste fino. Para estes modelos, pode aproveitar a computação gerida (pré-visualização) ou o ajustamento de APIs sem servidor para adaptar os modelos utilizando os dados que forneceu. Para obter mais informações, consulte a visão geral sobre o ajuste fino.

RAG com modelos implantados como implantações de API sem servidor

No portal Foundry, pode usar índices vetoriais e geração aumentada por recuperação (RAG). Você pode usar modelos que podem ser implantados por meio de implantações de API sem servidor para gerar incorporações e inferências com base em dados personalizados. Essas incorporações e inferências podem gerar respostas específicas para o seu caso de uso. Para mais informações, consulte Construir e consumir índices vetoriais no portal Foundry.

Disponibilidade regional de ofertas e modelos

A cobrança paga por token está disponível apenas para usuários cuja assinatura do Azure pertence a uma conta de cobrança em um país/região onde o provedor de modelo disponibilizou a oferta. Se a oferta estiver disponível na região relevante, o usuário deverá ter um recurso de projeto na região do Azure onde o modelo está disponível para implantação ou ajuste fino, conforme aplicável. Veja a disponibilidade regional de modelos em implementações de APIs serverless (sem servidor) | Foundry para informações detalhadas.

Segurança de conteúdo para modelos implantados por meio de implantações de API sem servidor

Para modelos de linguagem implantados por meio de API sem servidor, a IA do Azure implementa uma configuração padrão dos filtros de moderação de texto do Azure AI Content Safety que detetam conteúdo nocivo, como conteúdo de ódio, automutilação, sexual e violento. Para saber mais sobre filtragem de conteúdo, consulte Guardrails & controles para Modelos Vendidos Diretamente pela Azure.

Sugestão

A filtragem de conteúdo não está disponível para determinados tipos de modelo implantados por meio de API sem servidor. Esses tipos de modelo incluem modelos de incorporação e modelos de séries temporais.

A filtragem de conteúdo ocorre de forma síncrona à medida que o serviço processa prompts para gerar conteúdo. Você pode ser cobrado separadamente de acordo com o preçário do Azure AI Content Safety para esse uso. Você pode desativar a filtragem de conteúdo para pontos de extremidade sem servidor individuais de diversas formas:

  • No momento em que você implanta um modelo de idioma pela primeira vez
  • Mais tarde, selecionando a opção de filtragem de conteúdo na página de detalhes da implantação

Suponha que você decida usar uma API diferente da API de Inferência de Modelo para trabalhar com um modelo implantado por meio de uma API sem servidor. Nessa situação, a filtragem de conteúdo não é habilitada, a menos que você a implemente separadamente usando a Segurança de Conteúdo do Azure AI.

Para começar a usar o Azure AI Content Safety, consulte Guia de início rápido: analisar conteúdo de texto. Se você não usar a filtragem de conteúdo ao trabalhar com modelos implantados por meio de API sem servidor, correrá um risco maior de expor os usuários a conteúdo prejudicial.

Isolamento de rede para modelos implantados por meio de implantações de API sem servidor

Os endpoints para modelos implementados como implementações de APIs serverless seguem a definição de flag de acesso à rede pública do hub Foundry que contém o projeto onde a implementação existe. Para ajudar a proteger a implementação da API serverless, desative o indicador de acesso a redes públicas no Foundry hub. Você pode ajudar a proteger a comunicação de entrada de um cliente para seu ponto de extremidade usando um ponto de extremidade privado para o hub.

Para definir a bandeira de acesso à rede pública para o hub Foundry:

  • Vai para o portal Azure.
  • Procure o grupo de recursos ao qual o hub pertence e selecione o seu hub Foundry entre os recursos listados para esse grupo.
  • Na página de visão geral do hub, no painel esquerdo, vá para Configurações>de rede.
  • Na guia Acesso público, você pode definir configurações para o sinalizador de acesso à rede pública.
  • Salve suas alterações. Suas alterações podem levar até cinco minutos para serem propagadas.

Limitações

  • Se tiver um hub Foundry com um endpoint privado criado antes de 11 de julho de 2024, as implementações de APIs serverless adicionadas a projetos neste hub não seguirão a configuração de rede do hub. Em vez disso, você precisa criar um novo ponto de extremidade privado para o hub e criar uma nova implantação de API sem servidor no projeto para que as novas implantações possam seguir a configuração de rede do hub.

  • Se tiver um hub Foundry com implementações MaaS criadas antes de 11 de julho de 2024, e ativar um endpoint privado nesse hub, as implementações existentes da API serverless não seguirão a configuração de rede do hub. Para que as implantações de API sem servidor no hub sigam a configuração de rede do hub, você precisa criar as implantações novamente.

  • Atualmente, o suporte do Azure OpenAI On Your Data não está disponível para implantações de API sem servidor em hubs privados, porque os hubs privados têm o sinalizador de acesso à rede pública desabilitado.

  • Qualquer alteração na configuração da rede (por exemplo, ativar ou desativar o sinalizador de acesso à rede pública) pode levar até cinco minutos para se propagar.