Compartilhar via


IA segura

Este artigo ajuda você a estabelecer um processo de segurança para cargas de trabalho de IA no Azure. Um ambiente de IA seguro dá suporte a objetivos de negócios e cria confiança dos stakeholders em soluções de IA.

Diagrama que mostra as seis fases da adoção da IA: Estratégia, Plano, Pronto, Governar, Proteger, Gerenciar.

Descobrir riscos de segurança de IA

As cargas de trabalho de IA criam novas superfícies de ataque que as medidas de segurança tradicionais não podem resolver. Você deve avaliar sistematicamente vulnerabilidades específicas de IA para criar defesas eficazes. Veja como:

  1. Identifique os riscos do sistema de IA em seu ambiente. Os sistemas de IA enfrentam ameaças em evolução que exigem estruturas de avaliação especializadas para detectar. Essas estruturas ajudam você a entender vetores de ataque específicos ao aprendizado de máquina e cargas de trabalho de IA. Use estruturas como o MITRE ATLAS e o risco de IA generativa OWASP para identificar riscos em todas as cargas de trabalho de IA em sua organização.

  2. Avalie os riscos de dados de IA em todos os seus fluxos de trabalho. Dados confidenciais nos fluxos de trabalho de IA aumentam o risco de ameaças internas e vazamentos de dados que podem comprometer as operações comerciais. A avaliação de risco de dados ajuda você a priorizar investimentos em segurança com base nos níveis reais de exposição. Use ferramentas como o Microsoft Purview Insider Risk Management para avaliar os riscos de dados em toda a empresa e priorizá-los com base nos níveis de confidencialidade de dados.

  3. Teste modelos de IA para vulnerabilidades de segurança. Os modelos de IA contêm vulnerabilidades exclusivas, como vazamento de dados, injeção de prompt e inversão de modelo que os invasores podem explorar. O teste do mundo real descobre os riscos que as revisões estáticas não podem detectar. Teste modelos de vulnerabilidades usando técnicas de prevenção contra perda de dados e simulações adversárias, além de modelos de IA gerativa e IA não generativa da equipe vermelha para simular ataques reais.

  4. Realize avaliações de risco periódicas. Novas ameaças surgem à medida que modelos de IA, padrões de uso e atores de ameaça evoluem ao longo do tempo. As avaliações regulares garantem que sua postura de segurança se adapte às mudanças nos cenários de risco. Execute avaliações recorrentes para identificar vulnerabilidades em modelos, pipelines de dados e ambientes de implantação e use as descobertas de avaliação para orientar suas prioridades de mitigação de risco.

Proteger dados e recursos de IA

Os sistemas de IA contêm ativos valiosos que exigem forte proteção contra acesso e ataques não autorizados. Você deve implementar controles de segurança específicos para proteger esses recursos críticos.

Proteger recursos de IA

Medidas de segurança abrangentes protegem seus investimentos em IA e mantêm a confiança dos stakeholders em suas soluções de IA. Você deve aplicar controles direcionados para proteger todos os componentes da infraestrutura de IA. Veja como:

  1. Crie um inventário completo de ativos de IA. Ativos de IA desconhecidos criam lados desprotegidos de segurança que os invasores exploram para obter acesso não autorizado. Um inventário abrangente permite monitoramento eficaz e resposta rápida a incidentes para todos os componentes de IA. Use o Azure Resource Graph Explorer para descobrir recursos de IA entre assinaturas, implementar o Microsoft Defender para Nuvem para identificar cargas de trabalho de IA generativas e manter esse inventário por meio de verificação automatizada e validação regular.

  2. Proteja todos os canais de comunicação de IA. Caminhos de comunicação expostos entre componentes de IA permitem interceptação de dados e comprometimento do sistema. Os canais protegidos corretamente impedem o acesso não autorizado e protegem informações confidenciais em trânsito. Implemente identidades gerenciadas para autenticação segura sem credenciais armazenadas, use redes virtuais para isolar as comunicações de IA e implante o Gerenciamento de API do Azure para proteger os pontos de extremidade do servidor do Protocolo de Contexto de Modelo.

  3. Aplicar controles de segurança específicos da plataforma. Diferentes modelos de implantação de IA enfrentam ameaças de segurança distintas com base em seus pontos de arquitetura e exposição. Os controles personalizados pela plataforma abordam as vulnerabilidades específicas presentes em cada tipo de implantação. Siga as diretrizes de segurança dedicadas com base em seu modelo de implantação:

Proteger os dados de IA

As cargas de trabalho de IA dependem de dados e artefatos que exigem proteção robusta para evitar acesso não autorizado, vazamentos de dados e violações de conformidade. Você deve implementar medidas abrangentes de segurança de dados para proteger dados e artefatos de IA. Veja como:

  1. Defina e mantenha os limites de dados. Os limites de dados claros garantem que as cargas de trabalho de IA acessem apenas os dados apropriados para o público-alvo e o caso de uso pretendidos. Use o Microsoft Purview para classificar a confidencialidade de dados e definir políticas de acesso. Implemente o RBAC (controle de acesso baseado em função) do Azure para restringir o acesso a dados por carga de trabalho e grupo de usuários. Use o Link Privado do Azure para criar isolamento de dados no nível da rede entre aplicativos de IA.

  2. Implemente a prevenção abrangente contra perda de dados. A exposição não autorizada de dados por meio de respostas de IA pode comprometer informações confidenciais e violar requisitos regulatórios. Os controles de prevenção contra perda de dados impedem que os modelos de IA revelem inadvertidamente dados protegidos em suas saídas. Use a Prevenção contra Perda de Dados do Microsoft Purview para verificar e bloquear dados confidenciais em fluxos de trabalho de IA. Configure a filtragem de conteúdo para evitar vazamento de informações confidenciais e implemente filtros personalizados para detectar e redigir padrões de dados confidenciais específicos da organização. Para o Microsoft Copilot Studio, configure políticas de prevenção contra perda de dados para agentes.

  3. Proteja os artefatos de IA contra comprometimento. Modelos e conjuntos de dados de IA não protegidos tornam-se alvos de roubo, envenenamento ou ataques de engenharia reversa. Artefatos protegidos mantêm o valor da propriedade intelectual e impedem a manipulação mal-intencionada de sistemas de IA. Armazene modelos e conjuntos de dados no Armazenamento de Blobs do Azure com pontos de extremidade privados, aplique criptografia em repouso e em trânsito e implemente políticas de acesso rigorosas com monitoramento para detectar tentativas de acesso não autorizadas.

Detectar ameaças à segurança da IA

Os sistemas de IA enfrentam ameaças em evolução que exigem monitoramento contínuo para evitar violações de segurança e interrupções de serviço. A detecção rápida de ameaças protege os investimentos em IA e mantém a continuidade dos negócios. Você deve implementar recursos automatizados de monitoramento e resposta para lidar com incidentes de segurança específicos da IA com eficiência. Veja como:

  1. Implante a detecção automatizada de risco de IA em seu ambiente. As cargas de trabalho de IA introduzem ameaças dinâmicas que o monitoramento manual não pode detectar rapidamente o suficiente para evitar danos. Os sistemas automatizados fornecem visibilidade em tempo real sobre riscos emergentes e permitem uma resposta rápida a incidentes de segurança. Use o gerenciamento de postura de segurança de IA no Microsoft Defender para Nuvem para automatizar a detecção e a correção de riscos de IA generativos em seu ambiente do Azure.

  2. Estabeleça procedimentos de resposta a incidentes focados em IA. Incidentes de segurança não detectados podem levar à perda de dados, ao comprometimento do modelo ou à interrupção do serviço que prejudica as operações comerciais. Os procedimentos de resposta a incidentes especializados abordam as características exclusivas dos eventos de segurança de IA. Crie e teste planos de resposta a incidentes que abordam ameaças específicas de IA e monitoram continuamente indicadores de comprometimento em sistemas de IA. Estabeleça procedimentos de escalonamento claros para diferentes tipos de incidentes de segurança de IA.

  3. Implementar estratégias de monitoramento específicas da plataforma. As cargas de trabalho de IA implantadas em diferentes plataformas enfrentam desafios de segurança distintos que exigem abordagens de monitoramento personalizadas. O monitoramento específico da plataforma garante uma cobertura abrangente de todos os possíveis vetores de ataque. Aplique diretrizes de monitoramento com base em sua arquitetura de implantação:

Recursos do Azure

Categoria Ferramenta Descrição
Descoberta de ativos Explorador de Gráficos de Recursos do Azure Descobre e inventaria recursos de IA em assinaturas do Azure
Monitoramento de segurança Microsoft Defender para Nuvem Identifica cargas de trabalho de IA generativas e riscos de segurança
Gerenciamento de Identidades Identidades Gerenciadas Protege a autenticação do serviço de IA sem armazenar credenciais
Segurança de Rede Redes virtuais Isola as comunicações de IA e restringe o acesso à rede
Segurança da API Gerenciamento de API do Azure Protege os endpoints do servidor do Protocolo de Contexto de Modelo
Proteção de Dados Armazenamento de Blobs do Azure Fornece armazenamento criptografado para artefatos de IA com controles de acesso
Governança de dados Microsoft Purview Cataloga e classifica dados de IA com rótulos de confidencialidade

Próximas etapas

Governar IA, Gerenciar IA e Proteger IA são processos contínuos pelos quais você deve passar regularmente. Revise cada Estratégia de IA, Plano de IA e Preparação para IA conforme necessário. Use as listas de verificação de adoção da IA para determinar sua próxima etapa.