MFA2GO
Voltar ao início do blog

NIST propõe novas diretrizes para fortalecer a segurança em inteligência artificial

O Instituto Nacional de Padrões e Tecnologia (NIST), dos Estados Unidos, publicou em agosto de 2025 uma proposta de diretrizes para melhorar a segurança de sistemas baseados em inteligência artificial (IA). O objetivo é ajudar empresas e desenvolvedores a protegerem seus modelos contra ataques e manipulações maliciosas.

Entre as recomendações, destacam-se a gestão contínua de riscos, a validação periódica dos modelos e o monitoramento ativo de tentativas de exploração. Os riscos vão desde o envenenamento de dados de treinamento (data poisoning) até a manipulação das respostas geradas pelos sistemas (model evasion), além do uso indevido de aplicações com IA.

Outro ponto importante do documento é a exigência de mais transparência sobre como os modelos foram treinados, quais dados foram utilizados e quais limitações técnicas devem ser consideradas pelas empresas. A proposta surge em um momento em que a IA se torna essencial em áreas como saúde, finanças e segurança pública.

Com o aumento no uso da IA, cresce também o interesse de cibercriminosos em explorar brechas para fraudes, roubos de dados ou comprometer sistemas críticos. Por isso, a iniciativa do NIST pode se tornar referência internacional, impulsionando a criação de regulamentações e padrões globais de segurança em IA.

Dica de Prevenção
Empresas que utilizam IA devem adotar práticas como auditorias independentes, testes adversariais e monitoramento em tempo real. A aplicação de frameworks como os propostos pelo NIST contribui para maior resiliência frente a ameaças digitais.

As novas diretrizes do NIST reforçam a importância de desenvolver e aplicar a inteligência artificial com responsabilidade e segurança. Prepare sua empresa para o futuro com soluções confiáveis. Conheça o MFA Vault da MFA2GO em mfa2go.com

Compartilhe nas redes sociais: