A Salesforce decidiu reduzir o uso de modelos grandes de linguagem (LLMs) em iniciativas de inteligencia artificial ao citar preocupacoes com confiabilidade, segundo noticiado pela CySecurity News. Em termos simples, a empresa sinaliza que, para tarefas criticas, respostas “criativas” ou inconsistentes podem virar um risco operacional: uma orientacao errada, um resumo impreciso ou uma sugestao fora de contexto pode gerar retrabalho, erros de decisao e impactos na experiencia do cliente. O recuo reforca uma mensagem importante para qualquer organizacao: IA pode ajudar muito, mas nao deve ser tratada como fonte perfeita de verdade, especialmente quando influencia processos sensiveis. O movimento da Salesforce tambem chama atencao para a necessidade de controles: definir quando a IA pode sugerir e quando um humano precisa validar, limitar escopo de uso, registrar o que foi gerado e acompanhar indicadores de falhas. Dica de prevencao: antes de ampliar o uso de IA, crie regras claras de revisao e aprovacao para conteudos e recomendacoes. E mantenha trilhas de auditoria para entender o que a IA entregou e por que foi usado. No geral, a decisao da Salesforce mostra que confiabilidade ainda e um desafio pratico e que governanca e cautela fazem diferenca. Para reduzir riscos de acesso e manter controle mesmo com mudancas de equipe, conheca o MFA VAULT, cofre de MFA desenvolvido pela MFA2GO, com gestao centralizada e tecnologia propria, web e segura, alinhada a ISO 27001 e SOC 2: mfa2go.com.br
Fonte: CySecurity News – https://www.cysecurity.news/2026/01/salesforce-pulls-back-from-ai-llms.html
