Finanças13 de abril de 2026 - 17h36

FMI alerta: sistema monetário global não está preparado para os riscos da inteligência artificial

Por Equipe Portal Tech & Negócios

FMI alerta: sistema monetário global não está preparado para os riscos da inteligência artificial

FMI alerta: sistema monetário global não está preparado para os riscos da inteligência artificial

A discussão sobre inteligência artificial deixou de ser apenas uma pauta de produtividade e passou a entrar no radar de estabilidade financeira. Em declaração recente, Kristalina Georgieva, diretora-gerente do Fundo Monetário Internacional (FMI), advertiu que o sistema monetário internacional ainda não está preparado para lidar com riscos associados à inteligência artificial, ressaltando que os perigos “não param de crescer de forma exponencial”.

Por que a inteligência artificial virou um tema de estabilidade monetária

A preocupação do FMI não é com “a IA” como conceito, mas com a velocidade de adoção de modelos e sistemas automatizados em decisões críticas de mercado. À medida que bancos, gestoras, fintechs e áreas de tesouraria incorporam IA para precificação, crédito, prevenção a fraudes e execução algorítmica, aumentam também os pontos de falha sistêmica — especialmente quando várias instituições passam a usar abordagens semelhantes, dados correlacionados e fornecedores comuns.

Além disso, a natureza exponencial citada por Kristalina Georgieva ajuda a entender o desafio: a capacidade de criar, testar e implantar modelos cresce mais rápido do que os mecanismos tradicionais de supervisão e gestão de riscos. Isso amplia a chance de efeitos cascata (um erro pequeno virando um evento grande) e de fragilidades invisíveis, como vieses nos dados, dependência excessiva de automação e baixa explicabilidade em decisões que afetam liquidez e solvência.

Principais riscos apontados para o sistema monetário internacional

Alguns vetores ajudam a explicar por que a inteligência artificial pode tensionar o sistema monetário internacional:

  • Risco operacional e cibernético ampliado: IA pode ser usada tanto para defesa quanto para ataques mais sofisticados, com potencial de interromper pagamentos e infraestrutura financeira.
  • Efeito manada algorítmico: modelos semelhantes podem reagir ao mesmo sinal e aumentar volatilidade, impactando preços e liquidez.
  • Modelos opacos e difícil supervisão: decisões automatizadas podem ser difíceis de auditar e justificar, elevando o risco de erros persistentes.
  • Dependência de provedores e infraestrutura: concentração tecnológica (ferramentas, nuvem, dados) pode criar “pontos únicos de falha” para o mercado.

Tendências e inovações que aceleram a adoção (e os riscos)

A evolução recente da inteligência artificial tende a intensificar o uso em finanças, aumentando ganhos de eficiência — e também o custo de falhas.

  • Automação avançada de decisões em crédito, compliance e gestão de portfólio.
  • Sistemas preditivos em tempo real, apoiados por grandes volumes de dados e integração de múltiplas fontes.
  • IA aplicada à detecção de fraude e monitoramento de transações, elevando o patamar de controle, mas exigindo governança rigorosa.

Impactos para empresas, bancos e reguladores

Do lado de negócios, a mensagem do FMI pressiona por uma agenda de governança de modelos mais madura: validação contínua, controles internos, testes de estresse e planos de contingência para decisões automatizadas. O objetivo é evitar que ganhos de produtividade venham acompanhados de riscos desproporcionais, principalmente em atividades sensíveis como pagamentos, concessão de crédito e gestão de liquidez.

Para reguladores e formuladores de padrões, o alerta aponta para a necessidade de coordenação internacional. Como o sistema monetário internacional conecta países e instituições por meio de fluxos de capitais, câmbio e redes de pagamento, falhas ligadas a IA em um ponto podem se propagar rapidamente. Na prática, isso pode acelerar debates sobre requisitos mínimos de transparência, auditoria, segurança e responsabilidade — sem sufocar a inovação, mas reduzindo vulnerabilidades sistêmicas.

O que observar a partir de agora

  • Adoção de controles e auditorias de IA por instituições financeiras em processos críticos.
  • Reforço de segurança cibernética voltada a ataques potencializados por IA.
  • Movimento do FMI e de supervisores em direção a padrões e recomendações para o uso de modelos em larga escala.

Referências da fonte:

Fonte: Globo

Outros posts