Mais da metade das empresas no Brasil adotam ferramentas de IA para compliance

Porcentagem é superior à média global, que é de 29%, de acordo com estudo da EY sobre integridade, que entrevistou mais de cinco mil membros do conselho, gerentes e funcionários.

opened-ai-chat-laptopPorcentagem é superior à média global, que é de 29%, de acordo com estudo da EY sobre integridade. (Foto: Freepik)

A inteligência artificial já está sendo bastante usada pelas empresas que atuam no Brasil por meio de ferramentas que se utilizam de técnicas e/ou aplicam essa tecnologia em suas soluções para compliance e integridade, de acordo com o Relatório de Integridade Global 2024, produzido pela EY. Na amostra brasileira, mais da metade dos entrevistados (51%) apontam essa utilização, porcentagem bem superior em comparação com a média global (29%). Desses 51% registrados, 92% afirmam que suas empresas estão preocupadas em estabelecer processos e políticas que observem os riscos relacionados à adoção de IA, como aspectos de segurança da informação, privacidade e ética no uso de algoritmos. Essa governança tem como objetivo reduzir o risco de alucinação da IA generativa, assegurando que haja supervisão humana dos resultados apresentados.

Ainda segundo o estudo, os mercados emergentes estão à frente dos desenvolvidos nesses esforços de governança, com quatro em cada dez entrevistados dizendo que adotaram medidas para gerir a implementação e utilização da IA. Além disso, também se mostram mais maduros no entendimento dessa tecnologia e de suas responsabilidades no uso dela. Isso porque 51% dos executivos nos mercados emergentes dizem ter recebido formação ou orientação das suas organizações sobre a utilização da IA e os riscos envolvidos – contra 35% dos executivos nos mercados desenvolvidos. O índice na América do Sul (54%) é mais elevado do que na Europa Ocidental (35%), América do Norte (32%) e Oceania (28%).

Os entrevistados pertencentes ao jurídico e ao compliance mencionam a melhoria contínua dos processos, a evolução no monitoramento ativo e as avaliações de risco como as principais atividades de rotina do trabalho de conformidade aperfeiçoadas pela IA. Para eles, o maior impacto da IA no compliance está na coleta avançada de dados, manipulação e análise de riscos na correlação de conjunto de dados, com 40% das respostas; monitoramento ativo e alteração, com 37%; e atividades de pontuação ou análise de riscos, com 34%. Ao fazer o monitoramento das mudanças regulatórias, a IA analisa ao mesmo tempo os dados internos para identificar potenciais lacunas de compliance.

No entanto, esses executivos estão cautelosos com os riscos que podem impedir a plena implementação dos sistemas de IA nas suas funções. Os dois principais desafios são dados inconsistentes ou ausentes para alimentar modelos de IA e falta de experiência interna com essa tecnologia. Essas questões passam por garantir que as ferramentas de IA sejam usadas de acordo com as diretrizes internas e com os requisitos legais.