A aplicação de inteligência artificial (IA) em investigações de compliance é uma realidade. A capacidade de processar volumes massivos de dados, identificar padrões e gerar insights em uma velocidade antes impensável posiciona a tecnologia como uma aliada poderosa. Contudo, seu uso acende um alerta sobre os desafios de confiança, segurança, ética e, acima de tudo, a necessidade de uma governança robusta para mitigar os riscos inerentes ao uso de uma ferramenta tão poderosa, cujos riscos vão além das questões mais óbvias.
Para Antonio Gesteira, Senior Managing Director de Technology e Risk & Investigations na FTI Consulting, é crucial saber com qual tecnologia estamos lidando, afinal ela avança muito rapidamente e é difícil acompanhar tudo em tempo real. “A adoção de IA tem sido cada vez mais difundida nas organizações, mas ainda falta estratégia”, afirma Gesteira, “o que, em consequência, dificulta metrificar resultados e entender, de fato, qual é o retorno sobre o investimento naquela tecnologia”, conclui.
Além disso, como qualquer nova tecnologia, trabalhar dentro de suas limitações é fundamental para o sucesso de um projeto que trata de informações sensíveis, o que tipicamente ocorre no contexto de compliance e investigações. A partir dessa premissa, e passada uma preocupação de aspectos gerais, a grande questão é: quais são os desafios e os cuidados indispensáveis ao integrar essas ferramentas nos complexos e delicados processos de investigação de Compliance?
A eficácia do uso da IA em uma investigação não elimina a responsabilidade humana; pelo contrário, ela a amplifica. Um dos pontos mais críticos da governança da IA é a gestão dos dados. Questões como onde e como dados são armazenados, se há algum tipo de compartilhamento e como são processados, por exemplo, são fundamentais. Além disso, é importante entender como a IA funciona, para saber exatamente como os modelos de linguagem são treinados e o que isso significa para questões de segurança e confiabilidade. Entendendo as dificuldades, limitações e funcionamento, elas podem ser endereçadas com envolvimento humano – o que chamamos de “human-in-the-loop”.
O primeiro desafio é estabelecer um grau de segurança sobre a correção das respostas e relatórios produzidos pela IA. “Sobretudo em questões jurídicas e regulatórias sensíveis e de alto risco, é extremamente arriscado tratar a tecnologia como substituta da análise e do discernimento humanos”, questiona Gesteira. Embora ferramentas modernas de e-Discovery já consigam referenciar os documentos-base para suas conclusões, a revisão humana é insubstituível. “Quando especialistas conduzem a aplicação da IA Generativa, ajustando-a às necessidades de cada caso e à natureza de cada tarefa, a tecnologia pode transformar todas as etapas da revisão — da análise inicial ao registro de privilégios à apresentação final das conclusões”, afirma o executivo.
A escolha do modelo, ou seja, “qual IA” será utilizada, também pode ser um ponto crítico. Muitos conhecem o “ChatGPT”, talvez a aplicação mais famosa de IA Generativa atualmente disponível. Contudo, ela não é a única, e muitas vezes, não é a mais adequada para determinadas tarefas. Existem modelos que possuem diferenças baseadas em arquitetura, forma de treinamento, escopos de aplicação, escala e governança, entre outros. Isso faz com que a escolha do modelo tenha impacto direto no resultado que espera se obter.
Para investigações, pode-se utilizar um modelo hospedado localmente, nos domínios da empresa. Isso permite um nível de segurança acima do padrão, uma vez que há quase uma garantia de que os dados não sairão de ambientes controlados. Além disso, escolher modelos que agreguem domínio jurídico ou sejam customizados para tarefas de investigação pode ajudar bastante na precisão dos resultados.
Em temas sensíveis como investigações, a segurança deve ser a principal preocupação. Não tomar cuidado com a escolha do modelo pode aumentar o risco de usar ferramentas que operam como uma “caixa preta”, sob a qual não se consegue ter controle. Na produção de um texto ou de uma apresentação, isso é contornável. No caso de uma investigação interna, essa contaminação pode macular o processo e tornar, em última instância, a investigação imprecisa a ponto de ela não ser suficientemente segura para ser usada como base para decisões.
Por outro lado, mesmo nos casos de ferramentas de IA robustas, existe um dilema ético: é aceitável que uma empresa de consultoria ou auditoria utilize dados de múltiplos clientes para treinar seu algoritmo e “monetizar” essa informação, mesmo que de forma anônima, sem o conhecimento e consentimento deles? “Esses modelos de IA estão aprendendo com todas as investigações da consultoria, ou elas atuam apenas no ambiente de uma determinada investigação, vedando o acesso da ferramenta a informações de outros projetos?”, pontua o executivo da FTI Consulting. É nesse ponto que se faz clara a importância de profissionais qualificados e experientes no trato das ferramentas de IA. “Esses profisisonais vão poder se valer da sua experiência para alimentar e parametrizar o que é importante a IA aprender naquele caso específico”, aponta Gesteira, para quem “usar IA em uma consultoria certificada garante segurança de dados, conformidade legal, governança, especialistas multidisciplinares e aplicação responsável da tecnologia, resultando em análises confiáveis e defensáveis”.
Outro ponto a destacar é sobre treinamento e conhecimento. Não é preciso ser um cientista de dados, mas é imperativo que o profissional de compliance seja capaz de conversar bem com a tecnologia. “A qualidade do resultado depende diretamente da qualidade da solicitação ou do comando inserido (ou “prompts”). Se você perguntar bem, o resultado é melhor”, afirma Victor Fonseca, Diretor da prática de Digital Transformation & Artificial Intelligence da FTI Consulting.
É preciso saber elaborar solicitações cada vez mais específicas para obter resultados assertivos. E isso não tem a ver apenas com domínio da tecnologia, mas sim com o conhecimento e a expertise do profissional que, primeiro, sabe fazer as perguntas específicas e pertinentes ao caso e, mais importante, tem a capacidade de avaliar e analisar os insights gerados pela ferramenta, para saber como tratar o conteúdo da IA. O conhecimento vai além do que chamamos de ‘letramento em IA’, jargão usado por especialistas para definir esse nível de conhecimento. E o próprio letramento deve ser personalizado de acordo com o cargo ou a atividade exercida. “O que um CEO ou um diretor precisa saber sobre IA é diferente do que um profissional de nível operacional precisa aprender”, completa Fonseca.
Uma boa governança de IA também ajuda a delimitar para quais tipos de investigação e situações a ferramenta é recomendada, ou até onde ela pode ser útil. Investigações de assédio, por exemplo, que costumam envolver menor volume de dados, exigem uma análise humana muito mais sensível.
Por mais que a IA seja amplamente discutida, sua jornada nas investigações de compliance está apenas começando. Seu sucesso dependerá diretamente da maturidade da governança, que, em investigações de compliance, deve levar em consideração riscos específicos, como qualidade dos dados, preservação da privacidade (incluindo o respeito à LGPD), questões éticas e os vieses que a IA pode apresentar, como as chamadas “alucinações”. “Sem esses cuidados, o que deveria ser uma ferramenta de eficiência pode se tornar uma fonte de riscos para o trabalho de compliance”, conclui Gesteira.
Artigo oferecido por:



