No imaginário humano, o risco de uma criação se voltar contra o criador é alvo de diversas fábulas, contos e filmes, alcançando seu ápice no clássico gótico “Frankenstein”. Nesta obra, a escritora Mary Shelley conta a história do jovem cientista Victor Frankenstein que, por meio de métodos controversos, dá a vida a uma criatura feita de partes de corpos humanos. No entanto, o cientista se arrepende de sua criação, após ter sua vida e de seus entes queridos ameaçada.
Novamente, este mesmo paradigma vê-se atualizado pela criação de Sam Altman, CEO da OpenAi, empresa responsável pela criação do modelo de linguagem de IA, o ChatGPT. A ferramenta conquistou uma difícil tarefa, impressionar um mundo já saturado por novidades e novas tecnologias.
Com tamanho poder de processamento de linguagem natural, apresenta diversas e ilimitadas aplicações, dentre as quais, se destaca a utilização em diversos setores e, no âmbito jurídico, na área de compliance.
Apesar do inegável impacto econômico e social causado pelo ChatGPT, como qualquer ferramenta de tecnologia, a plataforma apresenta algumas limitações que precisam ser observadas, antes do uso desmedido da ferramenta.
Este risco necessita de especial atenção, visto que, ao apresentar respostas às mais diversas perguntas de forma simples, natural e didática, a ferramenta promove uma grande credibilidade, em virtude da maneira certeira que suas exposições são entregues aos usuários. Neste sentido, ao ser aplicada no resumo de textos, reescrita de frases, construção de argumentações, estruturação de petições e análise de informações, o ChatGPT expõe seu real valor prático.
Feita esta breve contextualização, é de grande utilidade analisar as aplicabilidades do ChatGPT ao Compliance. Em suas próprias palavras, quando perguntado sobre as utilidades da ferramenta no Compliance, o Chat declarou que poderia ser aplicado nas seguintes áreas:
- Análise de Dados;
- Elaboração de Políticas e Procedimentos;
- Treinamentos; e
- Comunicações Internas; e
- Previsão de Riscos.
Como pôde ser observado, a ferramenta apresenta maior eficácia quando utilizada para a identificação de padrões, estruturação e organização de dados e a previsão de possíveis cenários, tomando como base o histórico apresentado à plataforma. Assim, ao ser treinada de forma correta, a ferramenta aumenta exponencialmente a eficiência e precisão da análise de bases de dados que, mesmo que já possam ser avaliadas automaticamente, agora passam a ser organizadas e classificadas com os padrões e critérios elencados pelo usuário.
Assim, a aplicação constante da ferramenta, traduz uma base de dados cada vez mais robusta e personalizada à realidade do usuário/empresa, permitindo que o Chat forneça informações e dados referentes à gestão do compliance, apresentando possíveis melhorias específicas ao Sistema de Integridade e, caso seja alimentada com as novas regulamentações e práticas, a ferramenta poderá indicar a melhor forma de aplicar adequações regulatórias dentre outros.
Contudo, a própria plataforma é categórica ao afirmar que sua aplicabilidade não pode substituir o trabalho humano nas práticas de Compliance, mas deve ser utilizada como uma ferramenta para o aumento de eficiência, precisão e rapidez nas atividades executadas pela área.
A preocupação se dá com as limitações operacionais do ChatGPT, tomando como base o contexto de sua utilização junto ao compliance. Neste cenário, uma das maiores barreiras não diz respeito à ferramenta, mas a qualidade e precisão dos dados fornecidos para o ChatGPT. Assim, como as demais inteligências artificiais baseadas em machine learning, a eficiência das respostas pelo Chat está diretamente relacionada com a qualidade das bases de dados aos quais foi treinada e exposta.
Deste modo, os agentes de compliance deverão estar atentos ao envio de informações imprecisas ou incompletas, uma vez que, ao apresentar tais dados, os resultados estarão comprometidos e o risco neste caso não se atém somente a qualidade das respostas, mas sim no viés apresentado pela plataforma que, ao ser exposta a dados limitados, parciais ou partidários, poderá fornecer orientações imprecisas, preconceituosas ou tendenciosas.
Com isso, estamos convictos de que a regulação normativa e o controle existente sobre essas tecnologias deve passar, necessariamente, por um modelo de “Compliance by Design“, já que o exercício de controle sobre vieses reprováveis e preconceituosos, ou será realizado pela utilização de novos sistemas de detecção que utilizam própria Inteligência Artificial como suporte, ou por meio de um processo de regulação em que a própria disponibilização da IA possa garantir, aos seus usuários, a segurança que dela se espera, é dizer, pelo Compliance by Design, que impedirá a exposição aos riscos de exposição indevida da plataforma, desde seu lançamento.