Um novo estudo assinado pela Ethisphere, uma consultoria especializada em ética e integridade e pela SpeakUp, que oferece plataformas tecnologia para a área, mostra como os profissionais de Ética & Compliance estão no centro da governança da Inteligência Artificial (IA), sendo formalmente encarregadas de guiar as organizações nesta nova e complexa fronteira tecnológica. Tendo como base dados extraídos da pesquisa para a premiação World’s Most Ethical Companies, organizado pela Ethisphere, o estudo aponta que 77% das equipes de Compliance já desempenham papel de influência ou coordenação direta na governança de IA dentro de suas empresas. Esse papel central é encarado como uma evolução natural e coloca a função de compliance como guardiã da ética e da integridade na implementação de novas tecnologias. Apesar disso, a prontidão para exercer essa governança de forma completa ainda encontra obstáculos significativos, especialmente fora dos muros da organização.
O principal alerta do relatório, intitulado “AI in Ethics & Compliance: Risk to Manage, Tool to Leverage”, está na gestão de risco de terceiros. Enquanto 84% das equipes de Compliance ouvidas pela pesquisa são donas do processo de gestão de risco de fornecedores, a supervisão específica sobre o uso de IA por esses parceiros é muito baixa. Apenas 14% das empresas auditaram ao menos uma parte de seus fornecedores em relação a práticas de IA, e somente 15% incluíram salvaguardas sobre a Inteligência Artificial em seus códigos de conduta para terceiros. Essa disparidade cria uma enorme área de exposição ao risco, onde as falhas éticas ou de conformidade de um fornecedor podem impactar diretamente a reputação e a estabilidade da empresa contratante.
57% das empresas já começaram a treinar seus colaboradores em geral sobre o uso de IA, um passo essencial para criar uma cultura de responsabilidade. Tratar a supervisão de IA em fornecedores com a mesma seriedade que a governança interna sobre a tecnologia, o que exige a inclusão de cláusulas contratuais específicas, a realização de auditorias focadas e a atualização dos códigos de conduta, é igualmente importante para garantir a segurança no uso da tecnologia por toda a cadeia.
Mas além de cuidar da governança dos riscos da IA e dos desafios, o relatório reforça o potencial transformador da tecnologia. “Uma vez que uma governança sólida esteja estabelecida, a IA deixa de ser apenas um risco a ser mitigado e se torna uma ferramenta estratégica”.
As equipes de compliance podem aproveitar a IA como uma alavanca para construir programas de ética e compliance mais inteligentes, ágeis e preditivos, automatizando a triagem de denúncias, aprimorando a análise de dados para investigações, monitorando transações em tempo real e personalizando treinamentos de forma muito mais eficaz do que os métodos tradicionais permitem.
A Inteligência Artificial pode atuar como um “assistente inteligente” para a equipe de investigações, processando as informações brutas de denúncias (recebidas por canais de ética, por exemplo) e as organizando de forma eficiente para que os investigadores possam agir mais rápido e com mais foco. Mas o uso da IA nesta área deve ser cercado de cuidados rigorosos para garantir a segurança e a ética no processo. Isso passa por garantir o uso de fontes aprovadas, testar rigorosamente e documentar tudo, incluindo os prompts (as instruções dadas à IA). As decisões tomadas devem ser documentadas para garantir a defensibilidade do processo em caso de auditoria ou questionamento legal. Além disso, é óbvio que não se pode automatizar a tomada de decisões críticas, por isso, exigir sempre a revisão humana e não treinar modelos com dados de outros casos, a menos que haja aprovação explícita das áreas jurídica e de privacidade, com todos os controles de dados aplicados.
A IA também pode apoiar ações preventivas em massa, como a habilitação de sinais de riscos em textos e documentos. Hoje, já existem tecnologias habilitadas por IA para analisar e estruturar grandes volumes de conteúdo não estruturado (como textos livres), permitindo que padrões de risco e red flags sejam identificados de forma precoce e sistemática. Claro que isso não deve ser algo aplicado de forma indiscriminada em todos os lugares, é preciso definir o escopo das fontes de informação e avaliar os impactos na privacidade.
Conheça o Curso de Governança de Inteligência Artificial e Proteção de Dados


