A inteligência artificial deixou de ser apenas uma tendência futurista para se tornar o motor de inovação de grandes companhias. No entanto, com o poder transformador do uso dessa tecnologia, surgem desafios jurídicos e éticos que colocam a área de conformidade no centro das atenções. A regulamentação de IA avança rapidamente ao redor do mundo e, no Brasil, não é diferente. Isso exige que profissionais das áreas de compliance, de privacidade e proteção de dados e de segurança da informação antecipem cenários para proteger suas organizações.
Para quem atua na liderança ou busca uma transição estratégica na carreira, entender esse cenário não é apenas uma questão de evitar multas; é sobre garantir que a adoção da IA seja um diferencial competitivo, de forma segura, ética e responsável. Neste artigo, vamos explorar o que muda com as novas leis e como você pode liderar essa adequação. Boa leitura!
Por que a regulamentação de IA está em discussão?
Até pouco tempo atrás, a tecnologia avançava em uma velocidade muito superior à do Direito. Porém, o uso massivo de dados em ferramentas generativas e algoritmos de decisão acelerou a necessidade de criar salvaguardas para o tratamento de dados e incentivar a estruturação de uma governança em IA, que atenda também aos requisitos e princípios de proteção dos titulares e de seus dados pessoais.
Riscos associados
A ausência de controle e governança impacta na identificação de possíveis riscos quanto ao uso de ferramentas de IA no tratamento de dados, o que impede a adoção de medidas preventivas e salvaguardas para mitigar riscos e preparar as organizações para eventuais incidentes ou a concretização de riscos.
Riscos associados a vieses algorítmicos, por exemplo, podem perpetuar discriminações históricas, enquanto a falta de segurança cibernética em sistemas inteligentes pode expor dados ou informações sensíveis.
Além disso, decisões automatizadas que afetam direitos das pessoas (como recrutamento, triagem, filtragem ou avaliação de candidatos) são considerados de alto risco, sendo necessário que as organizações se preparem na construção de framework que evidencie a necessidade, explicação e a mitigação de riscos para o titular.
Pressão de governos, mercado e sociedade por uso responsável
Não são apenas os legisladores que cobram mudanças. Investidores atentos aos critérios ESG e consumidores mais conscientes exigem que as empresas utilizem a tecnologia de forma ética e responsável. A conformidade tornou-se, portanto, um pilar de reputação.
Panorama das regulações globais de inteligência artificial
Para entender o que esperar no Brasil, precisamos olhar para fora. As principais economias do mundo já estão desenhando seus mapas regulatórios, e esses modelos influenciam diretamente a legislação nacional e as práticas de governança corporativa e compliance.
União Europeia
A Europa saiu na frente com o EU AI Act, a primeira lei abrangente sobre o tema no mundo. A abordagem é baseada em riscos: quanto maior o risco que a IA oferece aos direitos fundamentais, mais rígidas são as regras, podendo chegar à proibição de certas aplicações e sistemas (como sistemas de reconhecimento facial indiscriminado em locais públicos).
Estados Unidos
Os EUA adotaram uma postura mais orientativa e fiscalizatória, focada em diretrizes de agências federais e na promoção da inovação, sem travar o desenvolvimento tecnológico. O foco está na responsabilidade das empresas em testar e monitorar seus sistemas.
Ásia e América Latina
Na Ásia, a China implementou regulamentações rígidas focadas no controle de algoritmos de recomendação e conteúdo gerado por IA. Na América Latina, países como Chile, Peru e Brasil discutem seus próprios marcos legais, inspirando-se fortemente no modelo europeu.
O que as empresas brasileiras precisam aprender com os modelos internacionais?
A lição principal é que a conformidade não terá fronteiras. Empresas multinacionais ou que lidam com dados globais precisarão adequar seus programas de integridade aos padrões mais exigentes, criando uma governança de IA robusta que funcione em qualquer jurisdição.
Como está a regulamentação de IA no Brasil?
O Brasil não está alheio a essa discussão. Pelo contrário, o debate sobre a regulamentação de IA está aquecido no Congresso e promete transformar a rotina jurídica e de compliance das empresas nacionais.
O principal texto em discussão é o PL 2338/23, que propõe o Marco Legal da Inteligência Artificial. Ele estabelece princípios e diretrizes para o desenvolvimento, o fomento e o uso ético e responsável de sistemas de IA, sobre direitos das pessoas afetadas por aqueles, define categorias de riscos e quais tipos de uso são proibidos ou considerados de alto risco e prevê a responsabilidade civil para os desenvolvedores, distribuidores e aplicadores da tecnologia de IA.
Além disso, há uma relação intrínseca com a LGPD. A Agência Nacional de Proteção de Dados (ANPD) tem papel crucial na liderança da regulamentação e na fiscalização do uso legal, ético e responsável da IA. As empresas devem se preparar para obrigações de transparência, como explicar claramente, por exemplo, quando o usuário está interagindo com uma aplicação de IA.
Principais Riscos Jurídicos e Éticos Associados à IA
Para quem atua na gestão de riscos, a inteligência artificial traz um novo cardápio de vulnerabilidades que precisam ser mitigadas.
Violação de privacidade e dados pessoais
Modelos de IA precisam de grandes volumes de informações para aprender. Se essas informações forem dados pessoais ou sensíveis e forem usados sem base legal adequada, por exemplo, a violação à LGPD é imediata.
Decisões automatizadas inadequadas ou discriminatórias
Um algoritmo de recrutamento que aprende a descartar currículos de mulheres ou minorias gera passivos trabalhistas e danos reputacionais imensos. O compliance deve garantir que haja supervisão humana e auditoria desses vieses.
Falhas de segurança e ataques envolvendo IA
Cibercriminosos já utilizam IA para criar ataques de phishing mais sofisticados. Por outro lado, sistemas de IA das organizações podem ser “envenenados” com dados falsos ou obsoletos, comprometendo suas operações.
Uso indevido de ferramentas generativas por colaboradores
Quando um funcionário insere informações confidenciais da empresa em uma IA pública (como o ChatGPT) para criar um relatório, ele pode estar vazando segredos industriais. A criação de políticas e procedimentos de uso e a cultura de conscientização de todos os colaboradores sobre tais regras é vital.
O papel do compliance na era da inteligência artificial
Diante desse cenário, o lugar do compliance quando tudo está mudando é de protagonismo. Os profissionais das áreas de compliance, de proteção de dados e de segurança da informação deixam de ser apenas fiscalizadores para se tornarem arquitetos da inovação responsável.
Adequação de políticas internas para tecnologias emergentes
É necessário revisar o Código de Conduta e adequar políticas existentes e criar outras específicas para o uso de IA, definindo o que é permitido, o que é proibido e quais são as responsabilidades de cada colaborador, bem como a gestão de terceiros.
Avaliação de risco em modelos de IA
Antes de contratar ou desenvolver uma solução de IA, é importante realizar uma avaliação de conformidade e de impacto da IA, mapeando potenciais riscos éticos e legais.
Auditoria, governança e monitoramento contínuo
A IA não é estática; ela evolui. Por isso, a governança deve ser contínua, com auditorias periódicas para garantir que o sistema continua operando dentro dos parâmetros legais e éticos estabelecidos.
Transparência, rastreabilidade e documentação dos sistemas de IA
Documentar como a IA toma decisões e garantir que essas decisões sejam rastreáveis e auditáveis é fundamental para responder a incidentes e a questionamentos de autoridades reguladoras.
A regulamentação de IA é uma realidade que bate à porta. As empresas que se anteciparem, estruturando programas de compliance que abracem a tecnologia com ética e segurança, terão uma vantagem competitiva enorme e maior segurança jurídica. A pergunta que fica é: a sua empresa já está se preparando para essa nova realidade ou vai esperar a lei chegar para reagir?
O mercado busca urgentemente profissionais capacitados para liderar essa transformação. Se você quer estar à frente e dominar as estratégias de conformidade neste novo cenário digital, conheça a Formação Executiva de Governança de Inteligência Artificial e Proteção de Dados. Inscreva-se e prepare-se para os desafios do futuro, hoje.


