Levantamento da FTI Consulting aponta que 85% dos diretores jurídicos de grandes empresas acreditam que os riscos operacionais associados ao uso de inteligência artificial (IA) devem crescer em 2025. A pesquisa, realizada em 2024 com mais de 200 executivos de empresas com faturamento acima de 100 milhões de dólares, mostra que todos os departamentos jurídicos consultados lidaram com questionamentos internos sobre IA no último ano.
Apesar do potencial para aumentar a eficiência dos serviços internos, os departamentos jurídicos reconhecem que o uso dessas ferramentas também demanda atenção e prevenção, o que tem gerado maior procura por escritórios de advocacia especializados no tema. Entre os principais riscos apontados com o uso de IA generativa estão: alucinações não detectadas (com resultados incorretos), falta de explicabilidade (sem transparência sobre como os dados foram processados), riscos à segurança da informação, violações de propriedade intelectual e viés algorítmico.
A pesquisa da FTI Consulting ouviu 207 diretores jurídicos de empresas com mais de mil funcionários, atuantes nos setores de finanças (44%), construção civil e indústria (14%), saúde (13%), tecnologia (10%) e outros. As companhias estão distribuídas entre América do Sul (27%), América do Norte (24%), Europa (24%) e Ásia (24,6%). Também foram realizadas 34 entrevistas qualitativas. A maioria dos participantes atua em multinacionais ou empresas com faturamento anual acima de 500 milhões de dólares.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
O estudo destaca que os departamentos jurídicos já enfrentam um aumento nas investigações internas relacionadas ao uso de IA. Para 51% dos entrevistados, a IA figura entre os cinco principais riscos jurídicos das companhias. Além disso, 32% relatam crescimento no número de disputas e litígios judiciais envolvendo o uso corporativo de ferramentas de inteligência artificial.
A conformidade regulatória internacional sobre IA e proteção de dados também se tornou uma preocupação crescente. Em 2024, 41% dos entrevistados apontaram esse tema como o foco principal dos seus departamentos jurídicos — o percentual era de 30% em 2023 e de 23% em 2022.
Por conta desses riscos, muitas empresas estão acompanhando de perto as discussões legislativas sobre a regulamentação da IA, com especial atenção ao modelo da União Europeia. Ainda assim, 93% dos diretores jurídicos afirmam que suas empresas já estão preparadas para se adequar a novas regras quando forem implementadas.
Adoção de boas práticas
Para Antonio Gesteira, Senior Managing Director da FTI Consulting, o estudo mostra que grandes departamentos jurídicos estão empenhados em adotar boas práticas no uso de IA. Segundo ele, a tendência é de crescimento na demanda por escritórios especializados, que ajudem na criação de regras claras para o uso corporativo da tecnologia.
“Enquanto ainda não há um framework claro — uma receita de bolo — as empresas vão se ajustando conforme seu apetite a risco e sua capacidade de implementar controles. Muitos líderes jurídicos estão buscando apoio externo para desenvolver planos de compliance integrados, que envolvam pessoas, processos, tecnologia e cultura organizacional”, explica Gesteira.
No Brasil, a busca por escritórios especializados já é uma prática consolidada. O advogado Fábio Kujawski, sócio do Mattos Filho e especialista em proteção de dados, destaca que as empresas já têm base normativa suficiente para estruturar políticas de governança em IA.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Segundo ele, o ideal é integrar a governança de IA à estrutura existente da LGPD. “O que a gente tem visto como caminho mais eficaz é aproveitar o que já foi construído para a proteção de dados: fluxos de risco, análises de impacto, comitês de compliance. Não precisa começar do zero — é só ampliar o escopo”, afirma.
Kujawski lembra que, mesmo sem uma regulação específica, as empresas já podem ser responsabilizadas por uso indevido de IA com base no Código de Defesa do Consumidor, no Código Civil e, principalmente, na LGPD. A orientação é clara: mapear as ferramentas em uso, formar comitês de avaliação, documentar análises de risco e impacto, e alinhar com os fornecedores quais dados foram usados para treinar os sistemas.
“Nossa sugestão é bem objetiva: quer começar a tratar do tema IA na empresa? Use o que já foi estruturado com a LGPD. Ajuste, amplie, mas não espere pela aprovação da nova lei. A governança de dados pode — e deve — dar conta desse novo desafio”, conclui.