Nova Resolução do CNJ sobre IA: desafios persistem apesar de maior transparência

No último dia 11 de março foi publicada a Resolução CNJ 615/2025 sobre inteligência artificial no Judiciário pelo Conselho Nacional de Justiça, que substituirá a antiga Resolução 332/2020.

A Resolução 332/2020 teve um importante papel de disseminação da responsabilidade e do uso ético no uso e desenvolvimentos desses sistemas, mas não tratava de questões mais recentes, como o caso de Large Language Models, sistemas de inteligência artificial generativa, o mais conhecido deles, o ChatGPT.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

O processo de atualização da norma começou em novembro de 2023 com a criação do Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário pelo CNJ por meio da Portaria 338/2023.

Esse GT realizou alguns estudos sobre uso de IA no Judiciário e apresentou a proposta de revisão da Resolução 332/2020, tendo em vista o uso de sistemas de IA generativa no Judiciário, sob coordenação do conselheiro Luiz Fernando Bandeira de Mello Filho.

Em setembro foi divulgado um edital de convocação à audiência pública, visando estimular e garantir a participação de todos os interessados no tema, conjuntamente a primeira proposta de minuta alternativa à Resolução CNJ 332/2020 elaborado pelo GT sobre IA no Judiciário.

A primeira versão de revisão do texto foi debatida na audiência pública, que aconteceu entre os dias 25 a 27 de setembro de 2024 e contou com a participação de 36 inscritos habilitados entre centenas de propostas enviadas, além de conselheiras e conselheiros do CNJ, autoridades, acadêmicos, especialistas e instituições públicas e privadas com reconhecida atuação na temática de inteligência artificial.

Após os debates na audiência pública, no dia 18 de fevereiro foi divulgado o texto final da nova resolução, publicada um mês depois sob o número Resolução 615 de 2025.

A versão final do texto normativo reforça a governança, a transparência e a necessidade de auditorias independentes, ampliando as responsabilidades dos tribunais no uso ético da inteligência artificial.

Importa salientar três momentos críticos da preocupação ética no desenvolvimento de sistemas de IA:

  1. Arquitetura do sistema – com a necessidade de diversidade e inclusão nas equipes desenvolvedoras.

Nesse aspecto, a preocupação surge diante da falta de inclusão existente no mercado de trabalho de tecnologia no país, que segundo a pesquisa “Quem Coda BR” promovida pelo PretaLab em parceria com a Thoughtworks, é dominado por homens, brancos, jovens de classe socioeconômica média e alta.

Essa preocupação já estava na Resolução 332/2020, mas como não tivemos avanço em relação a políticas públicas efetivas nesse sentido, não foram elaboradas métricas concretas para medir a diversificação e o impacto dessas políticas nos agentes de IA.

Sob esse aspecto, o texto da Resolução 615/2025 traz de maneira bem mais detalhada e aprofundada essa preocupação no artigo 35:

Art. 35. A composição de equipes para pesquisa, desenvolvimento e implantação das soluções computacionais que se utilizem de inteligência artificial será orientada pela busca da diversidade e representatividade, com ênfase na inclusão, sempre que possível, de diferentes perfis de gênero e etnia e pessoas com deficiência, bem como de experiências e formação em áreas de conhecimento diversas.

  • 1º A participação representativa deverá ser assegurada, tanto quanto possível, nas etapas de planejamento, coleta e processamento de dados, construção, verificação, validação e implementação dos modelos, tanto nas áreas técnicas como negociais.
  • 2º A diversidade na participação prevista no caput deste artigo poderá ser dispensada mediante decisão fundamentada, dentre outros motivos, pela ausência de profissionais no quadro de pessoal dos tribunais ou a necessidade de garantir eficácia e a velocidade na implementação das soluções a curto prazo.
  • 3º A formação das equipes mencionadas no caput deverá ter caráter interdisciplinar, incluindo profissionais de Tecnologia da Informação, do Direito e de outras áreas relevantes, cujo conhecimento científico possa contribuir para pesquisa, desenvolvimento ou implantação do sistema inteligente no tribunal.

Essa preocupação é importante, até no ideal de sistemas mais robustos e menos errôneos, tendo em vista que a diversidade e a interdisciplinariedade possibilitam sistemas cada vez mais assertivos.

  1. Tratamento e inserção de dados – a partir da importância de softwares de código aberto para garantir transparência e interoperabilidade entre os sistemas do Judiciário.

Esse ponto também foi implementado na redação final da Resolução 615/2025.

O termo “transparência” aparece 27 vezes no documento e o artigo 38 da Resolução aborda a temática da adoção pelos modelos de IA de ferramentas de mercado ou soluções de código aberto, de modo a facilitar a integração e interoperabilidade e viabilizar a transparência, a auditoria, monitoramento e revisão dos algoritmos por parte de especialistas autorizados ou por meio da sociedade civil, mediante requerimento.

O termo “dados” aparece 126 vezes no documento da resolução, logo no início da resolução, no §2º do artigo 1º já vem a seguinte redação:

“§ 2º A auditoria e o monitoramento das soluções de IA serão realizados com base em critérios proporcionais ao impacto da solução, garantindo que os sistemas sejam auditáveis ou monitoráveis de forma prática e acessível, sem a obrigatoriedade de acesso irrestrito ao código-fonte, desde que sejam adotados mecanismos de transparência e controle sobre o uso dos dados e as decisões automatizadas”.

Muitas vezes o argumento sobre o segredo de indústria é utilizado como forma de impossibilitar a transparência de um algoritmo, então essa determinação é importante no sentido de garantir a auditoria destes sistemas sem acesso irrestrito ao código-fonte se adotarem mecanismos de transparência e controle do uso de dados.

O texto normativo demonstra muita preocupação com os dados, inclusive com o uso de dados representativos no desenvolvimento ou treinamento de modelos de IA, isto é, dados que refletiam de forma adequada a diversidade de situações e contextos no Poder Judiciário.

Em relação à interoperabilidade, o §4º do artigo 1º traz a necessidade do tribunal de priorizar um desenvolvimento colaborativo e interoperável com a disseminação de tecnologia, códigos, base de dados e boas práticas.

  1. Interpretação dos resultados pela supervisão humana – com a necessidade de capacitação técnica contínua para magistrados e servidores.

Esse ponto foi objetivo de destaque na pesquisa apresentada na audiência pública do CNJ sobre o uso de IA generativa no Judiciário, em que os servidores refletiram o desejo de capacitação pela falta de maturidade com o tema, ainda que utilizem sistemas de IA no trabalho.

De modo muito assertivo, a capacitação passa a ser um dos fundamentos do uso responsável de IA no Judiciário pelo artigo 2º, inciso X.

Pelo artigo 16, incisivo VII, a contratação direta para uso de IA generativa em atividades funcionais do Poder Judiciário dependerá da realização de capacitação e treinamento específicos sobre melhores práticas, limitações, riscos, e uso ético, responsável e eficiente, devendo ser feito de maneira continuada.

Para corroborar com o letramento digital dos servidores e magistrados, no próprio site do CNJ há cursos de capacitação sobre IA e novas tecnologias para acesso gratuito na aba de Plataforma Sinapses/Inteligência Artificial.

De modo geral, esses são os pontos de maior preocupação ética neste momento, a resolução responde bem a todos eles e a outros em seus 47 artigos. A resolução entra em vigor em 120 dias.

A regulação da IA no Judiciário ainda é um campo em constante evolução, e seguir contribuindo para esse debate é essencial.

Adicionar aos favoritos o Link permanente.