A construção da nova regulação do uso de inteligência artificial no Judiciário brasileiro

Acaba de ser publicada a Resolução 615 do Conselho Nacional de Justiça (CNJ), que regula o uso de inteligência artificial nos tribunais brasileiros. Para o processo de revisão, foi instituído Grupo de Trabalho (GT) formado por magistrados, acadêmicos e especialistas em IA e tecnologia, para revisar a regulação anterior sobre o tema, de modo a lidar com os novos desafios trazidos pela inteligência artificial generativa (IAG).

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Além de uma série de encontros para debates internos, o GT promoveu a realização de estudos acadêmicos e pesquisas empíricas, audiências públicas com convidados nacionais e internacionais para críticas da sociedade civil e de especialistas a versões preliminares do texto, além de ter recebido uma série de contribuições institucionais por escrito, culminando com a deliberação final por toda a comissão no final do ano de 2024 (logo após a aprovação do texto do PL 2338/23 no Senado Federal) e com sua aprovação pelo Pleno do CNJ em fevereiro de 2025. 

Algumas das questões críticas que motivaram a revisão da resolução diziam respeito ao grau de risco dos sistemas de IA desenvolvidos pelos tribunais e como deveriam ser classificados; o nível e frequência de uso das IAGs pelos magistrados e servidores; para quais atividades na prestação do serviço jurisdicional e se algumas desses usos deveria sofrer restrições; e, ainda, qual deveria ser o grau de transparência em relação ao uso dessas ferramentas, tanto interno, quanto em relação aos jurisdicionados e às partes dos processos judiciais.

Para enfrentar essas questões, foram desenvolvidos diferentes estudos que resultaram nos seguintes relatórios disponíveis para consulta: O uso da Inteligência Artificial Generativa no Judiciário e Mapeando Riscos da IA no Poder Judiciário Brasileiro. 

O primeiro relatório faz levantamento dos esforços de regulação de IAGs em tribunais estrangeiros e traz os resultados de pesquisa sobre os usos dessa tecnologia nos tribunais brasileiros.  

A preocupação por trás do estudo está no fato de que a popularidade das IAGs descentralizou a decisão sobre seu uso em organizações e seu emprego deixou de ser transparente, tornando necessárias, em função dos riscos, a adoção de medidas para levantamento dos usos realizados e o estabelecimento de políticas de governança próprias para essa tecnologia.

As principais preocupações éticas quanto ao seu emprego por magistrados e servidores estão ligadas ao risco de viés de automação (excesso de confiança nos resultados da IA) e à falta de transparência, com a necessidade de medidas de governança para transparência e revisão de conteúdos e de treinamento para promover o uso adequado e responsável das ferramentas disponíveis.

Inscreva-se no canal de notícias do JOTA no WhatsApp e fique por dentro das principais discussões do país!

Tais medidas de governança em relação a tribunais foram abordadas em relatório recente da UNESCO que, em particular, indica a transparência quanto ao uso de IAGs perante terceiros como forma de uso responsável. Todavia, tribunais estrangeiros que adotaram diretrizes ou regulação até o momento não obrigam que seja informado o uso de IAG nas decisões perante terceiros, mas apenas se exige transparência entre os pares, como meio para revisão do conteúdo dentro do tribunal.

A pesquisa, conduzida na forma de entrevistas por adesão e que alcançou quantidade significativa (cerca de 10% dos magistrados) e bem distribuída em relação a indicadores demográficos, mostrou ser significativo o uso de IAGs nos tribunais brasileiros (50% dos magistrados e servidores já usaram a ferramenta, sendo que destes, cerca de 30% a utilizam na prestação do serviço jurisdicional).

Quase a totalidade dos magistrados e servidores usam IAGs de modo privado. Nada menos do que 98% dos entrevistados crê na utilidade da ferramenta para o uso profissional e 93% interessa-se por cursos de capacitação, o que indica tendência de aumento no seu emprego. 

A maioria dos usos declarados de IAGs é adequada, por exemplo, para geração de minutas, síntese de documentos e tradução, sendo, porém, considerável o uso de IAGs como ferramentas de pesquisa em geral e mesmo busca de jurisprudência. O uso para busca de precedentes não é em si um problema, desde que haja orientação quanto à verificação dos resultados. 

Fonte: Relatório de pesquisa IAG no Poder Judiciário (CNJ, 2024)

Magistrados trazem, como principais dificuldades e desafios no emprego de IAGs, sua falta de familiaridade, incorreções e imprecisões no conteúdo gerado e dúvidas quanto à licitude e ética no seu uso. Este último ponto pode levar à falta de transparência, sendo sintomático que cerca de 83% dos servidores não informem a seus magistrados sobre o uso de IAGs na realização de trabalhos.

O levantamento evidenciou a necessidade de reconhecimento da licitude do uso de IAGs, aliado à implantação de medidas de governança pelos tribunais e treinamento dos magistrados e servidores, com ênfase no uso transparente dentro da organização, se possível por meio de contratação e disponibilização oficial de IAGs, algo que necessita de amadurecimento, tendo em vista o elevado custo das licenças e a dinâmica desse mercado, com novas ferramentas sendo lançadas a todo momento. 

O segundo relatório, produzido pelo Laboratório de Governança e Regulação da IA do IDP, mapeou 140 projetos de inteligência artificial desenvolvidos ou utilizados pelo Poder Judiciário brasileiro, tomando como referência a proposta inicial de atualização da Resolução CNJ 332/2020, para entender em qual categoria de risco se encaixava cada sistema ou projeto de IA cadastrado na plataforma SINAPSES. 

O resultado da análise demonstrou que a maioria dos sistemas (91) foi classificada como de baixo risco, pois atuam em tarefas de apoio administrativo, transcrição de áudio ou busca de informações gerais, sem interferir diretamente em questões substantivas do processo ou processos decisórios.

Vinte e seis projetos foram identificados como de alto risco, sobretudo por exercerem influência mais direta na decisão judicial (como avaliar provas ou sugerir a aplicação de normas), exigindo medidas de governança mais robustas, como avaliação de impacto e registro das fontes de dados. Dois projetos foram considerados de risco excessivo, pois avaliam comportamentos e características de pessoas para predizer práticas delitivas. 

O estudo concluiu que, embora existam iniciativas potencialmente sensíveis, a maior parte dos projetos em funcionamento não demanda requisitos de governança tão complexos, por estarem classificados como baixo risco. 

A pesquisa também apontou a importância de descrever mais detalhadamente as funcionalidades de cada sistema na plataforma Sinapses, de modo a ampliar a transparência e a viabilizar uma avaliação de riscos mais precisa. Outro achado relevante foi a presença ainda pequena de soluções com IA generativa nos cadastros oficiais, embora magistrados venham experimentando esses recursos individualmente, como evidenciado no relatório sobre o uso de IAGs no Judiciário. 

A nova redação aprovada traz, como principais elementos: critérios para classificação de riscos de sistemas de inteligência artificial, com a indicação de medidas de governança adequados para lidar com os riscos inerentes a essas tecnologias; a permissão do uso de IAGs, desde que mediante revisão dos resultados e a recomendação de adoção preferencial de sistemas a serem disponibilizados aos magistrados e servidores, o que possibilita maior governança, segurança da informação e transparência no uso de IAs generativas; a determinação de cuidados especiais e auditorias em proteção de dados para priorizar a anonimização (em especial quanto a processos cujo conteúdo está protegido pelo sigilo constitucional) e a criação de um Comitê Nacional de IA responsável por supervisionar, revisar e implementar a resolução.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Como os próprios estudos realizados revelaram, tratou-se de esforço sem precedentes, inclusive em âmbito global, considerando que os poucos tribunais estrangeiros a se ocuparem do tema apenas publicaram diretrizes genéricas para uso de IAGs.

De fato, o processo de construção da regulação foi amplamente democrático, baseado em evidências empíricas sobre as ferramentas existentes e no levantamento do benchmark internacional, em debates internos e com a sociedade, chegando a resultado robusto e inovador, que almeja propiciar ao Judiciário modelo de governança para mitigação de riscos e uso responsável da inteligência artificial alinhado às melhores práticas, sempre pautado pela supervisão humana, voltado para a preservação de valores humanos e para a valorização do ambiente de trabalho, dos magistrados e dos servidores. 

Adicionar aos favoritos o Link permanente.