IA no Judiciário brasileiro: salvaguardas, riscos e novas fronteiras

A adoção de inteligência artificial no Judiciário brasileiro deixou de ser uma mera projeção futurista para se tornar uma realidade, especialmente diante do crescimento de ferramentas de automação, análises preditivas e sistemas capazes de auxiliar o Poder Judiciário no trâmite de milhões de processos.

Esse movimento não se restringe à esfera técnica: implica a construção de guardrails (salvaguardas éticas e estruturais), a definição de redlines (limites inegociáveis) e a previsão de kill switches ou circuit breakers, garantindo que a modernização caminhe lado a lado com a proteção de direitos fundamentais.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Em termos práticos, o Brasil ganha destaque global pelo altíssimo volume de demandas judiciais, e a implantação de plataformas como Sinapses, repositórios como Codex e programas de modernização, a exemplo do Justiça 4.0, consolidam o país como referência nas soluções que aperfeiçoam a gestão de processos, ampliam a celeridade e beneficiam a pesquisa jurisprudencial. Como enfatiza Richard Susskind, a eficiência judicial não se limita à adoção de tecnologia, mas demanda o redesenho de sistemas tradicionais, preservando valores constitucionais essenciais (SUSSKIND, 2019).

Conquanto soluções baseadas em Aprendizado de Máquina (por exemplo, para triagem de petições e análise de padrões recursais) sejam cada vez mais comuns, há preocupações legítimas acerca de vieses algorítmicos, potenciais violações de privacidade e possível autonomização da tomada de decisão.

É nesse contexto que se elevam as discussões sobre redlines — por exemplo, não permitir o uso de dados sensíveis para prognósticos de reincidência criminal (YOON; SLADE; FAZEL, 2017) — e sobre mecanismos de kill switch que interrompam imediatamente sistemas capazes de ameaçar direitos fundamentais (BALKIN, 2014). Assim, a tecnologia permanece acessória ao juízo humano, e não o contrário.

As Audiências Públicas conduzidas pelo Conselho Nacional de Justiça (CNJ) têm assumido papel preponderante para estabelecer parâmetros regulatórios de IA no âmbito judicial (CONSELHO NACIONAL DE JUSTIÇA, 2024). Magistrados, pesquisadores, instituições internacionais e representantes do setor privado colaboram na formulação de normas que privilegiem: (1) transparência no uso de algoritmos, (2) imparcialidade e não discriminação, (3) boa governança de decisão aliada à supervisão humana, (4) monitoramento de impacto ecossistêmico e (5) construção de capacidade de longo prazo.

A criação de guardrails no Judiciário traduz-se em auditorias independentes, validações frequentes e reforço de accountability, assegurando que algoritmos não perpetuem discriminações. Nesse sentido, a integração com a Lei Geral de Proteção de Dados é inescapável: dados sensíveis usados em análises preditivas podem ensejar riscos de violações de direitos. Ademais, o panorama internacional reforça essa preocupação. Documentos como a Recommendation on the ethics of Artificial Intelligence, da Unesco (2021), o AI Act, na União Europeia, e a futura regulamentação da IA no Brasil balizam um arcabouço ético e jurídico.

Ao se analisar a experiência brasileira, nota-se um genuíno esforço de combinar inovação e segurança. Iniciativas como o Programa Justiça 4.0 mostram que a adoção de IA não se resume a automatizar tarefas repetitivas: envolve reorganizar práticas administrativas e refletir sobre até que ponto ferramentas de IA generativa (como ChatGPT) devem ou não auxiliar na redação de minutas de despachos e sentenças.

Por outro lado, as chamadas redlines evidenciam usos considerados de alto risco no Judiciário, tais como análises de probabilidade de reincidência criminal ou definições algorítmicas que podem reproduzir e agravar injustiças históricas — o que foi amplamente pontuado por relatorias especiais da ONU. Aqui se destaca a importância do “controle humano” e da obrigatoriedade de “revisão humana”.

Ninguém deseja ser “julgado por um robô”, mas tampouco se pode ignorar que humanos também carregam vieses. A sinergia entre auditorias técnicas e supervisão judicial surge como estratégia para checar e balancear ambos os riscos, criando um ecossistema de governança responsável que impeça que preconceitos humanos ou falhas tecnológicas comprometam a imparcialidade das decisões.

O debate sobre kill switches é igualmente central. A possibilidade de desligar ou suspender um sistema de IA em casos críticos, sem esvaziar garantias constitucionais, coloca em pauta a separação de poderes e os limites do controle estatal ou privado de plataformas. A jurisprudência do Supremo Tribunal Federal (STF), em casos de bloqueio de aplicativos e redes sociais, exemplifica a relevância da cautela para que medidas emergenciais não se convertam em abuso ou censura.

Em síntese, a inteligência artificial é uma realidade irreversível no Judiciário, mas não pode nem deve ser encarada como substituto de sua natureza humanística.

Portanto, guardrails, redlines e mecanismos de kill switch/circuit breaker são pilares que definem novos parâmetros de confiabilidade, transparência e respeito aos direitos fundamentais. A regulação no âmbito do CNJ revela que o Poder Judiciário possui competência técnica e legitimidade institucional para liderar a adoção de IA de maneira responsável, preservando a dignidade da pessoa humana.


ASSOCIAÇÃO DOS MAGISTRADOS BRASILEIROS (AMB). IA é ferramenta de apoio que requer supervisão dos juízes. 2023. Disponível em: https://www.amb.com.br/ia-e-ferramenta-de-apoio-que-requer-supervisao-dos-juizes/.

BALKIN, Jack. Old-School/New-School Speech Regulation. Harvard Law & Policy Review, v. 8, n. 2, p. 201-220, 2014.

BANDEIRA DE MELLO, Luiz Fernando. IA no Judiciário: uso é pouco frequente, mas interesse pela ferramenta é elevado. Conselho Nacional de Justiça (CNJ), 2024.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União: seção 1, Brasília, DF, p. 1, 15 ago. 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm. Acesso em: 14 jan. 2025.

CARTLIDGE, J. Towards adaptive ex ante circuit breakers in financial markets using human-algorithmic market studies. Proceedings of the 18th International Conference on Artificial Intelligence, 2016. Disponível em: https://www.researchgate.net/publication/305681179_Towards_adaptive_ex_ante_circuit_breakers_in_financial_markets_using_human-algorithmic_market_studies. Acesso em: 3 jan. 2025.

CONSELHO DA EUROPA. Comissão Europeia para a Eficiência da Justiça (CEPEJ). European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment. Estrasburgo, 2018, disponíveis em: https://www.cnj.jus.br/sistemas/plataforma-sinapses/. Acesso em: 6 jan. 2025.

CONSELHO NACIONAL DE JUSTIÇA. Justiça em Números 2024: Barroso destaca aumento de 9,5% em novos processos. Conselho Nacional de Justiça, 28 maio 2024. Disponível em: https://www.cnj.jus.br/tecnologia-da-informacao-e-comunicacao/justica-4-0/projeto-juizo-100-digital/. Acesso em: 10 jan. 2025.

CONSELHO NACIONAL DE JUSTIÇA. Pesquisa sobre o uso de inteligência artificial no Poder Judiciário – 2023. Brasília, 2024. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2024/06/pesquisa-uso-da-inteligencia-artificial-ia-no-poder-judiciario-2023.pdf. Acesso em: 3 jan. 2025.

DONEDA, Danilo. A proteção dos dados pessoais como um direito fundamental. Espaço Jurídico Journal of Law [EJJL], v. 12, n. 2, p. 91-108, 2011. Disponível em: https://periodicos.unoesc.edu.br/esp. Acesso em: 6 jan. 2025.

GERVAIS, D.J. Rumo a uma regulamentação transnacional eficaz da IA. AI & Society, v. 38, p. 391–410, 2023.

HARVARD LAW SCHOOL. Guardrails: Guiding Human Decisions in the Age of AI. Disponível em: https://hls.harvard.edu/events/guardrails-guiding-human-decisions-in-the-age-of-ai/.

HENRIQUES, Isabella; MACIEL, Emanuella Ribeiro Halfeld. Como o PL da IA aborda a proteção integral de crianças e adolescentes. JOTA, 26 jun. 2024. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/ia-regulacao-democracia/como-o-pl-da-ia-aborda-a-protecao-integral-de-criancas-e-adolescentes. Acesso em: 10 jan. 2025.

JOTA, 11 fev. 2025. Disponível em: https://www.jota.info/justica/cnj-apresenta-resolucao-para-normatizar-uso-de-inteligencia-artificial-nos-tribunais. Acesso em: 11 fev. 2025.

MCCARTHY, John; MINSKY, Marvin L.; ROCHESTER, Nathaniel; SHANNON, Claude E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. 1955.

NAÇÕES UNIDAS. Preconceitos do passado perpetuam discriminação futura em inteligência artificial, alerta relatora da ONU. ONU News, 31 jul. 2024. Disponível em: https://news.un.org/pt/story/2024/07/1835376. Acesso em: 10 jan. 2025.

ORGANIZAÇÃO DAS NAÇÕES UNIDAS (ONU). Relatório Intermediário: Governando a IA para a Humanidade. AI Advisory Body, 2023. Disponível em: https://www.un.org/techenvoy/sites/www.un.org.techenvoy/files/ai_advisory_body_interim_report.pdf. Acesso em: 3 jan. 2025.

RUSSELL, S.; NORVIG, P. Artificial Intelligence: A Modern Approach. 3. ed. Harlow: Pearson, 2010.

SIEGEL, Eric. Análise Preditiva – Uma introdução para todos. Rio de Janeiro: Alta Books, 2017.

Supremo Tribunal Federal. STF confirma decisão que suspendeu o X, antigo Twitter, em todo o país. Publicado em 2 out. 2023. Disponível em: <https://noticias.stf.jus.br/postsnoticias/stf-confirma-decisao-que-suspendeu-o-x-antigo-twitter-em-todo-o-pais/> Acesso em: 16/01/2025.

Supremo Tribunal Federal. Entenda: STF julga ações contra normas do Marco Civil da Internet. Disponível em: https://noticias.stf.jus.br/postsnoticias/entenda-stf-julga-acoes-contra-normas-do-marco-civil-da-internet/. Acesso em: 14 jan. 2025.

SUSSKIND, Richard. Online Courts and the Future of Justice. Oxford University Press, 2019. Disponível em: https://iacajournal.org/articles/10.36745/ijca.346. Acesso em: 3 jan. 2025.

TAUK, Caroline Somesom. Vieses nas decisões dos juízes vs. vieses da inteligência artificial. Migalhas, 28 mar. 2024. Disponível em: https://www.migalhas.com.br/depeso/404439/vieses-nas-decisoes-dos-juizes-vs-vieses-da-inteligencia-artificial. Acesso em: 10 jan. 2025.

disponíveis em: https://www.undp.org/pt/brazil/news/solucoes-do-programa-justica-40-impulsionaram-transformacao-digital-do-judiciario-em-2024. Acesso em: 6 jan. 2025.

UNESCO. Recommendation on the ethics of Artificial Intelligence. 2021. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000380455. Acesso em: 26 mar. 2024.

YOON, I. A.; SLADE, K.; FAZEL, S. Criminal recidivism among older male prisoners: a 3-year follow-up study. BMC Geriatrics, v. 17, n. 1, p. 296, 2017. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC5777393/. Acesso em: 14 jan. 2025.

Adicionar aos favoritos o Link permanente.