Desafios para construção de uma governança de IA no setor público brasileiro

A inteligência artificial irrompe como um vetor de transformação no setor público brasileiro, prometendo otimizar processos, aprimorar a tomada de decisões e personalizar serviços oferecidos à população. Com seu potencial transformador, a IA é vista como uma oportunidade estratégica para aumentar a eficiência dos serviços públicos, reduzir custos operacionais e melhorar a qualidade de vida dos cidadãos.

No entanto, para que esse potencial se concretize plenamente, é essencial a construção de uma arquitetura de governança que seja robusta e orientada por princípios éticos, jurídicos e sociais. Tal governança deve ser capaz de equilibrar a busca pela inovação com a necessidade de garantir responsabilidade, segurança e transparência no uso dessa tecnologia.

Edição especial da newsletter Por dentro da Máquina traz um balanço completo de 2024 e a agenda de 2025 no serviço público

Nesse contexto, surge a necessidade de um modelo de governança híbrido, que combine elementos de centralização e descentralização como alternativa promissora. Tal modelo se destaca especialmente quando comparado às abordagens baseadas exclusivamente em gestão de riscos ou em frameworks de governança tradicionais, como o COBIT e o ITIL.

A complexidade e diversidade das aplicações de IA no setor público demandam soluções que considerem tanto a especificidade das necessidades locais quanto a padronização necessária para garantir coerência e confiabilidade no uso dessa tecnologia em âmbito nacional.

A centralização desempenha um papel crucial na construção dessa arquitetura de governança ao permitir a definição de diretrizes éticas, padrões de segurança, e critérios de interoperabilidade técnica. Essas diretrizes são fundamentais para garantir que a implementação da IA respeite os valores e direitos dos cidadãos, evitando a geração de vieses ou discriminações.

Além disso, a centralização possibilita que o governo estabeleça mecanismos de auditoria e responsabilização, assegurando o uso ético e seguro da IA. Por outro lado, a descentralização oferece uma flexibilidade indispensável para que cada órgão público possa adaptar a tecnologia às suas demandas específicas, promovendo inovação e agilidade no desenvolvimento de soluções personalizadas.

Modelos de governança baseados em riscos, como os descritos pela norma ISO 31000, têm sua relevância ao focar na identificação, avaliação e mitigação de riscos associados ao uso da IA. Essa abordagem contribui para garantir a segurança e a confiabilidade da tecnologia, essencialmente em aplicações críticas ou sensíveis.

No entanto, um modelo exclusivamente baseado em riscos pode se mostrar limitante, uma vez que seu foco tende a ser predominantemente na prevenção de danos, negligenciando as oportunidades de inovação. O modelo híbrido propõe um equilíbrio, integrando a gestão de riscos em um arcabouço mais amplo, que também valoriza a promoção de inovação, a criação de valor público e o estímulo ao desenvolvimento de soluções disruptivas.

Frameworks tradicionais de governança de TI, como o COBIT e o ITIL, fornecem diretrizes importantes para gerenciar a infraestrutura tecnológica necessária para implementar sistemas de IA. Ainda assim, eles não abordam de forma abrangente os desafios éticos, sociais e jurídicos relacionados à IA, como a proteção da privacidade, o combate à discriminação algorítmica e a promoção da justiça social. O modelo híbrido complementa essas lacunas, incorporando princípios éticos e sociais diretamente na governança da IA, considerando que esta tecnologia transcende o caráter meramente técnico, interagindo com a sociedade de maneira ampla e profunda.

Entre as principais vantagens do modelo híbrido está sua capacidade de adaptar-se às necessidades específicas de cada setor ou órgão público, incentivando a experimentação e a adoção de soluções inovadoras. Além disso, ele promove a coerência e a responsabilidade na utilização da IA em toda a administração pública, equilibrando a gestão de riscos com a inovação. Esse modelo também é flexível o suficiente para complementar frameworks existentes, ao mesmo tempo em que coloca os cidadãos no centro da estratégia, priorizando seus direitos e expectativas.

A implementação de um modelo híbrido de governança demanda esforços colaborativos entre diferentes atores da sociedade, incluindo governo, setor privado e academia. A troca de conhecimento e experiências entre essas esferas é essencial para fomentar a criação de soluções inovadoras e superar desafios complexos. Capacitar servidores públicos em relação aos aspectos técnicos e éticos da IA configura-se como uma estratégia imprescindível, pois somente assim será possível utilizar a tecnologia de forma responsável e eficaz.

Outro aspecto fundamental é a transparência. A comunicação clara e acessível com a sociedade sobre os benefícios, os riscos e os limites da IA é indispensável para construir a confiança pública. Esse engajamento promove não apenas a aceitação social da tecnologia, mas também possibilita uma participação ativa dos cidadãos no debate sobre o uso de IA no setor público.

A avaliação contínua dos resultados e impactos da IA é indispensável para garantir que a tecnologia esteja sendo utilizada de maneira alinhada aos objetivos estratégicos do governo e às necessidades da sociedade. Assim, processos de revisão periódica e ajustes nas políticas públicas devem ser incorporados à governança, assegurando que o setor público brasileiro esteja preparado para lidar com as demandas de um cenário em constante evolução tecnológica.

Portanto, a construção de uma arquitetura de governança para os sistemas de IA no setor público brasileiro apresenta desafios consideráveis, mas também oportunidades inegáveis. Adotando um modelo híbrido que equilibre centralização, descentralização e gestão de riscos, o Brasil poderá consolidar uma abordagem pioneira e responsável na utilização da IA.

Tal estratégia permitirá não apenas aproveitar ao máximo o potencial transformador da tecnologia, mas também construir um setor público mais eficiente, transparente e centrado no cidadão, contribuindo para o desenvolvimento sustentável e inclusivo do país.


ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT) – Risk management – Guidelines (ISO 31000:2018). Disponível em: https://www.abntcatalogo.com.br/ pnm.aspx?Q=OG1Tcmlucm5ncGJlK3N kTGlTRkJTcG9yRHBxY3pDem9OeUtkQkV1UWg1ST0=. Acesso em 15 de mar.2025.

COMBA, Biof Bucut; SACABETO, Isabel Sebastião; CAETANO, Luís Miguel Dias; BANDIRI, Sabi Yari Moïse. Inteligência Artificial na gestão pública: desafios e oportunidades. Pesquisa e Ensino em Ciências Exatas e da Natureza, v. 8, 2024. Disponível em: https://cfp.revistas.ufcg.edu.br/cfp/index.php/RPECEN/ article/ download/2135/1091/6. Acesso em: 15 mar. 2025.

FLORIDI, Luciano. The ethics of information. Oxford University Press, 2014.

O’NEIL, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.

XAVIER, Fabio Corrêia. IA nos serviços públicos: revolução cidadã ou ameaça à privacidade? MIT Technology Review Brasil, 15 out. 2024. Disponível em: https:// mittechreview.com.br/ia-nos-servicos-publicos. Acesso em: 18 mar. 2025.

Adicionar aos favoritos o Link permanente.