Por uma IA brasileira: enfrentando os desafios dos vieses

A ascensão dos Modelos de Linguagem de Grande Escala (LLMs) tem desempenhado um papel central na digitalização da comunicação e no acesso à informação, mas também levanta preocupações sobre a hegemonia cultural imposta pelas grandes potências tecnológicas.

Um estudo recente, intitulado “Large Language Models Reflect the Ideology of their Creators“, conduzido por pesquisadores da Universidade de Ghent (Bélgica) e da Universidade Pública de Navarra (Espanha), investigou como os LLMs refletem padrões ideológicos em suas respostas e interações. O artigo destaca que esses modelos, por serem treinados em grandes volumes de dados coletados majoritariamente de fontes ocidentais e chinesas, acabam incorporando vieses culturais e políticos alinhados às visões dominantes de seus criadores.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

O estudo analisou 17 LLMs diferentes, incluindo modelos de empresas como OpenAI, Google, Baidu, Alibaba e Anthropic, com o objetivo de avaliar suas posturas ideológicas por meio de descrições de figuras políticas controversas em inglês e chinês. A metodologia envolveu um experimento de duas etapas: primeiro, os LLMs foram solicitados a descrever figuras políticas sem qualquer indicação de viés. Em seguida, essas descrições foram analisadas para determinar sua carga moral e ideológica, considerando fatores como inclusão social, direitos humanos e igualdade.

Os pesquisadores concluíram que, apesar da pretensão de neutralidade, os modelos analisados apresentaram diferenças em suas respostas dependendo da região e dos criadores. Modelos treinados em ambientes ocidentais e orientais exibiram distinções notáveis nas descrições de figuras políticas, com variações nos critérios de avaliação moral e ideológica. As etiquetas utilizadas para classificar essas respostas indicam que cada modelo reflete, de alguma forma, as normas culturais e valores predominantes em seu contexto de desenvolvimento.

Os resultados desse estudo revelam um fenômeno preocupante: a imposição de uma visão de mundo específica sobre usuários que interagem com esses modelos, especialmente em países que não fazem parte do eixo de influência direta das chamadas “potências da IA”, ou seja, Estados Unidos, China e em menor medida a Europa.

A falta de diversidade de ideários expressos nos LLMs não é um problema trivial. À medida que essas tecnologias são adotadas em larga escala, a imposição de valores específicos acaba se tornando um filtro sobre como diferentes sociedades acessam e processam informações. Isso se agrava com a inexistência de uma regulamentação que exija transparência na construção desses modelos e assegure que suas decisões possam ser compreendidas e contestadas.

Esse fenômeno de padronização cultural imposto pela IA se manifesta de diversas formas. O marketing em torno dos LLMs constrói, estrategicamente, a ideia de que esses modelos possuem um conhecimento superior e imparcial, o que reforça a idealização da IA como uma entidade infalível. Esse discurso, altamente benéfico para quem controla essas tecnologias, confere-lhes um poder desproporcional e obscurece seus reais impactos.

Nesse contexto, os LLMs passam a ocupar um lugar de autoridade na produção e disseminação de conhecimento, sem qualquer escrutínio adequado. Esse processo reforça desigualdades preexistentes e perpetua uma falsa aura de neutralidade e objetividade, ao mesmo tempo em que limita a autonomia das sociedades no desenvolvimento e uso dessas tecnologias.

A questão também se estende ao setor econômico, onde grandes corporações de tecnologia exercem um controle quase absoluto sobre as infraestruturas digitais, dificultando a competitividade de soluções locais. O mercado de IA é amplamente dominado por empresas do Norte Global, que detêm grandes bancos de dados, os modelos mais avançados e a infraestrutura computacional necessária para treinar sistemas de grande porte. Com isso, países como o Brasil tornam-se dependentes dessas tecnologias estrangeiras, consumindo-as sem possuir autonomia para desenvolver alternativas próprias.

Apesar de ter um grande potencial para desenvolver tecnologias próprias, o país se depara com a ausência de investimentos estruturais e regulação nesse setor, como no caso dos investimentos tímidos e de resposta tardia do PBIA (Plano Brasileiro de Inteligência Artificial) o que favorece a entrada irrestrita de soluções estrangeiras, impedindo o fortalecimento do mercado nacional.

Se o país não desenvolver políticas públicas adequadas, a dependência tecnológica se perpetuará, limitando o crescimento de um ecossistema digital soberano e inclusivo.

A discussão, nesta esteira, esbarra no processo regulatório: tanto no Legislativo, como no Executivo. O Brasil precisa de um arcabouço regulatório que proteja sua soberania digital e garanta um mercado tecnológico autônomo e robusto.

O PL 2338/2023 surge como um instrumento potencial para mitigar os riscos dessa “colonização digital”. Mais do que um marco regulatório, o PL é uma ferramenta política que impõe limites à atuação irrestrita das empresas, reduzindo sua influência desproporcional e garantindo maior autonomia ao Brasil.

Ao estabelecer diretrizes para transparência, governança e supervisão, a regulação tem potencial de restringir o domínio excessivo das grandes empresas de tecnologia, concedendo ao Estado e à sociedade maior poder sobre a definição dos rumos da IA no país.

Além da transparência, o PL 2338 reconhece a importância de um ecossistema nacional forte. Atualmente, o mercado brasileiro de IA ainda é dependente de tecnologias desenvolvidas fora do país, o que limita sua capacidade de inovação e reforça a dependência econômica e tecnológica.

O projeto, ao estabelecer regras claras para o uso da IA, cria um ambiente mais seguro para investimentos locais, estimulando o crescimento de startups e centros de pesquisa nacionais. Isso impulsiona a economia e protege a diversidade cultural e a autonomia no desenvolvimento de soluções tecnológicas adaptadas à realidade brasileira.

Mas o texto ainda pode melhorar. É fundamental que o mercado nacional compreenda o impacto cultural e social que suas IAs possuem, buscando desenvolver soluções que enfrentem o desafio de representar a diversidade cultural do nosso país. O projeto pode ainda incorporar em seu bojo algumas diretrizes complementares ao desenvolvimento de pequenas empresas e ambientes inovadores e diversos.

Uma IA nacional não deve simplesmente reproduzir modelos estrangeiros, mas sim refletir os valores, perspectivas e necessidades da sociedade brasileira, escapando do universalismo ocidental que frequentemente molda essas tecnologias. Além disso, é essencial considerar os impactos ambientais da IA, dado o alto custo energético do treinamento desses modelos, e este é um compromisso do Brasil em suas agendas internacionais.

Neste ano, a Câmara dos Deputados tem a oportunidade de enfrentar esta e outras questões e posicionar o Brasil num local de liderança no debate global da IA.

Adicionar aos favoritos o Link permanente.