Regulação da IA para proteção de direitos fundamentais

Ao longo dos últimos meses tem sido uma constante nos depararmos com textos críticos ao Regulamento Europeu para a Inteligência Artificial. As críticas, publicadas em jornais, revistas e sites especializados, de autoria de importantes atores do mercado, políticos, pesquisadores da área ou comunicadores em geral, martelam os mesmos argumentos para questionar a opção europeia de regular a IA de forma a condicionar esse novo mercado a regras que protejam os direitos fundamentais do ser humano.

Alegam os críticos que os riscos destas novas tecnologias estão sendo “superdimensionados”, e que a regulação adotada pela Europa irá “inibir a inovação” e deixará o continente para trás na “corrida” pela IA.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Como o Brasil está prestes a adotar uma legislação nacional sobre IA que tem como inspiração o Regulamento Europeu, as críticas ao Regulamento Europeu respingam no PL 2338/2023, aprovado pelo Senado e atualmente em tramitação (devagar, quase parando) na Câmara dos Deputados.

Os críticos da proposta brasileira bradam os mesmos argumentos que circulam na Europa, alegando que o Brasil estará perdendo oportunidade de se destacar na “corrida” caso aprove o Projeto de Lei proposto, além de perder capacidade para desenvolver uma IA nacional para problemas nacionais.

Ocorre que os referidos críticos estão se esquecendo de um detalhe nada comezinho: o Regulamento Europeu para IA e o PL 2338 visam orientar o desenvolvimento e a incorporação destas novas tecnologias em nossa sociedade a partir de uma perspectiva de benefício ao ser humano e de respeito integral aos direitos fundamentais reconhecidos em diversos Tratados Internacionais e Constituições nacionais.

A liberdade econômica e de iniciativa empresarial deve ser exercida com responsabilidade e respeito a esses direitos. Trata-se, assim, de mais um aborrecido capítulo do capital e da livre iniciativa econômica contra quaisquer obstáculos que se apresentem contra seus interesses econômicos de curto ou curtíssimo prazo, mesmo que esses interesses atropelem direitos e garantias fundamentais do ser humano e coloquem o planeta ou a própria humanidade em risco.

Por essa razão, é fundamental conhecer o conteúdo do Regulamento Europeu para IA, que foi inspiração do PL 2338, para que se possa ter clareza de seus pontos positivos e de seus objetivos que visam, acima de tudo, proteger o ser humano contra os riscos potenciais destas novas tecnologias.

Inicialmente, vale destacar quatro pontos fundamentais que orientam todo o Regulamento e que são absolutamente razoáveis para a proteção dos direitos humanos:

  1. Classificação da IA de acordo com seu risco

O Regulamento Europeu organiza toda uma lógica regulatória que classifica as diferentes tecnologias em diferentes níveis de risco aos seres humanos, considerando diversas ordens de risco. Para cada ordem de risco são estipuladas exigências diferentes, indo de proibições a regras bastante permissivas a depender do risco da tecnologia com IA analisada.

  • Sistemas de IA proibidos

O regulamento estabelece aquilo que é considerado risco inaceitável. Por serem considerados riscos inaceitáveis, o regulamento proíbe tecnologias que exponham seres humanos a tais tipos de risco.

São exemplos de sistemas de IA de risco inaceitável, e portanto proibidos, os sistemas voltados a:

  • Implantar técnicas subliminares, manipulativas ou enganosas para distorcer o comportamento e prejudicar a tomada de decisões, causando danos significativos.
  • Explorar vulnerabilidades relacionadas à idade, deficiência ou circunstâncias socioeconômicas para distorcer o comportamento, causando danos significativos.
  • Avaliar ou classificar indivíduos ou grupos com base no comportamento social ou traços pessoais, causando tratamento prejudicial ou desfavorável a essas pessoas.
  • Avaliar o risco de um indivíduo cometer crimes apenas com base em perfis ou traços de personalidade, exceto quando usado para aumentar avaliações humanas com base em fatos objetivos e verificáveis ​​diretamente vinculados à atividade criminosa.
  • Compilar bancos de dados de reconhecimento facial por meio de coleta não direcionada de imagens faciais da internet ou de filmagens.
  • Criar sistemas de categorização biométrica que inferem atributos sensíveis (raça, opiniões políticas, filiação sindical, crenças religiosas ou filosóficas, vida sexual ou orientação sexual), exceto rotulagem ou filtragem de conjuntos de dados biométricos adquiridos legalmente ou quando a aplicação da lei categoriza dados biométricos.
  • Sistemas de IA de alto risco

Um outro nível de risco, que ocupa boa parte do texto do Regulamento Europeu, aborda sistemas de IA de alto risco, que poderão ser desenvolvidos e comercializados caso respeitem as condições do regulamento e normas complementares. Grande parte das tecnologias com IA desenvolvidas para uso no campo da saúde são classificadas como IA de alto risco, e tal opção regulatória não é por acaso. A IA aplicada em saúde lida diretamente com vida e morte, saúde e doença, bem-estar e sofrimento.

As regras de classificação para sistemas de IA de alto risco estão no Art. 6 do Regulamento Europeu. O Anexo III do Regulamento traz exemplos sobre o que são consideradas tecnologias com IA de alto risco.

Merece destaque, para o contexto do Brasil – que possui o SUS e uma grande parcela da população que depende de benefícios previdenciários ou de assistência social –, a classificação como de alto risco para os sistemas de IA que mediam o acesso a serviços públicos e privados essenciais.

São exemplos desse tipo: sistemas de IA usados ​​por autoridades públicas para avaliar a elegibilidade a benefícios e serviços, incluindo sua alocação, redução, revogação ou recuperação; avaliação da solvência, exceto ao detectar fraude financeira; avaliação e classificação de chamadas de emergência, incluindo priorização de despacho de polícia, bombeiros, assistência médica e serviços de triagem de pacientes urgentes; avaliações de risco e precificação em seguros de saúde e de vida.

Também serão considerados sistemas de IA de alto risco aqueles que criarem perfis de indivíduos, ou seja, que realizarem o processamento automatizado de dados pessoais para avaliar vários aspectos da vida de uma pessoa, como desempenho no trabalho, situação econômica, saúde, preferências, interesses, confiabilidade, comportamento, localização ou movimento.

  • Sistemas de IA de risco limitado e de risco mínimo

Há ainda uma seção mais enxuta do Regulamento Europeu que trata dos sistemas de IA de risco limitado. Tecnologias com IA assim classificadas estarão sujeitas a um controle e à obrigações de transparência mais leves, sendo que desenvolvedores devem garantir que os usuários finais estejam cientes de que estão interagindo com IA (chatbots e deepfakes).

Por fim, há uma parte pequena do texto que trata do risco mínimo e estabelece um regime de não regulação. Nesta categoria está incluída a maioria dos aplicativos de IA atualmente disponíveis no mercado único da UE, como videogames habilitados e filtros de spam (isso está mudando com IA generativa e alguns destes produtos em breve terá que ser classificado de outra forma).

  1. A maioria das obrigações impostas pelo Regulamento recai sobre os provedores e/ou desenvolvedores de sistemas de IA de alto risco

O modelo de responsabilização adotado prioriza as obrigações mais sensíveis associadas ao processo de desenvolvimento e à oferta de tecnologias e serviços com IA no mercado digital, recaindo sobretudo sobre os desenvolvedores e/ou nos provedores.

Assim, com o Regulamento, aqueles que pretendem colocar no mercado ou em serviço sistemas de IA de alto risco na UE, independentemente de estarem sediados na UE ou em um país terceiro, serão responsáveis pelos riscos e danos que estas tecnologias causarem a indivíduos, grupos ou à sociedade em geral. O mesmo vale para desenvolvedores e provedores de países terceiros, de onde saem os sistemas de IA de alto risco que são usadas na UE.

Vale lembrar que um provedor de IA é uma empresa ou um serviço que dá ao usuário da tecnologia a capacidade de enviar solicitações e receber respostas de uma inteligência artificial. No momento, os sistemas de IA mais capazes são baseados em arquiteturas Large Language Model (LLM).

Por sua vez, os desenvolvedores são também conhecidos como engenheiros de IA ou programadores de IA. São profissionais de software especializados em projetar, construir e implantar sistemas e aplicativos de inteligência artificial usando linguagens de programação tais como o Python. 

  1. Os implementadores são aqueles que implantam um sistema de IA em uma capacidade profissional, não os usuários finais afetados

No contexto do Regulamento Europeu, um implementador de IA é qualquer pessoa física ou jurídica, autoridade pública, agência ou outro organismo que utiliza um sistema de IA sob sua autoridade, excluindo atividades pessoais e não profissionais.

Os implementadores de sistemas de IA de alto risco também têm algumas obrigações, embora menos do que os provedores e/ou desenvolvedores. As regras do Regulamento da UE se aplicam tanto aos implementadores localizados na UE e também os sediados em países terceiros de onde saem os sistemas de IA que são usados no bloco europeu.

A importância de se recair algumas responsabilidades sobre os implementadores não é desprezível, já que são esses quem de fato fazem o uso das tecnologias e podem ou não utiliza-las de formas nocivas aos indivíduos, a grupos populacionais ou à sociedade em geral.

  1. Regulamento prevê uma regulação abrangente sobre a IA de propósito geral (GPAI)

Todos os provedores de modelos de inteligência artificial de propósito geral devem fornecer documentação técnica, instruções de uso, cumprir a legislação de proteção de direitos autorais e publicar um resumo sobre o conteúdo usado para treinamento.

Os provedores de modelos GPAI de licença livre e aberta precisam apenas cumprir os direitos autorais e publicar o resumo dos dados de treinamento, a menos que apresentem um risco sistêmico, aberto ou fechado. Nestes casos, os provedores também devem conduzir avaliações de modelos, testes adversários, rastrear e relatar incidentes sérios, bem como garantir proteções de segurança cibernética. 

Em síntese: regular IA é medida de proteção de direitos e liberdade econômica deve ter limites

Uma análise ponderada e imparcial do Regulamento Europeu nos permite verificar que se trata de uma inovação legislativa fundamental para que as novas tecnologias digitais venham de fato servir como ferramentas benéficas aos indivíduos, aos diferentes grupos populacionais e à sociedade como um todo.

Se um desenvolvedor ou provedor se mostra incapaz de desenvolver ou oferecer um produto que não viole os direitos fundamentais do ser humano, parece-me evidente que esse desenvolvedor ou provedor não possui um produto apto a ser usado e/ou comercializado.

Se o seu produto é maléfico por intenção ou por incapacidade de fazer coisa melhor, isso é indiferente à luz da segurança que o Estado deve prover à população. Inovação tecnológica é importantíssima, mas não pode ser justificativa para afastar o Estado e a sociedade do necessário controle das novas tecnologias que chegam ao mercado.

Condicionar a inovação e o desenvolvimento econômico a regras que buscam proteger a saúde, a educação, o meio ambiente, a equidade e a não discriminação é o mínimo que se espera de um Estado que exista, de fato, para a proteção dos cidadãos. Os riscos da IA já estão presentes e causando danos, e as lógicas do Regulamento Europeu, adaptadas ao Brasil pelo PL 2338, são razoáveis e devem ser implantadas o quanto antes.

Adicionar aos favoritos o Link permanente.