A definição de sistemas de inteligência artificial no AI Act

O Regulamento UE 2024/1689 foi aprovado em 2024 e tem por objetivo estabelecer regras harmonizadas para a inteligência artificial na União Europeia. Por se tratar de uma das primeiras regulações abrangentes na matéria, o AI Act tem influenciado o debate quanto à regulamentação da IA ao redor do mundo, inclusive no Brasil.

Um aspecto central nessa discussão envolve justamente definir qual conceito de sistema de IA será adotado legalmente. Nesse sentido, um conceito amplo ou impreciso pode gerar impactos relevantes, especialmente em termos de inovação e segurança jurídica.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Definição de sistemas de IA nos termos do AI Act

O Regulamento europeu somente se aplica a sistemas de IA enquadrados na definição de seu artigo 3º, n.º 1: (1) sistema baseado em máquina (“machine-based’), (2) concebido para funcionar com níveis de autonomia variáveis, (3) que pode apresentar capacidade de adaptação após a sua implementação, (4) e que, para objetivos explícitos ou implícitos, (5) com base nos dados de input que recebe, infere a forma de gerar outputs, (6) tais como previsões, conteúdos, recomendações ou decisões, (7) capazes de influenciar ambientes físicos ou virtuais.

Trata-se, notadamente, de uma definição complexa, motivo pelo qual o próprio AI Act estabeleceu que a Comissão Europeia (CE) deveria elaborar orientações sobre o conceito. Assim, a CE aprovou, no último dia 6 de fevereiro, uma minuta de Orientações sobre a Definição de um Sistema de IA (“Guidelines on the Definition of an AI System”).

As Guidelines não são vinculantes, mas podem moldar a aplicação prática do AI Act. Ademais, o documento pode também ser relevante ao contexto brasileiro, considerando a similaridade entre a definição de sistemas de IA no AI Act e aquela disposta no PL 2.338/2023.

  • Sistema baseado em máquina

Esse elemento enfatiza que os sistemas de IA são computacionalmente orientados. O termo “machine-based” se refere ao fato de que os sistemas são desenvolvidos e implementados a partir de máquinas, incluindo componentes como hardware ou software, os quais permitem o funcionamento da IA.

  • Autonomia

No que se refere à autonomia, a Comissão destaca que determinados sistemas de IA possuem um grau de independência que os permite operar sem envolvimento ou intervenção humana direta ou indireta. Por isso, a IA completamente dependente da ação humana não poderia ser classificada como autônoma.

  • Adaptabilidade

O AI Act também define que o sistema pode apresentar adaptabilidade após a implementação, o que estaria relacionado a capacidades de autoaprendizagem, permitindo que o comportamento do sistema de IA se alterasse ao longo de seu uso. No entanto, a adaptabilidade não seria um aspecto necessário para a aplicação do AI Act a determinado sistema de IA.

  • Objetivos explícitos ou implícitos

No geral, as Guidelines apontam que sistemas de IA são desenvolvidos para operar de acordo com um ou mais objetivos, os quais podem ser implícita (e.g. propósito deduzido do comportamento do sistema) ou explicitamente (e.g. um propósito claramente expresso no código do sistema) definidos. Os objetivos, contudo, seriam internos aos sistemas, referindo-se às suas metas e aos seus resultados. Assim, isso diferiria da “finalidade prevista” para o sistema, estabelecida com base nas influências do ambiente externo, incluindo o contexto no qual a IA foi projetada para ser implementada e como ela deve ser operada.

  • Inferências

O quinto elemento se refere à capacidade de o sistema de IA inferir a geração de outputs a partir dos inputs. Os outputs são obtidos predominantemente na fase de uso do sistema, sendo que as técnicas adotadas na fase de desenvolvimento seriam fundamentais para permitir as inferências. Dentre as referidas técnicas de IA, a CE elenca abordagens de machine learning, além de técnicas baseadas em lógica e conhecimento.

  • Categorias de outputs

Na sequência, um outro aspecto que define sistema de IA é a inferência para a geração de outputs. Tal capacidade, somada ao aprendizado de máquina e a abordagens baseadas em conhecimento e lógica, seria fundamental para distinguir a IA de outros softwares. Nos termos do AI Act, os outputs seriam: (i) previsões (i.e. uma estimativa sobre o output com base no input); (ii) conteúdo (e.g. texto, imagens, vídeos, músicas, dentre outros); (iii) recomendações (i.e. sugestões em relação a ações específicas, produtos ou serviços, com base em preferências, comportamentos ou demais dados de input de um usuário); e (iv) decisões (i.e. conclusões ou escolhas determinadas pelo próprio sistema de IA).

  • Interações com o ambiente

Por fim, os outputs de um sistema não seriam passivos, impactando ativamente os ambientes nos quais são implementados (e.g. desde objetos físicos tangíveis a ecossistemas de software virtuais). 

O conceito de IA em discussão no Brasil

O PL de IA dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da IA, com base na centralidade da pessoa humana. Em dezembro de 2024, o PL foi aprovado pelo Senado – e agora será revisto pela Câmara dos Deputados.

Apesar de procurar se contrapor à abordagem europeia, o fato é que o PL de IA possui diversas similaridades com o AI Act. Um exemplo é seu artigo 4º, I, o qual define sistema de IA como um “sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial previsão, conteúdo, recomendação ou decisão que possa influenciar o ambiente virtual, físico ou real.”

A redação em muito se assemelha com a definição de sistema de IA contida no AI Act, o que traz consigo dúvida razoável acerca do “desejo irresistível de copiar as leis europeias”, particularmente na medida em que os efeitos do AI Act “são desconhecidos até mesmo no seu lugar de origem”. Tendo em vista que o conceito de sistema de IA é o ponto crucial da definição do próprio escopo regulatório, compreendemos que uma importação dos padrões europeus poderia implicar uma série de obrigações desproporcionais e anti-inovação aos agentes brasileiros.

Nota-se que, no contexto da UE, a definição complexa de sistemas de IA produziu uma série de dúvidas acerca de suas restrições e exceções, que suscitaram inclusive necessidade prévia das Guidelines por parte da CE. Essas orientações trouxeram mais clareza ao que se entende por sistema de IA no AI Act. Contudo, mesmo após sua leitura, percebe-se que o conceito permanece significativamente amplo, a despeito da abordagem baseada em riscos do regulamento europeu. Dessa forma, é provável que a aplicação prática do AI Act demande fortes esforços interpretativos pelos agentes regulados.

A partir de tais reflexões, é válido questionar se teremos uma capacidade regulatória no Brasil para a emissão de opiniões e orientações céleres e claras, aptas a garantir uma aplicação adequada de uma legislação de  IA. Ainda que confirmada essa capacidade, é importante considerar se não existiria um conceito que melhor refletisse o nosso contexto cultural, socioeconômico e jurídico, em detrimento da definição do AI Act. Destaca-se, nessa linha, que há dezenas de conceitos diferentes para sistemas de IA de forma que as previsões europeias não representam necessariamente um modelo regulatório paradigmático e inevitável ou o mais apropriado a ser adotado na legislação nacional.

Incertezas quanto às estruturas legais podem prejudicar a inovação e o desenvolvimento tecnológico e, por isso, é essencial considerar quais objetivos serão visados com base na regulação da IA no Brasil, o que passa por delimitar uma definição mais precisa do conceito de sistema de IA. As Guidelines da CE, nesse contexto, mostram-se um instrumento adicional para reflexão na retomada das discussões sobre o PL 2338/2023 na Câmara dos Deputados, em particular para que o país implemente uma regulação independente em matéria de IA.

Adicionar aos favoritos o Link permanente.