Empresas adotam governança de IA em antecipação à regulação

Em antecipação à regulamentação da Inteligência Artificial (IA), empresas têm buscado escritórios de advocacia para formular políticas próprias de governança. Segundo advogados especializados no assunto, a principal demanda vem de empresas de tecnologia, bancos e multinacionais que buscam estabelecer regras próprias para o uso de ferramentas com IA.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Os escritórios ouvidos pelo JOTA afirmam que buscam apresentar aos clientes projetos de governança que possam antecipar a legislação específica, com normas de boas práticas em temas sensíveis, como direitos de propriedade intelectual e proteção de dados. Além disso, também atuam na elaboração de contratos para soluções com IA, por meio de cláusulas sobre proteção de dados e cibersegurança.

Especialista em Direito Digital e proteção de dados, o advogado Renato Opice Blum explica que, apesar de já esperarem por uma legislação para IA, as grandes empresas veem as políticas de governança não apenas como uma boa prática de compliance, mas também como uma vantagem competitiva no mercado.

“Nosso modelo de governança tem como objetivo minimizar riscos, mitigar problemas e oferecer diferenciação competitiva para as organizações. Trata-se de um processo irreversível e indispensável, considerando a crescente adoção de inteligência artificial em diversos setores”, afirmou.

De acordo com Opice Blum, as políticas de governança precisam ser adaptáveis às rápidas mudanças da tecnologia e da legislação, com monitoramento constante. Ele ressalta que, nos projetos desenvolvidos pelo seu escritório, os advogados buscam se basear em um conjunto amplo de legislação internacional, normas técnicas e regras infralegais que tragam segurança técnica e jurídica.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

“Nossos itens foram consolidados em 13 pontos principais, que incluem segurança, explicabilidade (compreensão dos modelos de IA utilizados), monitoramento, gerenciamento de riscos, conformidade com direitos autorais e proteção de dados”, pontua.

A advogada Patrícia Peck, membro titular do Comitê Nacional de Cibersegurança (CNCiber), avalia que, após o lançamento dos primeiros modelos de IA generativa, as empresas passaram a demandar mais os escritórios especializados por orientações. Segundo ela, a adoção de regras de uso e cláusulas contratuais sobre IA servem como uma prevenção das empresas para possíveis litígios no futuro.

Peck explica que os projetos de governança também servem para delimitar as possibilidades de uso de IA dentro da empresa, deixando claro o que não pode ser feito com as ferramentas. Nos projetos apresentados pelos escritórios, os advogados também fazem uma análise das licenças de uso e orientam para cláusulas contratuais de serviços em IA.

De acordo com Patrícia Peck, antes de contratar ou vender soluções baseadas em IA, é importante que os contratos possuam cláusulas prevendo:

1- Definição de terminologia

Uma indicação clara sobre o tipo de solução IA que será utilizada, seu propósito e limitações.

2- Proteção de dados e propriedade intelectual

Garantias de que a utilização da IA respeite a legislação vigente sobre direitos autorais, direitos de imagem e proteção de dados pessoais.

3- Cibersegurança e prevenção de ataques

Prevenção de envenenamento de dados (data poisoning) e segurança digital no tratamento dos dados durante o treinamento e o uso da IA.

4- Ética e governança

Alinhamento entre a solução de IA e o código de ética, além da política de governança da empresa.

Autorregulação

A advogada defende que as políticas internas também possuem um papel de autorregulação das empresas. Ela avalia que, mesmo com a aprovação de um marco legal para IA no Brasil, será necessário que cada setor econômico defina regras mais específicas sobre os seus segmentos.

“Para garantir maior segurança jurídica, é recomendável que os setores desenvolvam regulamentações específicas para suas aplicações de IA. Por exemplo, o uso de IA na área da saúde para laudos médicos ou na avaliação de currículos em processos de seleção de pessoas exige normas que considerem as particularidades dessas áreas”, defende.

Governança na Advocacia

Além da elaboração de políticas de governança para clientes, os escritórios de advocacia também estão adotando regras específicas sobre os usos de IA nos seus serviços. É o que afirma a advogada Alessandra Mourão, ao ressaltar que a demanda dos clientes também influenciou as práticas dos escritórios.

Ela pontua que os riscos de vazamento de dados e informações sensíveis fazem com que os próprios clientes demandem cláusulas nos contratos de serviços advocatícios que explicitem os usos de serviços com IA.

“A segurança das informações dos clientes é uma das maiores preocupações no uso de IA. Há o receio de que, ao utilizar uma ferramenta de IA, informações confidenciais possam ser expostas ou absorvidas pela plataforma, saindo do controle do escritório”, afirmou.

Para Mourão, a preocupação com a ética no uso de IA preocupa tanto as empresas quanto o meio jurídico. “É essencial que os escritórios informem de forma clara quando utilizam IA em suas atividades e que garantam revisões detalhadas para evitar erros ou falhas”, pontuou.

Adicionar aos favoritos o Link permanente.