Transparência e justiça na moderação de conteúdo

A regulação das plataformas digitais tem se tornado um tema central nas discussões globais sobre democracia e direitos fundamentais, considerando o impacto crescente dessas empresas na comunicação e formação da opinião pública.

No Brasil, o artigo 19 do Marco Civil da Internet estabelece que a remoção de conteúdos depende de decisão judicial, salvo em casos específicos, como nudez ou pornografia não consentida. Embora essa abordagem busque proteger a liberdade de expressão, ela também cria barreiras significativas, ao sobrecarregar o Judiciário e dificultar o acesso à justiça para muitos cidadãos.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Em contraste, o Digital Services Act (DSA) europeu e a NetzDG alemã oferecem um modelo autorregulatório que equilibra eficiência, transparência e proteção dos direitos fundamentais, fornecendo lições valiosas que podem ser adaptadas ao contexto brasileiro.

Uma das principais inovações trazidas por essas legislações é a criação de mecanismos acessíveis para que os usuários possam denunciar conteúdos ilegais de maneira estruturada, simples e direta, sem a necessidade de ingressar num primeiro momento com uma ação no Judiciário como no caso do art. 19 do Marco Civil da Internet.

O art. 16 do DSA e a seção 3 da NetzDG exigem que as plataformas estabeleçam sistemas claros para o registro de denúncias, permitindo que os usuários reportem conteúdos potencialmente prejudiciais ou ilegais. Na Alemanha, a Bundesnetzagentur, autoridade reguladora[1], credencia instituições terceiras para gerenciar essas denúncias, garantindo agilidade no processamento.

Além disso, a NetzDG determina prazos rigorosos para resposta, como 24 horas para casos claros e até 7 dias para análises mais complexas, e exige que as plataformas publiquem relatórios semestrais detalhando as denúncias recebidas, as medidas tomadas e os tempos de resposta[2].

Essa abordagem contrasta significativamente com a estrutura do artigo 19 do MCI, que, ao condicionar a responsabilidade pela remoção de conteúdos à atuação judicial, muitas vezes inviabiliza uma resposta rápida às demandas dos usuários.

A implementação de um portal de denúncias claro e acessível no Brasil, inspirado nos modelos europeu e alemão, poderia democratizar o acesso à justiça e permitir que os cidadãos participem ativamente da regulação do ambiente digital aumentando também a transparência sobre a gestão da liberdade de expressão da população pelas plataformas digitais.

Além disso, a coleta estruturada de dados sobre denúncias geraria informações técnicas valiosas que poderiam subsidiar tanto o Judiciário quanto os legisladores em decisões futuras, garantindo ao judiciário um conhecimento maior e uma posição melhor para decidir sobre os parâmetros utilizados pelas plataformas para gerir a liberdade de expressão da população.

Outro aspecto fundamental das legislações europeia e alemã é a obrigatoriedade de auditorias externas independentes sobre os algoritmos utilizados pelas plataformas. O artigo 37 do DSA estabelece que as plataformas de grande porte, como Google, Meta e TikTok, devem submeter seus sistemas a auditorias anuais realizadas por entidades independentes.

Essas auditorias visam garantir que os algoritmos não violem direitos fundamentais, como a liberdade de expressão e a não discriminação, e que operem de maneira transparente. Complementando essa exigência, o artigo 34 do DSA determina que as plataformas realizem avaliações de risco para identificar como seus algoritmos podem amplificar conteúdos ilegais ou prejudiciais, com os resultados dessas análises sendo compartilhados com autoridades reguladoras e disponibilizados ao público em formato acessível.

No Brasil, onde ainda não há regulamentação específica para a transparência algorítmica, a adaptação desse modelo seria um avanço significativo. Hoje, as plataformas são tratadas como intermediárias passivas pelo artigo 19 do MCI, mas a realidade é que seus algoritmos desempenham um papel ativo e central na curadoria do conteúdo acessado pelos usuários. As auditorias independentes poderiam corrigir essa lacuna, oferecendo maior accountability às plataformas e criando um ambiente digital mais justo e equitativo.

Finalmente, uma das inovações mais relevantes do DSA é a garantia de acesso a dados das plataformas para fins de pesquisa acadêmica. O artigo 40 do DSA estabelece que pesquisadores qualificados podem ter acesso a informações detalhadas para estudar a moderação de conteúdo, o impacto democrático das decisões algorítmicas e a disseminação de desinformação.

A incorporação de uma política semelhante no Brasil permitiria que pesquisadores avaliassem, por exemplo, como decisões de moderação afetam grupos vulneráveis ou minoritários. Esses estudos seriam fundamentais para fundamentar políticas públicas inclusivas e baseadas em evidências, além de possibilitar um diálogo mais qualificado entre academia, governo e empresas. Atualmente, a falta de acesso a esses dados no Brasil limita a capacidade da sociedade civil de monitorar as plataformas e propor soluções informadas.[3]

Os exemplos do DSA e da NetzDG demonstram que modelos autorregulatórios supervisionados podem oferecer uma alternativa eficaz e democrática ao sistema atual do Brasil. Enquanto o art. 19 do Marco Civil da Internet se apoia exclusivamente no Judiciário, os marcos regulatórios europeus mostram que é possível combinar eficiência e acessibilidade com a proteção dos direitos fundamentais.

A criação de um portal de denúncias estruturado, a implementação de auditorias externas independentes e o acesso de pesquisadores aos dados das plataformas são medidas que não apenas promovem maior transparência, mas também tornam a justiça mais acessível e fortalecem a confiança pública no ambiente digital.

Neste momento, em que o impacto das plataformas digitais no Brasil é amplamente debatido, há uma oportunidade única de revisar a legislação existente e alinhar o país às melhores práticas internacionais. Adotar esses princípios fortaleceria a governança digital brasileira, promovendo um ambiente mais inclusivo, transparente e comprometido com a proteção dos direitos fundamentais.


[1] ALEMANHA. Bundesnetzagentur launches Data Space Connector to promote secure data exchange. Disponível em: https://www.bundesnetzagentur.de/SharedDocs/Pressemitteilungen/EN/2024/20240514_DSC.html. Acesso em: 23 jan. 2025.

[2] Para uma análise detida sobre a NetzDG, cf., entre outros, TWOREK, Heidi; LEERSSEN, Paddy. An Analysis of Germany’s NetzDG Law. Disponível em: https://www.ivir.nl/publicaties/download/NetzDG_Tworek_Leerssen_April_2019.pdf. Acesso em: 23 jan. 2025.

[3] O tema foi abordado com maior profundidade em nota técnica publicada por pesquisadores do Legal Grounds Institute. Cf.: LEGAL GROUDNS INSTITUTE. Nota técnica em defesa da liberdade acadêmica e de pesquisa em redes sociais. Disponível em: https://institutolgpd.com/blog/nota-tecnica-em-defesa-da-liberdade-academica-e-de-pesquisa-em-redes-sociais/. Acesso em: 23 jan. 2025.

Adicionar aos favoritos o Link permanente.