Em janeiro de 2025, a Meta anunciou uma série de alterações nas políticas de moderação de conteúdo aplicáveis às plataformas sob seu controle: Facebook, Instagram e Threads. A companhia indicou a eliminação de programas de verificação de fatos e o relaxamento de restrições sobre discursos controversos em temas sensíveis como imigração e questões de gênero.
Tal decisão unilateral exemplifica o imenso poder que poucas empresas privadas exercem sobre o debate público global. A mudança nas políticas, motivada por interesses comerciais – possivelmente incluindo uma tentativa de apaziguar o presidente Donald Trump, conhecido por criticar as práticas da Meta – revela falhas democráticas significativas na governança de plataformas digitais.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Decisões que influenciam o acesso à informação, moldam o debate cívico e afetam a segurança de indivíduos não podem permanecer como prerrogativa exclusiva de corporações globais. A confiança na autorregulação das plataformas, respaldada por arcabouços legais concebidos para uma internet já ultrapassada, deve ceder lugar a modelos robustos de regulação pública.
Paralelamente aos fundamentais regimes regulatórios focados na abertura de mercados e promoção da concorrência (que discutimos em coluna anterior aqui no JOTA), o direito econômico assume papel crucial neste cenário.
Propomos, nesta coluna, que cabe a ele supervisionar tanto o poder econômico dessas plataformas, associado à sua dominância de mercado, quanto estruturar regimes regulatórios para fiscalizar o poder informacional concentrado nessas empresas, especialmente no âmbito das redes sociais.
A evolução da internet e do poder informacional das plataformas
O debate sobre a regulação de plataformas remonta ao surgimento da internet comercial em si, mas ganha novos contornos diante da evolução dessas empresas. O modelo regulatório inicial foi concebido para arbitrar disputas individuais sobre a legalidade de publicações específicas.
No Brasil, o caminho adotado para questões de responsabilidade civil de intermediários por conteúdos de terceiros foi atribuir ao poder judiciário o papel de arbitrar disputas relacionadas a conteúdos na internet.
Esta solução, construída com a participação de diversos setores da sociedade, está cristalizada no artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que estabelece que plataformas só podem ser responsabilizadas civilmente se não removerem conteúdo específico após decisão judicial – com exceções para material íntimo não consensual e conteúdo protegido por direitos autorais.
Outras jurisdições também estabeleceram seus primeiros modelos regulatórios focados em formas de safe harbours protegendo as plataformas de responsabilidade, como o artigo 230 do Communications Decency Act (CDA) de 1996 nos EUA e a Diretiva de Comércio Eletrônico na União Europeia de 2000.
Contudo, este modelo mostra-se insuficiente frente à escala atual e à transformação do papel das plataformas. As grandes empresas tecnológicas não são mais meras hospedeiras, mas curadoras do fluxo informacional. Por meio de sofisticados sistemas de recomendação e amplificação, elas moldam ativamente o que bilhões de usuários veem, consomem e discutem. Esta curadoria confere às plataformas um poder informacional sem precedentes.
As plataformas exercem poder não apenas pela curadoria, mas também pela moderação de conteúdo. Movidas principalmente por interesses comerciais e proteção de marca, as grandes plataformas investiram pesadamente em sistemas que mantêm seus espaços virtuais atraentes para usuários e anunciantes – principal fonte de receita das redes sociais. Esses sistemas filtram tanto conteúdo ilegal quanto material considerado nocivo que nao chega a ser ilegal (por exemplo, teorias conspiratórias ou rumores).
Para lidar com o imenso volume de publicações, as empresas combinam moderadores humanos – que aplicam diretrizes detalhadas estabelecidas pelas próprias empresas – com algoritmos cada vez mais essenciais. Criaram, assim, sistemas que se assemelham a arcabouços jurídicos para gestão do que pode ou não circular online.
A diferença crucial é que na moderação de conteúdo, tanto a criação das regras quanto sua aplicação são processos privados, mantendo o poder decisório final nas mãos das plataformas. Embora algumas empresas tenham iniciado esforços para abrir seus sistemas regulatórios à participação de atores da sociedade civil e usuários, a literatura acadêmica questiona a efetividade desses mecanismos, especialmente quando a participação externa é controlada pela própria plataforma.
Quando esses sistemas falham – seja por não detectarem de forma tempestiva conteúdos proibidos ou por censurarem vozes legítimas, muitas vezes afetando de forma desproporcional grupos marginalizados – os arcabouços jurídicos centrados na responsabilidade civil por conteúdos individuais mostram-se inadequados.
Enfrentamos, assim, um descompasso evidente: um imenso poder informacional concentrado, mas limitados mecanismos eficazes de transparência e prestação de contas que foquem nos sistemas de moderação de conteúdo.
O direito econômico e a regulação da moderação de conteúdo
Diante desse cenário, torna-se imperativo repensar a governança das plataformas, passando pela construção de modelos regulatórios que submetam à supervisão pública os sistemas de moderação privado das plataformas. O direito econômico tem um papel importante na estruturação de uma regulação, focada em obrigações administrativas supervisionadas por um órgão regulador independente. Este debate avança nas principais democracias globais, mas no Brasil, apesar de iniciado, encontra-se estagnado no Congresso Nacional há mais de dois anos.
Um conceito-chave adotado no Reino Unido e considerado nos debates brasileiros é o “dever de cuidado” (duty of care), que exige das plataformas avaliações transparentes sobre como seus serviços podem disseminar conteúdo nocivo ou ilegal. Com base nessas análises, as empresas devem implementar medidas mitigadoras eficazes.
Isso pode incluir, por exemplo, ajustar sistemas automatizados, criar canais prioritários para denúncias (especialmente para certos crimes) e garantir transparência sobre suas ações. A lei britânica não altera as regras de responsabilidade civil, mas exige uma postura proativa das empresas na identificação e gestão de riscos. O foco transcende a simples remoção de conteúdos específicos, abrangendo a própria arquitetura das plataformas – seus algoritmos, processos de denúncia e políticas de aplicação – em uma abordagem verdadeiramente sistêmica.
No Brasil, apesar dos debates em torno do PL 2630/2020, que também fazia referência a um dever de cuidado, carecemos de uma lei abrangente que estabeleça deveres administrativos para plataformas digitais.
O Judiciário tem atuado nessa temática, especialmente no julgamento de dois casos com repercussão geral em análise pelo STF sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, mas não vai – nem deve – suprir essa lacuna, que cabe fundamentalmente ao direito econômico.
Votos já proferidos no âmbito do julgamento indicam o reconhecimento de que o direito brasileiro acomodaria um dever de cuidado para plataformas. Notavelmente, o voto do ministro Barroso indica que plataformas têm um dever de cuidado que se traduz em responsabilidade para agir proativamente na remoção de certos tipos de conteúdos ilegais considerados especialmente graves, incluindo crimes contra crianças e adolescentes, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.
Qualquer que seja a decisão final desse caso – paralisado desde o fim de 2024 por pedido de vista do ministro André Mendonça – o STF não criará um novo arcabouço jurídico-institucional completo para as plataformas digitais. A elaboração de obrigações regulatórias não deve ocorrer por meio de decisões com repercussão geral, nem cabe à corte definir um órgão regulador. Tanto pelo escopo das demandas judiciais em pauta, como pela natureza do regramento necessário, essa é atribuição do Congresso Nacional.
O futuro da regulação de plataformas no Brasil
Em síntese, as decisões sobre o que pode ser dito, visto e amplificado online são demasiado importantes para serem deixadas ao arbítrio de poucas empresas multinacionais, guiadas por lógicas comerciais. As recentes intenções da Meta apenas reforçam a urgência de o Congresso Nacional preencher essa lacuna. As mudanças anunciadas são um sintoma de um problema maior: a ausência de mecanismos eficazes de supervisão de natureza pública.
É fundamental avançar na construção de um marco regulatório brasileiro que ultrapasse as regras de responsabilidade civil e, a partir do diálogo com o arcabouço normativo existente, estabeleça obrigações claras de avaliação de risco e implementação de medidas mitigadoras, supervisionadas por uma entidade reguladora com capacidade técnica e independência.
O direito econômico, ao estabelecer arcabouços normativos e institucionais sobre o poder econômico de agentes privados, oferece ferramentas conceituais e práticas essenciais para estruturar este novo regime de natureza administrativa.
Não se trata de replicar modelos estrangeiros, mas de aprender com eles e adaptá-los à nossa realidade constitucional e social, garantindo que as plataformas que operam no país o façam de forma alinhada aos direitos fundamentais e aos princípios democráticos.