O YouTube afrouxou suas políticas de moderação de conteúdo sem qualquer anúncio oficial, revelou o The New York Times. A mudança acompanha uma tendência observada também em outras plataformas, como Facebook, Instagram e X.
Tradicionalmente, o YouTube mantém critérios rigorosos de moderação, especialmente em temas sensíveis como política ou saúde pública. Vídeos que disseminam desinformação ou promovem discriminação costumam ser removidos rapidamente do ar.
- Leia mais: YouTube Premium Lite chega ao Brasil por R$ 16,90, mas ainda tem anúncios
Alívio na moderação de conteúdo
No entanto, essa abordagem mudou desde a posse de Donald Trump como presidente dos Estados Unidos, em janeiro de 2025. Um documento interno de treinamento, distribuído em dezembro de 2024, orientou moderadores a preservar vídeos que possivelmente violem as diretrizes, desde que sejam considerados de “interesse público”.

Segundo o novo padrão, até 50% do conteúdo de um vídeo pode conter material potencialmente ofensivo — anteriormente, o limite era de 25%. Além disso, os moderadores foram incentivados a manter no ar vídeos de reuniões de conselhos municipais, manifestações e debates políticos.
Entre os temas considerados de interesse público estão:
- Debates sobre eleições;
- Conversas ideológicas;
- Manifestações;
- Discussões sobre raça, sexualidade ou identidade de gênero;
- Temas como aborto, imigração e censura.
Durante o treinamento, os funcionários analisaram um vídeo intitulado “RFK Jr. Delivers SLEDGEHAMMER Blows to Gene-Altering JABS” (“RFK Jr. faz revelações chocantes sobre vacinas alteradoras de genes”, em tradução livre). Mesmo com alegações falsas, o material deveria permanecer disponível por ser considerado de interesse público — embora atualmente não esteja mais no ar, sem explicação oficial.
Outro exemplo citado no treinamento envolvia um insulto direcionado a uma pessoa trans durante uma audiência do governo Trump. Apesar da ofensa, o restante do vídeo — com 43 minutos de duração — seria mantido no ar por conter conteúdo relevante e informativo.
Mudanças são recorrentes na plataforma, diz YouTube
Ao The New York Times, o YouTube afirmou que ajustes nas políticas de moderação são frequentes e fazem parte da estratégia da plataforma. A empresa citou o período da pandemia de covid-19, quando endureceu as regras em 2020, para depois flexibilizá-las em 2023.
Nos três primeiros meses de 2025, 192.586 vídeos foram removidos por conteúdo problemático, um aumento de 22% em relação ao mesmo período de 2024.
“A definição de ‘interesse público’ está em constante evolução, e atualizamos nossas diretrizes para refletir os novos tipos de discussões que surgem na plataforma”, afirmou um porta-voz do YouTube. “Nosso objetivo continua o mesmo: proteger a liberdade de expressão no YouTube, ao mesmo tempo em que mitigamos danos mais graves.”
- Confira: YouTube deixa de funcionar em iPhones antigos; confira os modelos afetados
Quer ficar por dentro das mudanças nas redes sociais e nos bastidores das big techs? Siga o TecMundo no Instagram, TikTok, YouTube, Facebook e X.