Nova regulação da internet no Brasil: o que muda no que pode e no que não pode

Nova regulação da internet no Brasil: o que muda no que pode e no que não pode

A principal mudança gira em torno da possibilidade de responsabilizar civilmente as plataformas mesmo sem ordem judicial, em casos de conteúdos claramente ilícitos.

O Brasil está prestes a passar por uma das maiores mudanças na regulação da internet desde o Marco Civil, de 2014. Em 2025, o Supremo Tribunal Federal (STF) avançou no julgamento que pode alterar a forma como as plataformas digitais – como redes sociais, sites de vídeos e marketplaces – são responsabilizadas pelo conteúdo publicado por seus usuários.

A principal mudança gira em torno da possibilidade de responsabilizar civilmente as plataformas mesmo sem ordem judicial, em casos de conteúdos claramente ilícitos. Até então, a regra geral era a do chamado “Artigo 19” do Marco Civil da Internet: só após decisão da Justiça uma plataforma poderia ser obrigada a remover um conteúdo. Agora, com a nova interpretação da maioria dos ministros do STF, esse cenário muda.

Com a nova diretriz, plataformas que promovem conteúdos por meio de algoritmos ou publicidade terão o dever de agir de forma proativa. Caso recebam uma notificação sobre publicações que envolvam crimes como racismo, discurso de ódio, pornografia infantil, incitação à violência ou ataques ao Estado Democrático de Direito, essas empresas poderão ser responsabilizadas se não removerem o conteúdo de forma ágil e eficaz – mesmo sem ordem judicial.

A decisão estabelece ainda a necessidade de regras de transparência, como a publicação de relatórios sobre moderação de conteúdo, canais de denúncia acessíveis, mecanismos de recurso para usuários que tiverem conteúdo removido e auditoria dos processos internos das empresas. A fiscalização poderá ser feita por um órgão regulador, com possibilidades de que a Autoridade Nacional de Proteção de Dados (ANPD) assuma parte desse papel.

No entanto, a mudança também levantou preocupações. Especialistas em direitos digitais e organizações civis alertam para o risco de censura e violação à liberdade de expressão, já que os critérios para determinar o que é “claramente ilegal” podem ser subjetivos. Termos amplos como “ameaças à democracia” ou “discurso de ódio” ainda carecem de definições jurídicas precisas, o que pode gerar interpretações abusivas.

Outro ponto importante é a distinção entre provedores de serviços. Plataformas consideradas neutras – como serviços de hospedagem ou e-mail – continuam protegidas pelas regras atuais, só podendo ser responsabilizadas após ordem judicial. Já plataformas com papel ativo na promoção de conteúdo, como redes sociais, mecanismos de busca e lojas virtuais, passarão a ter maiores responsabilidades.

Com isso, o que pode e o que não pode na internet brasileira tende a mudar. Será permitido remover conteúdo ilegal sem ordem judicial, desde que seja evidente, como nos casos de pedofilia, racismo ou violência. Por outro lado, ainda não é permitido remover opiniões políticas ou críticas sem um processo legal claro, sob o risco de censura. O usuário continua tendo direito à liberdade de expressão, mas as plataformas passam a ter obrigações maiores para evitar a disseminação de conteúdo nocivo.

A expectativa é que essas mudanças também incentivem as empresas de tecnologia a investirem mais em mecanismos de moderação responsáveis, educação digital e combate à desinformação. Projetos de lei como o PL das Fake News (PL 2630/2020), que tramita no Congresso, também devem ganhar força com a nova interpretação do STF.

Em resumo, o novo modelo busca equilibrar liberdade de expressão e responsabilidade digital. Ainda há debates em aberto e a necessidade de regulamentações mais específicas, mas o rumo está dado: a internet no Brasil começa a ser moldada por princípios de cuidado, transparência e prevenção de danos – e não apenas por reações após o problema estar instalado.

Participe da nossa comunidade!
Clique aqui para entrar no grupo do WhatsApp

Back To Top