Forbes, a mais conceituada revista de negócios e economia do mundo.
Na última quarta-feira, 11 de junho de 2025, o Supremo Tribunal Federal (STF) formou maioria para alterar o Artigo 19 do Marco Civil da Internet e responsabilizar as plataformas de redes sociais, como Meta, TikTok e YouTube, por conteúdos ilegais publicados por usuários.
Até então, o artigo assegurava que os provedores só poderiam ser responsabilizados civilmente por “danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo tornar indisponível o conteúdo apontado como infringente”.
Com a mudança, que ainda carece de orientações fundamentais sobre como as plataformas deverão agir mediante a conteúdos ilegais, as redes passam a ser responsáveis civilmente por todas as publicações de cunho ilícito.
“Qualquer conteúdo capaz de violar a legislação vigente é, objetivamente, ilegal. Assim, incluem-se conteúdos de cunho racista, homofóbico, desinformação com impacto em questões eleitorais, crimes contra honra, etc.”, explica Camila Camargo, especialista em direito digital e advogada e consultora da Andersen Ballão Advocacia.
Em nota divulgada em dezembro de 2024, a Meta, proprietária do Instagram, WhatsApp, Facebook e Threads, afirmou que utiliza “tecnologia automatizada e revisão humana para identificar e agir sobre conteúdos que violam” as diretrizes da plataforma. Além disso, pontuou que “nenhuma grande democracia no mundo jamais tentou implementar um regime semelhante de responsabilidade”.
Raquel Rocha, diretora sênior de public affairs da FTI Consulting, diz que a regulamentação possui aspectos positivos e negativos. “Neste caso, o impacto positivo mais óbvio é o potencial de redução de notícias falsas, crimes digitais e o desenvolvimento de sistemas de moderação automatizados mais transparentes e auditados.”
No entanto, a executiva alega que os “possíveis impactos negativos envolvem a fragilização do Marco Civil da Internet, os desafios técnicos da moderação automatizada, por exemplo, feita com IA, casos de censura e overblocking, além do uso abusivo de notificações extrajudiciais”.
O Google, responsável pelo YouTube, maior plataforma de streaming no Brasil, alega que as novas regras não impedirão que conteúdos ilegais sejam divulgados por meio da internet. A Big Tech também acredita que o Marco Civil necessita de melhorias, mas não da remoção indiscriminada de conteúdo.
O que muda para empresas e usuários?
“Para empresas que anunciam e criam conteúdos que são publicados nas redes sociais, o impacto se dá no cuidado que já deveria existir previamente, de evitar propagar discursos de ódio, notícias falsas e incitação à violência”, reitera Gabriela Araújo, especialista em direito digital e advogada da Andersen Ballão Advocacia.
Araújo reforça que as Big Techs são as principais atingidas pelas alterações. As empresas e criadores de conteúdo, por outro lado, devem estar cientes de que podem ter publicações retiradas do ar e “existe o risco de responder judicialmente pelo conteúdo publicado, a depender do tipo de ofensa gerada”.
Para a especialista, as mudanças “criam um cenário que promove aos usuários um espaço virtual com regras mais rígidas sobre conteúdos ofensivos, mitigando a sensação de ‘impunidade’ em face de conteúdos discriminatórios”.
Camila Camargo finaliza: “Neste sentido, é importante lembrarmos que, apesar de a liberdade de expressão ser um direito fundamental, ela não é absoluta, especialmente nos casos em que pode afetar outros direitos fundamentais.”
O post Marco Civil: Entenda as Mudanças para Empresas e Creator Economy apareceu primeiro em Forbes Brasil.