O Supremo Tribunal analisa recursos do Facebook e do Google sobre a responsabilidade de usuários por postagens em redes sociais.
O Supremo Tribunal Federal retomou na quarta-feira (11.jun.2025) o julgamento da Lei 12.965/2014, conhecida como Marco Civil da Internet. Estão sendo avaliados dois recursos, um apresentado pelo Facebook e outro pelo Google, que discutem a responsabilidade dos usuários por postagens em redes sociais e a viabilidade da remoção de conteúdo sem necessidade de ordem judicial.
CONTINUA DEPOIS DA PUBLICIDADE
Realizam-se duas reuniões: a primeira pela manhã, às 10h, e a segunda à tarde, a partir das 14h. O processo foi retomado na semana passada com o voto do ministro André Mendonça, que, em dezembro de 2024, solicitou vista e mais tempo para análise. Segue-se agora com os demais votos.
Mendonça dissentiu e votou pela manutenção integral do artigo 19. Além dele, votaram os ministros relatores Dias Toffoli e Luiz Fux, e o presidente da Corte, Roberto Barroso.
Os recursos analisados:
A comissão avaliará se essas empresas possuem o dever de mediar publicações dos usuários e se é necessária ordem judicial para a remoção de conteúdo ofensivo.
CONTINUA DEPOIS DA PUBLICIDADE
Até o momento, este é o resultado do julgamento:
A análise será retomada com o voto do ministro Flávio Dino. Além dele, ainda faltam votar os ministros Nunes Marques, Cristiano Zanin, Carmen Lúcia, Gilmar Mendes, Alexandre de Moraes e Edson Fachin.
Descubra como o Supremo Tribunal pode definir regras para as redes sociais nesta reportagem do Poder360.
Dias Toffoli, relator de um dos recursos em julgamento (RE 1037396), votou pela invalidação do artigo 19, significando que não se faz necessária uma ordem judicial para que as plataformas removam um conteúdo e, sejam responsabilizadas caso não o façam.
O ministro determinou que as redes sociais devem eliminar publicações feitas por usuários quando houver comunicação de vítimas em situações específicas, abrangendo crimes contra o Estado democrático de direito, racismo e a divulgação de informações “notoriamente falsas” que possam comprometer um pleito eleitoral.
O juiz solicitou aos Poderes Executivo e Legislativo que, no prazo de 18 meses, criem e implementem uma política pública para combater a violência digital e a desinformação. Ordenou que a política disponha do orçamento necessário para sua execução e que o CNJ (Conselho Nacional de Justiça) estabeleça o DAI (Departamento de Acompanhamento da Internet no Brasil) para supervisionar o cumprimento da decisão.
Leia a íntegra da tese proposta por Toffoli (PDF — 100 kB).
O ministro Luiz Fux, relator de um dos recursos em julgamento (RE 1057258), acompanhou Toffoli. Fux argumentou que o artigo 19 não impede a responsabilização de redes sociais que, cientes de conteúdos ilícitos publicados por usuários, deixem de removê-los.
O juiz entende como ilícitos conteúdos que promovam discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado democrático de direito e ao golpe de Estado, e propõe que, nessas situações, as plataformas conduzam monitoramento ativo.
Para publicações que comprometam a honra, a imagem e a privacidade, o ministro votou pela responsabilização somente após a notificação extrajudicial da vítima, sem a necessidade de ação judicial.
Ele também propôs que as redes sociais disponibilizassem canais de denúncia e, em relação a conteúdos ilícitos promovidos (quando se utilizam estratégias para ampliar seu alcance), assumissem o pleno conhecimento das plataformas.
Leia a íntegra da tese proposta por Fux (PDF — 48 kB).
O presidente da Corte se manifestou parcialmente discordando dos demais e votou pela validade parcial do artigo 19. De acordo com o entendimento de Barroso, as plataformas devem permanecer responsabilizadas quando não cumprirem ordens judiciais para a remoção de conteúdos que envolvam crimes contra a honra (injúria, calúnia e difamação).
Acusações de outros crimes podem ser comunicadas diretamente às redes sociais pelas pessoas que se sentirem atingidas. Argumentou que as grandes empresas de tecnologia têm “obrigação de cuidado” e dever de avaliar se o conteúdo precisa ser removido, independentemente de decisão judicial.
Leia a íntegra da tese proposta por Barroso (PDF – 52 kB).
Mendonça foi o único a votar pela manutenção integralmente válida do artigo 19. O ministro se manifestou contra responsabilizar as plataformas por não remover conteúdos publicados por usuários sem antes receber uma ordem judicial.
Também defendeu que a responsabilidade é do autor da publicação, mas compreendeu que as plataformas não podem ser responsabilizadas por manifestações de opinião ou pensamento.
O ministro manteve sua posição contrária à suspensão de perfis, entendendo que ordens judiciais podem censurar e remover conteúdos específicos, sem impedir o banimento de uma pessoa nas redes sociais.
Ele também solicitou ao Executivo e ao Legislativo que, ao revisarem as normas para redes sociais, avaliassem políticas públicas que utilizassem a autorregulação. Propôs que a CGU (Controladoria-Geral da União) exerça o controle nesse processo.
Consulte o estudo completo apresentado por Mendonça (PDF – 86 kB). Informe-se sobre o conceito de “autorregulação regulada” proposto por Mendonça nesta reportagem do Poder360.
Fonte por: Poder 360
Autor(a):
Com formação em Jornalismo e especialização em Saúde Pública, Lara Campos é a voz por trás de matérias que descomplicam temas médicos e promovem o bem-estar. Ela colabora com especialistas para garantir informações confiáveis e práticas para os leitores.