Observações levantadas por grandes empresas sobre a questão da responsabilização por conteúdos

O Supremo Tribunal Federal decidiu majoritariamente nesta terça-feira em relação ao caso.

11/06/2025 19:45

6 min de leitura

Observações levantadas por grandes empresas sobre a questão da responsabilização por conteúdos
(Imagem de reprodução da internet).

Grandes plataformas digitais e entidades do setor, nos últimos meses, em razão da retomada do julgamento no Supremo Tribunal Federal (STF) sobre o artigo 19 do Marco Civil da Internet (MCI), manifestaram suas opiniões, levantando dúvidas e preocupações acerca dos possíveis efeitos da decisão.

CONTINUA DEPOIS DA PUBLICIDADE

A Segunda Turma considerou que as grandes empresas de tecnologia devem responder por conteúdos criminosos publicados por seus usuários. Contudo, a decisão ainda precisa de definição de tese em relação à responsabilização das plataformas.

Após o sexto voto no plenário do Supremo, na noite desta quarta-feira, a CNN contatou as empresas Google , Meta (responsável por Facebook e Instagram), LinkedIn, TikTok e Kwai, além da Câmara Brasileira da Economia Digital (e-camara.net).

Leia também:

Algumas empresas de grande porte afirmaram que continuam acompanhando de perto as posições já estabelecidas em relação ao Marco Civil e ao processo no STF. O espaço permanece aberto para novas atualizações.

Abaixo, como cada empresa e entidade se manifestou.

Google, em comunicado publicado em 3 de junho de 2025.

A extinção de normas que distinguem a responsabilidade civil das plataformas e dos usuários não assegurará o desaparecimento da circulação de conteúdos indesejados na internet. O Marco Civil da Internet pode e deve ser aprimorado, desde que sejam definidas garantias processuais e critérios que evitem insegurança jurídica e a remoção indiscriminada de conteúdo.

CONTINUA DEPOIS DA PUBLICIDADE

O Google elimina, de forma eficiente e em grande escala, conteúdos que infringem as regras de cada uma de suas plataformas. São centenas de milhões de conteúdos removidos por ano pela própria empresa, em conformidade com as diretrizes públicas de cada produto.

No entanto, as boas práticas de moderação de conteúdo por empresas privadas são incapazes de lidar com todos os conteúdos controversos, na variedade e profundidade com que eles se apresentam na internet, refletindo a complexidade da própria sociedade. A atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas situações e traçar a fronteira entre discursos ilícitos e críticas legítimas.

Meta, em publicação de dezembro de 2024

Por uma decisão ponderada acerca do regime de responsabilização de plataformas no Brasil.

Neste momento, manifestamos nossas preocupações em relação a alguns dos argumentos apresentados durante o julgamento, conduzido pelo Supremo Tribunal Federal (STF), acerca do dispositivo que estabelece o regime de responsabilização de fornecedores de aplicações de internet no Brasil.

O Artigo 19 da Lei do Marco Civil da Internet é reconhecido globalmente por determinar que intermediários, como plataformas digitais, só são responsabilizados por conteúdos de terceiros se não os removem após receberem uma ordem judicial válida para tal. Isso não implica que as plataformas não possuam regras que proíbam conteúdos nocivos, como violência, incitação e abuso infantil. Na Meta, empregamos tecnologia automatizada e revisão humana para identificar e agir sobre conteúdos que infringem essas políticas.

Nos últimos dias, especialistas em internet no Brasil e a mídia nacional têm alertado que, caso o Artigo 19 seja considerado inconstitucional, o país se tornaria divergente da comunidade internacional.

As plataformas digitais estariam sujeitas a um regime extenso de notificação e remoção, podendo ser responsabilizadas por diversos tipos de conteúdo sem terem sido previamente informadas.

Certas das propostas discutidas no debate suscitam questões relevantes sobre o funcionamento prático desse novo regime de responsabilização de plataformas digitais.

Seriam incentivadas a eliminar conteúdos subjetivos que não necessariamente infringem leis locais ou normas das plataformas, em uma medida preventiva para evitar responsabilização.

As plataformas podem ser responsabilizadas por conteúdos que não removem, mas também podem ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade que foram aceitos pelos usuários ao criarem suas contas.

A união de um sistema abrangente de alertas e remoções com responsabilidade objetiva provavelmente sobrecarregaria o Poder Judiciário, com usuários dispostos a processar por questões subjetivas, como difamação, e com expectativa de que as plataformas adotem medidas.

Possuímos uma extensa trajetória de diáe cooperação com as autoridades no Brasil, incluindo o Judiciário. Contudo, nenhuma democracia global jamais buscou implementar um sistema de responsabilização para plataformas digitais como o que foi proposto até mesmo neste julgamento no STF. Não se trata do regime estabelecido na Lei dos Serviços Digitais (DSA, sigla em inglês) na União Europeia, nem do NetzDG na Alemanha ou da Seção 230 do Communications Decency Act (CDA) nos Estados Unidos.

A Meta está empenhada em aprimorar continuamente seus sistemas e políticas para garantir a segurança dos usuários em seus aplicativos. Apoiamos a revisão das normas da internet com orientações claras para lidar com os principais desafios da sociedade.

Pretende-se que se obtenha uma solução equilibrada em relação ao regime de responsabilidade das plataformas digitais no Brasil, conforme o andamento do julgamento sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet.

Câmara Brasileira da Economia Digital, em publicação de 3 de junho de 2025.

A Câmara-e alerta que o STF pode desequilibrar o Marco Civil da Internet.

A Câmara Brasileira da Economia Digital (camara-e.net), que representa empresas de serviços digitais e comércio eletrônico de diversos portes, alerta que a responsabilização automática de plataformas digitais, sem necessidade de decisão judicial, pode levar a remoções preventivas de conteúdos legítimos e gerar insegurança jurídica para usuários e negócios que dependem da internet.

A organização ressalta que alterações neste artigo podem criar precedentes perigosos para a censura privada, com a remoção antecipada de conteúdos legítimos – inclusive em casos de denúncias infundadas – prejudicando educadores, criadores de conteúdo, jornalistas, pequenos negócios e milhões de usuários.

A entrega de documentos técnicos ao STF demonstra que a responsabilização objetiva, sem critérios definidos, representa um revés para o cenário digital no Brasil, afetando a inovação, o empreendedorismo e o acesso a serviços fundamentais.

A camera-e.net sustenta que qualquer modificação tão significativa deve ser debatida amplamente no Congresso Nacional, com ampla participação técnica, social e do setor produtivo, para assegurar segurança jurídica, proteção de direitos fundamentais e o equilíbrio necessário para o desenvolvimento sustentável da economia.

Fonte por: CNN Brasil

Marcos Oliveira é um veterano na cobertura política, com mais de 15 anos de atuação em veículos renomados. Formado pela Universidade de Brasília, ele se especializou em análise política e jornalismo investigativo. Marcos é reconhecido por suas reportagens incisivas e comprometidas com a verdade.