Script = https://s1.trrsf.com/update-1765905308/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Política

Como votou cada ministro do STF no julgamento sobre big techs e o que falta para a conclusão

Por 8 votos a 3, ministros defenderam ampliar as obrigações das big techs na moderação de conteúdo

26 jun 2025 - 15h43
(atualizado em 26/6/2025 às 18h36)
Compartilhar
Exibir comentários

RIO - O Supremo Tribunal Federal (STF) concluiu nesta quinta-feira, 26, o julgamento da ação para responsabilizar provedores e redes sociais por publicações de usuários. Por 8 votos a 3, os ministros decidiram que o artigo 19 do Marco Civil da Internet, que isenta as plataformas de responsabilidade por publicações de terceiros, exceto no caso de descumprimento de decisões judiciais para remover conteúdos, é parcialmente inconstitucional, porque não prevê exceções para a punição das empresas de tecnologia.

Após 12 sessões, os ministros definiram os critérios para punir as plataformas por falhas na moderação de conteúdo.

Ficou definido que, como regra geral, as empresas respondem por crimes ou atos ilícitos e por contas falsas. Nos casos de crimes contra a honra (injúria, calúnia e difamação), permanece a sistemática atual, de obrigação de remoção apenas por ordem judicial.

Esses critérios foram consolidados em uma "tese de repercussão geral". A tese funciona como uma orientação para ser aplicada nacionalmente pelo Poder Judiciário no julgamento de processos sobre o mesmo tema.

As divergências foram dos ministros André Mendonça e Edson Fachin e Kassio Nunes Marques. Mendonça votou para manter a sistemática atual de responsabilização das plataformas - apenas no caso do descumprimento de decisões judiciais - e para dificultar a remoção de perfis. Os três ministros defenderam que o tema deveria ser regulamentado pelo Congresso e não pelo Judiciário.

O julgamento se debruçou sobre o artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.

Dias Toffoli

O ministro Dias Toffoli, primeiro a votar, defendeu uma "responsabilização eficiente da internet". Toffoli reconheceu que o Marco Civil da Internet representou um avanço na conquista democrática, no entanto, destacou que, decorridos mais de dez anos da aprovação da lei, é necessário uma atualização da legislação. Para o ministro, o artigo 19 do Marco Civil da Internet é inconstitucional por ser incapaz de oferecer proteção aos direitos fundamentais no ambiente digital.

"Parece-me evidente que o regime de responsabilidade dos provedores de aplicação por conteúdo de terceiros, previsto no art. 19 do MCI, é inconstitucional, seja porque, desde a sua edição, foi incapaz de oferecer proteção efetiva aos direitos fundamentais e resguardar os princípios e valores constitucionais fundamentais nos ambientes virtuais, conforme adiante se demonstrará, seja porque, como já demonstrado, não apto a fazer frente aos riscos sistêmicos que surgiram nesses ambientes, a partir do desenvolvimento de novos modelos de negócios e de seu impacto nas relações econômicas, sociais e culturais", disse.

Segundo o ministro, há ainda omissão do Congresso Nacional e uma anacronismo legislativo diante da deficiente proteção de direitos fundamentais no meio ambiente digital.

O ministro enumerou os motivos para uma atualização do Marco Civil: "riscos sistêmicos ao próprio direito à liberdade de expressão; aos direitos fundamentais da igualdade e da preservação da dignidade da pessoa humana; ao princípio democrático e ao Estado de Direito; e à segurança e ordem pública, criados ou potencializados a partir da popularização de algumas dessas tecnologias internet-dependentes e, sobretudo, da automação e da algoritmização dos ambientes digitais".

"É hora de superar a ideia equivocada de que a internet é uma terra sem lei. As relações que se desenvolvem virtualmente são sim, todas elas, passíveis de responsabilização, e o ordenamento jurídico nacional é inteiramente aplicável às condutas praticadas nas plataformas digitais", afirmou Toffoli.

Em outro trecho do voto, o ministro disse que há de se considerar que as plataformas de redes sociais "são vulneráveis à criação e à manutenção de perfis falsos e a atuação de bots" e que a falta de regulação das plataformas fomenta "a disseminação de teorias da conspiração, dá causa ao sectarismo, à polarização e ao extremismo e à difusão de discursos de ódio".

"Propicia o surgimento de um novo tipo de violência que já não podemos ignorar, a violência digital, caracterizada pelo emprego da tecnologia disponível para ameaçar, humilhar, assediar, manipular ou expor alguém, sem consentimento, no ambiente virtual, causando danos emocionais, psicológicos, sociais e até físicos às vítimas, além de estarem se revelando instrumentos eficientes para ousadas cruzadas populistas e autoritárias", disse.

Toffoli citou como exemplo a invasão do Capitólio, nos Estados Unidos, e os ataques de 8 de Janeiro, em Brasília.

"Segundo revelaram as investigações correlatas até o momento, todos esses eventos ou foram previamente anunciados nas redes sociais e/ou em grupos públicos ou canais abertos dos serviços de mensageria, sem que nada fosse feito para impedi-los, ou foram insuflados e fomentados nesses ambientes virtuais", destacou.

Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.

O ministro também definiu um rol de "práticas especialmente graves" que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.

Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.

Luiz Fux

O ministro Luiz Fux defendeu que o artigo 19 do Marco Civil não exclui a possibilidade de responsabilização civil de provedores de internet por conteúdos gerados por terceiros nos casos "em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja porquanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo".

Segundo o ministro, é dever das empresas o monitoramento ativo do conteúdo gerado por terceiro que "veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao golpe de Estado".

"Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros", alertou o ministro.

O ministro defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.

Luís Roberto Barroso

O presidente do STF defendeu que o artigo 19 do Marco Civil "é só parcialmente inconstitucional". Segundo Barroso, a exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.

Para Luís Roberto Barroso, nos casos de crime, "exceto de crimes contra a honra", notificação extrajudicial deve ser suficiente para a remoção de conteúdo. Já nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção.

"As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, como pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou a automutilação, tráfico de pessoas, atos de terrorismo e abolição violenta do Estado Democrático de Direito e golpe de Estado."

Barroso disse que o tribunal não está invadindo competências do Congresso ao julgar o tema. O ministro defendeu que o STF tem o dever de definir critérios claros para serem aplicados em casos concretos que chegarem ao Judiciário e que essas balizas "só prevalecerão" até que o Congresso aprove legislação sobre o assunto.

O ministro argumentou que o Congresso deve definir as sanções possíveis para as plataformas e criar um órgão regulador independente e autônomo para a análise de conformidade, monitoramento e eventual aplicação das punições. Já as plataformas devem criar sistemas para a recepção de notificações dos usuários, com interface acessível e amigável, e publicar relatórios anuais, "claros e facilmente compreensíveis" sobre a atividade de moderação de conteúdo.

André Mendonça

O ministro Flávio Dino defendeu que o provedor de aplicações de internet poderá ser responsabilizado civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de postagens de perfis falsos e chatbots, em "ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares", crimes contra crianças e adolescentes, crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação, crime de terrorismo e em casos de apologia ou instigação de violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito.

"Para fins da responsabilidade civil, considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de segurança contra os conteúdos ilícitos anteriormente listados, configurando violação aos deveres específicos de prevenção e precaução, assim como do dever de cuidado necessário aos provedores citados", disse.

Em seu voto, o ministro defendeu que "a liberdade regulada é a única liberdade". "Liberdade sem responsabilidade é anarquia, conduz à barbárie", afirmou.

Dino argumentou ainda que, como qualquer atividade econômica, as plataformas precisam de regulamentação.

"É absolutamente razoável que nós fortaleçamos o dever de vigilância, de prevenção, de cuidado, de precaução. Um shopping não tem que manter seguranças? Um banco não tem que manter seguranças? Qualquer atividade tem bônus e ônus", defendeu.

O ministro destacou ainda que os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, um sistema de notificações, um devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamento.

Cristiano Zanin

O decano do STF defendeu que as plataformas digitais "não são meros condutores de informação, mas sim verdadeiros reguladores do discurso on-line". Gilmar Mendes disse que o artigo 19 do Marco Civil se aproximou a uma lógica de responsabilidade mitigada das plataformas pelo conteúdo de terceiros e que esse" paradigma de neutralidade com relação ao conteúdo foi completamente superado nas últimas décadas".

"Em vez de figurarem como agentes meramente neutros, ou como tubos de comunicação, fato é que empresas como Facebook, Google e Amazon interferem ativamente na circulação de conteúdo de terceiros. Elas fazem isso por meio de filtros, bloqueios ou impulsionamento em massa de conteúdos produzidos pelos seus usuários - tudo a partir de algoritmos que permitem às plataformas manipular e controlar a forma de propagação dos conteúdos privados de forma pouco transparente", argumentou.

Gilmar Mendes destacou que as plataformas "constituem sofisticados modelos de negócios voltados especificamente para a captura e monetização da atenção humana" e que "existem evidências que esse modelo de negócio é estruturalmente inclinado à veiculação de conteúdos que promovem desagregação política".

"Existem evidências que esse modelo de negócio é estruturalmente inclinado à veiculação de conteúdos que promovem desagregação política. Os algoritmos das redes sociais, em seu processo de otimização para maximização do engajamento, internalizaram uma lógica perversa: conteúdos divisivos e polarizadores são sistematicamente os que mais geram interação entre os usuários. Essa descoberta não é fortuita, mas decorre de uma característica fundamental da psicologia humana que privilegia respostas emocionais intensas a estímulos controvertidos, como a indignação", disse.

O ministro afirmou que falta transparência nos algoritmos das redes sociais e que essas plataformas "já funcionam como verdadeiros curadores do discurso público" e sugeriu quatro regimes distintos para a responsabilidade das plataformas, que ele chamou de "residual", "geral", "de presunção" e "especial".

E ressaltou que a narrativa contrária à regulação das redes, amplamente disseminada por grupos conservadores e empresas de tecnologia, "ignora uma realidade incontornável: as plataformas digitais já exercem, cotidianamente e de forma extensiva, um papel de mediação e controle sobre a liberdade de expressão dos usuários".

O ministro também defendeu que as plataformas devem desenvolver mecanismos técnicos para estender decisões de remoção de conteúdo, sejam elas por ordem judicial ou notificação privada, casos repetitivos de "conteúdos ilícitos idênticos".

Alexandre de Moraes

O ministro Alexandre de Moraes defendeu que as big techs não podem ser "terra sem lei" nem operar com "imunidade territorial absoluta" por estarem na internet. Segundo o ministro, essas empresas não são imparciais, porque impulsionam publicações e anúncios, e devem ser fiscalizadas e punidas como qualquer outro segmento econômico.

Moraes votou para que as big techs sejam responsabilizadas por conteúdos de terceiros a partir do momento em que forem notificadas por usuários, e não apenas após decisão judicial.

"Enquanto não sobrevier uma regulamentação pelo Congresso Nacional, há necessidade de uma interpretação constitucional que afaste esse reiterado descumprimento dos princípios e preceitos constitucionais", disse o ministro.

Moraes argumentou ainda que o STF só está analisando o tema por causa da "falência da autorregulação" das redes sociais. De acordo com o magistrado, "ninguém jamais defendeu a liberdade absoluta de expressão que se idealizou nos novos regimes populistas, os extremistas digitais, querendo dizer que tudo pode, tudo vale, e que não precisam ser responsabilizados".

Moraes defendeu que as redes sociais sejam equiparadas legalmente aos demais meios de comunicação: "Não é possível que quem ganhe dinheiro em cima de determinadas notícias, vídeos, áudios e documentos ilícitos não queiram ser responsabilizados".

"Os provedores das redes sociais e dos serviços de mensageria privada devem ser legalmente equiparados ao demais meios de comunicação porque exercem atividade de desenvolvimento de informações mediante sons, imagens, textos e atuam no sentido de permitir a transmissão de ideias e informações a outros sujeitos, notadamente a disseminação de conteúdo a destinatários indeterminados. É a definição de meios de comunicação e é exatamente o que fazem as redes sociais", disse.

E acrescentou que os provedores devem ser solidariamente responsabilizados por conteúdos de terceiros que contenham discurso de ódio e antidemocráticos, além de contas que utilizem direcionamento de algoritmos, impulsionamento e publicitários.

"Os provedores das redes sociais e dos serviços de mensageria privada devem ser solidariamente responsáveis civil e administrativamente por conteúdo direcionado por algoritmos, impulsionados e publicitários, cuja distribuição tenha sido realizada mediante pagamento aos provedores das redes sociais. E também por contas inautênticas e redes de distribuição artificial, os famosos robôs. Também devem ser responsabilizados pela não indisponibilização imediata de conteúdos e contas com conteúdo de ódio e antidemocráticos", disse.

Outro ponto tratado no voto de Moraes foi a necessidade de que as redes sociais mantenham um representante legal no País. O ministro travou embates legais com o Rumble e o X (antigo Twitter), com decisões que suspenderam o funcionamento das redes no Brasil por falta de um representante em território brasileiro.

"Todas as redes sociais e serviços de mensageria privada que pretendam atuar em território nacional devem ter um representante em território nacional até para que se evite a impunidade. Todas. Absolutamente todas as decisões do STF em relação às rede sociais e serviços de mensageria privada são decisões que se aplicam no âmbito do território nacional. Todas as decisões dadas até o presente momento e para o futuro, por óbvio, respeitam a territorialidade da lei brasileira. Não é possível que uma empresa que manipule as redes sociais pretenda operar no Brasil de fora do Brasil e, a partir disso, alegue que não é responsável, não deve seguir as leis brasileiras porque não tem representante no País. Se não tem representante no País, não pode atuar no País. Se tem represente no País, vai responder segundo as leis brasileiras", disse.

Moraes destacou, por fim, o viés ideológico das empresas provedoras de internet e as plataformas de redes sociais.

"Ao perceberem que, além do poder econômico, poderiam adquirir o poder político, fizeram uma transferência. O consumidor foi substituído pelo eleitor. O produto a ser vendido não é mais uma casa, um alimento, mas o candidato", afirmou.

Edson Fachin

O ministro Edson Fachin divergiu nesta quarta-feira, 25, da maioria já formada no julgamento sobre a responsabilidade das plataformas, redes sociais e provedores de internet por publicações de usuários.

Fachin argumentou que a tecnologia está em "incessante mutação" e que o julgamento do STF sobre a moderação de conteúdo não será suficiente para resolver os problemas gerados pela concentração de poder nas mãos das plataformas.

"Corremos o risco de não conseguir ajustar o remédio pela falta de um completo diagnóstico", justificou.

O ministro defendeu que a regulamentação das redes sociais seja feita pelo Congresso, com a edição de uma legislação abrangente sobre o tema.

"Não creio que este tema necessariamente será solvido ou esgotado com a remoção ou não de conteúdos das plataformas. Creio que há uma necessidade de uma regulação estrutural e sistêmica, preferencialmente não via Poder Judiciário", afirmou.

Cármen Lúcia

A ministra Cármen Lúcia acompanhou a maioria para ampliar as responsabilidades das plataformas pelo conteúdo que permitem circular.

"Quando se tem anúncio, impulsionamento, monetização, não são neutras as plataformas. Elas não são apenas prateleiras nas quais se deposita algo que elas não têm conhecimento do que seja", defendeu a ministra.

Nunes Marques

O ministro Nunes Marques votou para reconhecer a validade do artigo 19 e defendeu um modelo de consenso entre a liberdade de expressão e a proteção à honra, intimidade e imagem no ambiente virtual.

Para Nunes Marques, as plataformas devem ser responsabilizadas subsidiariamente por conteúdos ilícitos publicados por terceiros. Para o ministro, a responsabilização deve ser limitada a situações em que haja descumprimento de ordem judicial.

"A responsabilidade civil, também no ambiente da internet, é principalmente daquele agente que causou o dano, não daquele que permitiu que tal conteúdo fosse veiculado."

Estadão
Compartilhar
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade