Um veredicto proferido em um tribunal de Los Angeles no último dia 25 de março de 2026 pode se tornar um dos desafios jurídicos de maior repercussão que as gigantes da tecnologia já enfrentaram.
Este é um ponto de inflexão no debate global sobre a responsabilidade das gigantes da tecnologia: pela primeira vez, um júri americano foi chamado a decidir se o próprio design das plataformas sociais pode dar origem à responsabilidade pelo produto — não por causa do que os usuários publicam nelas, mas por causa de como foram construídas. O júri concluiu que a Meta e o Google sabiam que o design ou a operação do Instagram e do YouTube era ou provavelmente seria perigoso quando usado por menores de idade, e que as plataformas não alertaram adequadamente o público sobre esse perigo.
Como especialista em política e direito da tecnologia, acredito que a decisão provavelmente gerará um poderoso efeito dominó nos Estados Unidos e em jurisdições em todo o mundo.
O júri concedeu ao autor da ação US$ 3 milhões em indenização por danos, e recomendou ao tribunal mais US$ 3 milhões em indenização punitiva (multas). O júri dividiu a responsabilidade pela indenização entre as empresas: 70% para a Meta e 30% para o Google. Um porta-voz da Meta declarou que a empresa discorda do veredicto e está avaliando suas opções legais.
Separadamente, um júri no Novo México concluiu, em 24 de março, que a Meta prejudicou conscientemente a saúde mental de crianças e ocultou o que sabia sobre a exploração sexual infantil em suas plataformas.
O caso
A demandante no caso de Los Angeles é uma mulher de 20 anos da Califórnia identificada apenas por suas iniciais, K.G.M. Ela disse que começou a usar o YouTube por volta dos 6 anos e criou uma conta no Instagram aos 9. Sua ação judicial e seu depoimento alegaram que os recursos de design das plataformas, que incluem curtidas, mecanismos de recomendação algorítmica, rolagem infinita, reprodução automática e recompensas deliberadamente imprevisíveis, a deixaram viciada. A ação alega que seu vício alimentou depressão, ansiedade, dismorfia corporal - quando alguém se vê como feio ou desfigurado quando não é - e pensamentos suicidas.
O TikTok e o Snapchat chegaram a um acordo com K.G.M. antes do julgamento por valores não divulgados, deixando a Meta e o Google como os réus restantes. O CEO da Meta, Mark Zuckerberg, testemunhou perante o júri em 18 de fevereiro.
Mas o que está em jogo vai muito além de um único demandante. O caso da K.G.M. é um julgamento vinculante, o que significa que o tribunal o escolheu como um caso-teste representativo para ajudar a determinar os veredictos em todos os casos relacionados. Esses casos envolvem aproximadamente 1.600 demandantes, incluindo mais de 350 famílias e mais de 250 distritos escolares. Suas reivindicações foram consolidadas no Processo de Coordenação do Conselho Judicial da Califórnia, nº 5255. Isso significa que as indenizações potenciais podem chegar a bilhões de dólares.
O processo na Califórnia compartilha equipes jurídicas e um conjunto de provas, incluindo documentos internos da Meta, com um litígio multidistrital federal que está programado para avançar no tribunal ainda este ano, reunindo milhares de ações judiciais federais.
Inovação jurídica: o design como defeito
Durante décadas, a Seção 230 da Lei de Decência nas Comunicações dos EUA protegeu as empresas de tecnologia da responsabilidade pelo conteúdo postado por seus usuários. Sempre que as pessoas entravam com ações judiciais por danos relacionados às redes sociais, as empresas invocavam a Seção 230, e os processos geralmente eram arquivados logo no início.
O processo judicial de K.G.M. utilizou uma estratégia jurídica diferente: responsabilidade civil pelo produto com base em negligência. A autora argumentou que o dano não decorre de conteúdo de terceiros, mas das próprias decisões de engenharia e design das plataformas, da "arquitetura informacional" e dos recursos que moldam a experiência dos usuários em relação ao conteúdo. A rolagem infinita, a reprodução automática, as notificações calibradas para aumentar a ansiedade e os sistemas de recompensa variável operam com base nos mesmos princípios comportamentais das máquinas caça-níqueis.
Essas são escolhas conscientes de design de produto. A autora alegou — e o júri concordou — que as plataformas deveriam estar sujeitas às mesmas obrigações de segurança que qualquer outro produto manufaturado, responsabilizando assim seus fabricantes por negligência, responsabilidade objetiva ou violação da garantia de adequação.
A juíza Carolyn Kuhl, do Tribunal Superior da Califórnia, concordou que essas alegações justificavam um julgamento por júri. Em sua decisão de 5 de novembro de 2025 negando a moção da Meta para julgamento sumário, ela distinguiu entre elementos relacionados à publicação de conteúdo, que a Seção 230 poderia proteger, e características como o momento da notificação, ciclos de engajamento e a ausência de controles parentais significativos, que ela talvez não proteja.
Aqui, Kuhl estabeleceu que a distinção entre conduta e conteúdo — tratando as escolhas de design algorítmico como conduta própria da empresa, em vez de como publicação protegida de discurso de terceiros — era uma teoria jurídica viável para avaliação por um júri. Essa abordagem minuciosa, que avalia cada recurso de design individualmente e reconhece as crescentes complexidades do design de produtos tecnológicos, representa um roteiro potencial para tribunais em todo o país.
O que as empresas sabiam
A teoria da responsabilidade pelo produto depende, em parte, do que as empresas sabiam sobre os riscos de seus projetos. O vazamento, em 2021, de documentos internos da Meta, amplamente conhecido como os "Facebook Papers", revelou que os próprios pesquisadores da empresa haviam sinalizado preocupações sobre os efeitos do Instagram na imagem corporal e na saúde mental dos adolescentes.
As comunicações internas divulgadas no processo de K.G.M. incluíram trocas de mensagens entre funcionários da Meta comparando os efeitos da plataforma à promoção de drogas e jogos de azar. Se essa consciência interna constitui o tipo de conhecimento corporativo que sustenta a responsabilidade foi uma questão factual central decidida pelo júri.
As empresas de tabaco acabaram sendo responsabilizadas porque o que elas sabiam - e ocultaram - sobre o caráter viciante de seus produtos veio à tona.Ray Lustig/The Washington Post via Getty ImagesHá uma clara analogia com os processos judiciais contra a indústria do tabaco. Na década de 1990, os demandantes obtiveram sucesso contra as empresas de tabaco ao provar que elas haviam ocultado evidências sobre a natureza viciante e letal de seus produtos. No caso K.G.M., a autora da ação está apresentando o mesmo argumento central: onde há conhecimento corporativo, direcionamento deliberado e negação pública, a responsabilidade se segue.
O principal advogado de K.G.M., Mark Lanier, é o mesmo advogado que obteve veredictos multimilionários no processo judicial sobre o talco para bebês da Johnson & Johnson, sinalizando a magnitude da responsabilização que estão buscando.
A ciência: contestada, mas relevante
As evidências científicas sobre as redes sociais e a saúde mental dos jovens são reais, mas genuinamente complexas. O Manual Diagnóstico e Estatístico de Transtornos Mentais (DSM-5) não classifica o uso das redes sociais como um transtorno de dependência. Pesquisadores como Amy Orben descobriram que estudos em larga escala mostram pequenas associações médias entre o uso das redes sociais e a redução do bem-estar.
Mas a própria Orben alertou que essas médias podem mascarar danos graves sofridos por um subconjunto de jovens usuários vulneráveis, especialmente meninas de 12 a 15 anos. A questão jurídica sob a teoria da negligência não é se as redes sociais prejudicam a todos igualmente, mas se os projetistas das plataformas tinham a obrigação de levar em conta interações previsíveis entre seus recursos de design e as vulnerabilidades de mentes em desenvolvimento, especialmente quando evidências internas sugeriam que eles estavam cientes dos riscos.
Primeiro, um fabricante tem o dever de exercer cautela razoável ao projetar seu produto, e essa dever se estende a danos que sejam razoavelmente previsíveis. Segundo, o autor da ação judicial deve demonstrar que o tipo de dano sofrido foi uma consequência previsível da escolha de design. O fabricante não precisa ter previsto o dano exato ao autor específico, mas a categoria geral de dano deve estar dentro do escopo do que um projetista razoável anteciparia.
É por isso que os Facebook Papers e as pesquisas internas da Meta são tão significativos do ponto de vista jurídico no caso de K.G.M.: eles apontam diretamente para o fato de que os próprios pesquisadores da empresa identificaram as categorias específicas de danos — depressão, dismorfia corporal, padrões de uso compulsivo entre adolescentes do sexo feminino — que a demandante alega ter sofrido. Se os próprios dados da empresa sinalizaram esses riscos e a liderança continuou na mesma trajetória de design, isso reforçaria consideravelmente o elemento da previsibilidade.
Por que isso importa
Mesmo que a ciência ainda não tenha chegado a uma conclusão definitiva, o panorama jurídico e político está mudando rapidamente. Só em 2025, 20 estados dos EUA promulgaram novas leis que regulamentam o uso de redes sociais por crianças. E essa onda não se limita aos EUA; países como o Reino Unido, a Austrália, Dinamarca, França e Brasil também estão avançando com legislações específicas, incluindo medidas que proíbem o uso de redes sociais por menores de 16 anos.
O julgamento da ação de K.G.M. representa algo mais fundamental: a proposição de que decisões de design algorítmico são decisões de produto, acarretando obrigações reais de segurança e responsabilidade. Se este veredicto fizer com que essa estrutura se consolide, todas as plataformas digitais precisarão reconsiderar não apenas quais conteúdos aparecem, mas por que e como eles são veiculados.
Fui funcionária de organizações como a Electronic Frontier Foundation, a Public Knowledge e o Harvard Berkman Klein Center, que eram financiadas por diversas fundações e empresas. Consulte os sites dessas organizações para obter informações sobre conflitos de interesses. Fui integrante da equipe de políticas de conectividade do Facebook (2016-2018). Sou integrante do conselho consultivo de organizações sem fins lucrativos, incluindo o Internet Lab (Brasil) e a Derechos Digitales (Chile). Sou consultora sênior (sem remuneração) na Datasphere Initiative e no Portulans Institute. Mais detalhes em https://www.carolinarossini.net/bio