
Embora as empresas de redes sociais sejam, em muitos aspectos, vilões que não fizeram o suficiente para proteger as crianças nas suas plataformas, não devem ser responsabilizadas com base em alegações de que estão a criar ambientes online viciantes e prejudiciais.
Na semana passada, começou um julgamento no Tribunal Superior de Los Angeles contra os gigantes da tecnologia YouTube e Instagram, movido por uma mulher identificada em documentos como Calle GM. (TikTok já havia acertado com ele). Os demandantes afirmam que essas plataformas foram criadas especificamente para o vício de crianças. O dela é um dos mais de 2.500 processos pendentes com base em diversas ações judiciais contra as maiores corporações do mundo.
O cerne destes processos é que as empresas de Internet e de redes sociais de propriedade da Meta e do Google deveriam ser responsabilizadas pela mesma teoria famosamente usada contra as grandes empresas do tabaco: a de que as marcas criaram conscientemente um vício. Mas a analogia falha por uma razão simples. As empresas da Internet e das redes sociais exercem um discurso protegido pela Primeira Emenda, enquanto a regulamentação dos cigarros e de outros produtos do tabaco não envolve nenhum direito constitucional.
Ações judiciais contra empresas de mídia social afirmam que elas projetam plataformas para manter as crianças envolvidas por longos períodos de tempo e fazê-las voltar por horas. Mas você pode dizer isso sobre todos os tipos de mídia. Os livros, inclusive os infantis, costumam ser escritos com suspense no final de cada capítulo para manter as pessoas lendo. As séries de televisão fazem o mesmo, incentivando as pessoas a continuarem assistindo ou até mesmo a “comerem” enquanto durarem. Os videogames são obviamente projetados para as pessoas, inclusive crianças, brincarem à tarde.
Algoritmos são discurso
Responsabilizar uma empresa de comunicação social pelo conteúdo do seu discurso levanta sérias questões relativas à Primeira Emenda. Os demandantes neste caso alegam que os algoritmos são projetados e adaptados para usuários individuais, a fim de mantê-los cativos. Mas os algoritmos são eles próprios uma forma de discurso, e não há razão para tratar este discurso de forma diferente do código que faz funcionar os guiões de televisão, os romances ou os videojogos. Como escreveu a juíza da Suprema Corte, Elena Kagan, em um parecer de 2024: “A Primeira Emenda… não sai de férias quando a mídia social está envolvida”.
A decisão da Suprema Corte no caso Brown v. Entertainment Merchants Association (2012) é importante aqui. O caso envolvia a constitucionalidade de uma lei da Califórnia que criminalizava a venda ou aluguer de videojogos violentos a menores de 18 anos sem consentimento dos pais. A Suprema Corte, em parecer do juiz Antonin Scalia, declarou a lei da Califórnia inconstitucional. No início, o Tribunal rejeitou expressamente o argumento de que faltavam proteções constitucionais porque a lei foi concebida para proteger as crianças.
Em vez disso, o Tribunal declarou que “os menores têm direito a uma medida substancial de proteção da Primeira Emenda, e apenas em circunstâncias relativamente restritas e bem definidas o governo pode impedir a divulgação pública de material protegido a eles”.
A Califórnia argumentou que jogar videogames violentos interativos tem um efeito prejudicial nas crianças, predispondo-as a atos violentos. No entanto, o Tribunal rejeitou este argumento e enfatizou o pesado ónus da prova da causalidade que deve ser cumprido na regulamentação do discurso.
Scalia, escrevendo para a maioria, concluiu que “a Califórnia não pode cumprir (o escrutínio estrito) desde o início, reconhecendo que não pode mostrar uma ligação causal direta entre videogames violentos e danos a menores. fazer.”
O tribunal concluiu que o governo não poderia provar a causa provável para responsabilizar as empresas de videogames por seu conteúdo. O mesmo, claro, se aplica às empresas de Internet e de mídia social, cada uma das quais é uma plataforma única de comunicação.
Mas, como o Supremo Tribunal reconheceu no caso Packingham v. Carolina do Norte (2017), as plataformas de redes sociais são “fontes primárias para descobrir eventos atuais, verificar anúncios de emprego, falar e ouvir na praça pública moderna e, de outra forma, explorar vastas áreas do pensamento e do conhecimento humanos”. O Tribunal concluiu vigorosamente que “deve-se ter extrema cautela antes de sugerir que a Primeira Emenda fornece pouca proteção para o acesso a vastas redes desse meio”.
Tecnologia não é tabaco
Existem outras barreiras legais à responsabilização das empresas da Internet e das redes sociais pela criação de ambientes online viciantes e prejudiciais para as crianças. A Secção 230 da Lei de Decência nas Comunicações prevê que estas plataformas não podem ser responsabilizadas pelo conteúdo publicado nos seus sites, pelo que devem incluir ou pelo que devem ser excluídos. As ações judiciais pendentes contra empresas de Internet e de redes sociais podem não superar esta imunidade.
Não há como negar como algumas crianças são prejudicadas ao passarem tempo nas redes sociais. Estudos mostram que o uso da plataforma está ligado à depressão, baixa autoestima e bullying. Há também pesquisas que mostram que jogar videogames violentos pode estar ligado a comportamentos antissociais. A solução não é restringir o discurso ou responsabilizar os responsáveis por ele. Em última análise, os pais precisam de fazer escolhas mais cuidadosas sobre quando e como permitem que os seus filhos interajam com as redes sociais. Entretanto, estes gigantes da tecnologia devem ter mais cuidado com os ingredientes destinados às crianças.
Em última análise, cabe ao Supremo Tribunal, e não ao júri do Tribunal Superior de Los Angeles, decidir se as empresas de redes sociais podem ser responsabilizadas nesta base. A resposta é clara: as redes sociais são discurso, não tabaco, e isso faz toda a diferença.
Erwin Chemerinsky é reitor da Faculdade de Direito da UC Berkeley. © 2026 Los Angeles Times. Distribuído pela Agência de Conteúdo Tribune.


