*LUCAS MACHADO
Nos últimos cinco anos, poucos temas mobilizaram tanto a opinião pública e os bastidores do poder quanto a regulação das redes sociais no Brasil. De um lado, os que defendem maior controle sobre o conteúdo online, especialmente via mudanças na responsabilidade civil das plataformas. De outro, os que veem nesse movimento uma ameaça direta à liberdade de expressão, à neutralidade da rede e ao próprio funcionamento democrático da internet.
Permeado de muita retórica mas pouco conteúdo, o debate tem se intensificado à medida que os poderes da república — Supremo Tribunal Federal, Congresso Nacional e Governo Federal — disputam protagonismo na construção do que será, afinal, a moldura jurídica da comunicação digital no país.
Mas o que é a regulação das redes sociais e o que isso significa para o país? Ou melhor, por que isso importa para mim, e para você?
Importa porque é nesse debate que se joga o futuro da liberdade de expressão no Brasil. A discussão sobre regulação, vendida como proteção contra fake news e discurso de ódio, esconde um movimento mais perigoso: o de controle político da informação. Não se trata apenas de limitar abusos. Trata-se de definir quem pode falar, o que pode ser dito e, sobretudo, quem decide o que é aceitável no espaço público digital.
Em nome da “segurança”, propõe-se a criação de uma vigilância digital capaz de silenciar opiniões dissonantes e punir seletivamente a crítica. Sob a retórica da “moderação de conteúdo”, esconde-se o velho impulso autoritário de gerir a “verdade” por de baixo dos panos.
Neste artigo, examinaremos os contornos jurídicos dessa ofensiva regulatória, analisando os principais projetos de lei em tramitação, os votos no julgamento do artigo 19 do Marco Civil da Internet, as alternativas que o Governo Federal tem buscado e as implicações que essas propostas trazem para os direitos fundamentais, a democracia e o livre debate de ideias no Brasil.
A construção da responsabilidade das redes
A responsabilidade civil divide-se em dois grandes grupos: a responsabilidade subjetiva e a objetiva. Resumidamente, a diferença entre uma e outra é que na responsabilidade subjetiva há a necessidade de aferir a culpa do agente causador do dano para poder imputar a esse agente um dever reparatório, enquanto na objetiva, não. Basta que o dano tenha ocorrido e que exista um nexo entre a conduta e o prejuízo. A regra geral do direito civil é a subjetiva — vale para acidentes, danos morais etc. Já a objetiva é a exceção prevista no CDC, aplicada em casos de risco ou defeito de serviço.
No caso das redes sociais, essa distinção gera tensão. De um lado, são prestadoras de serviço e, como tais, estão sujeitas à responsabilidade objetiva quando falham tecnicamente: vazamento de dados, queda de sistema, invasões de conta etc. De outro, quando o problema vem de conteúdo postado por terceiros, entra-se em outro debate.
Até 2014, essa área era nebulosa: as plataformas deveriam responder objetivamente pelos danos causados por seus usuários? A resposta que se consolidou foi lastreada em duas teses.
Primeiro, firmou-se o entendimento de que não cabe às plataformas fazer censura prévia. No julgamento do REsp 1.403.749/GO, o STJ deixou claro: não é defeituoso o serviço que não fiscaliza postagens de usuários. Exigir isso seria transformar as redes em censores privados, o que é juridicamente e democraticamente inaceitável.
Segundo, passou-se a adotar a responsabilidade subjetiva por omissão: o provedor só responderia se, quando notificado extrajudicialmente sobre conteúdo ilícito, não agisse para removê-lo. No REsp 1.406.448/RJ, fixou-se o prazo de 24 horas para remoção, sob pena de responsabilidade solidária com o autor da postagem.
Foi esse o ponto de partida jurídico antes da chegada do Marco Civil da Internet.
A introdução do Marco Civil da Internet
A jurisprudência do STJ, embora relevante, tinha limites óbvios: era casuística, oscilante e incapaz de oferecer previsibilidade jurídica. Era necessária uma resposta normativa clara, que se efetivou com a promulgação do Marco Civil da Internet, em 2014.
Fruto de um amplo processo de consulta pública, o Marco Civil foi pensado como um marco regulatório para a internet no Brasil. Um verdadeiro código de princípios voltado à preservação da liberdade, da privacidade e da neutralidade na rede. A proposta era simples: definir diretrizes jurídicas para garantir uma internet aberta, plural e descentralizada, protegendo os direitos dos usuários e oferecendo segurança jurídica aos agentes privados.
Foi nesse contexto que o legislador enfrentou a questão da responsabilidade civil dos provedores por conteúdo de terceiros, optando pela limitação desta responsabilidade. O motivo foi claro: assegurar a liberdade de expressão e impedir a censura. Vejamos a redação do art. 19 do Marco Civil da Internet:
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
A lógica por trás deste artigo é simples: sendo o conteúdo produzido por terceiros, não há, por parte do provedor, controle editorial prévio sobre tudo o que circula. Se alguém se sentir lesado, é o Judiciário, e não a empresa privada, quem deve avaliar o caso. Até que essa decisão exista, o conteúdo permanece acessível, como medida mínima de proteção à liberdade de expressão.
Essa opção legislativa não surgiu do nada. Ela está ancorada nos princípios fundantes do próprio Marco Civil, cuja proposta, desde o início, foi oferecer um marco regulatório garantista, assentado em três pilares centrais: neutralidade da rede, proteção da privacidade e liberdade de expressão.
O Marco Civil parte da premissa de que a internet deve ser um espaço aberto, descentralizado e plural. A neutralidade assegura que todos os dados circulem de forma isonômica, sem discriminação ou privilégio. A proteção da privacidade garante que os usuários mantenham o controle sobre seus dados pessoais. E a liberdade de expressão, eixo da discussão sobre a regulação, exige que a remoção de conteúdos só ocorra sob critérios objetivos e com o devido processo legal.
É nesse contexto que o artigo 19 se insere: como instrumento de proteção contra a censura travestida de moderação. O legislador, consciente do riscos econômicos e dos incentivos negativos impostos por uma responsabilização objetiva, fixou uma trava: sem ordem judicial, não há dever de remoção, nem responsabilização.
Lógica Econômica
A limitação legal à responsabilidade, nesses casos, tem uma lógica econômica que privilegia justamente um ambiente digital voltado à proteção da liberdade de expressão. Trata-se de uma escolha racional do legislador: evitar que o medo da responsabilização transforme plataformas em filtros automáticos de opinião.
Caso o Estado imponha às redes a responsabilidade objetiva (diferente da que temos hoje) por conteúdo de terceiros, criar-se-ia um risco: as plataformas passariam a agir preventivamente para se proteger de prejuízos financeiros. E como elas fazem isso? Removendo conteúdos, inclusive os lícitos, para não correrem o risco de serem punidas judicialmente.
O resultado é a autocensura. Diante da dúvida, a plataforma remove. Afinal, é melhor excluir um conteúdo legítimo do que pagar uma indenização por ter caído em um falso negativo. É o chamado “efeito silenciador”, que molda algoritmos, decisões automatizadas e políticas internas.
Ao estabelecer a exigência de ordem judicial para a remoção, o artigo 19 do Marco Civil transfere o risco da decisão para o Judiciário. É o juiz, e não a empresa privada, quem deve decidir o que fere a legalidade e o que merece permanecer. Não se trata de blindar as plataformas, mas de blindar a liberdade de expressão contra os filtros econômicos do compliance privado.
Mais do que isso: trata-se de reconhecer que as plataformas não têm, nem precisariam ter, estrutura para decidir, com segurança jurídica, o que é ou não lícito em cada caso concreto. Estamos falando de bilhões de publicações diárias, com contextos culturais, políticos e linguísticos distintos. Nenhum sistema é capaz de fazer esse julgamento com precisão. O que eles fazem é calibrar seus filtros para o “lado mais seguro” da balança econômica.
Inconstitucionalidade do art. 19?
Mas, se há uma lógica econômica e uma construção principiológica por trás do afastamento da responsabilidade das redes, qual é a polêmica?
A resposta está em duas ações que hoje tramitam no Supremo Tribunal Federal: os Temas 987 e 533 de repercussão geral. Ambos colocam sob escrutínio a constitucionalidade do artigo 19 do Marco Civil da Internet.
No Tema 987, discute-se frontalmente a validade do artigo 19. A pergunta é direta: é constitucional exigir ordem judicial como condição para responsabilizar civilmente os provedores por atos ilícitos praticados por terceiros? Para os críticos do dispositivo, essa exigência seria um obstáculo indevido à proteção de direitos fundamentais, como a honra, a imagem e a privacidade. Segundo essa tese, o Judiciário não deveria ser o único filtro. As plataformas teriam o dever de agir, por conta própria, diante de conteúdos manifestamente ilícitos.
O Tema 533 vai ainda além. Ele propõe que, mesmo sem qualquer lei que imponha esse dever, as plataformas devem ser obrigadas a remover conteúdos ofensivos sem necessidade de intervenção judicial. É a tese do “dever implícito de moderação”. Sustenta-se que os princípios constitucionais (como dignidade da pessoa humana, direito à honra e à intimidade) seriam autoaplicáveis, e que os provedores têm a obrigação de interpretá-los e agir preventivamente para proteger os usuários.
Ambas as teses, embora revestidas de boas intenções, partem de uma premissa perigosa: a de que cabe às empresas privadas decidir, com base em critérios subjetivos e sob risco financeiro, o que pode ou não circular no espaço público digital. Em nome da proteção de certos direitos, esvazia-se a liberdade de expressão e transforma-se o setor privado em um poder de polícia informal — com todos os vícios e arbitrariedades que isso acarreta.
Pano de fundo no julgamento do Supremo
O julgamento do art. 19 do Marco Civil está inserido em um contexto que não se pode ignorar: o avanço na divulgação de notícias falsa, manipulação eleitoral e movimentos antidemocráticos. Mais do que o julgamento de constitucionalidade, pretende-se legislar sobre a responsabilidade civil das redes pela via judiciária, furtando o papel do congresso e atendendo a clamores populistas, ao invés da atenção à legalidade estrita.
Dentro desse cenário, até o momento, os ministros Dias Toffoli e Luiz Fux alinharam-se para declarar o art. 19 inconstitucional, adotando uma interpretação que amplia significativamente a responsabilização das plataformas, mesmo sem decisão judicial. Toffoli até mesmo propôs um rol taxativo de conteúdos cuja permanência, por si só, geraria responsabilidade objetiva, independentemente de notificação ou intervenção judicial, o que representa uma inversão da lógica do artigo 19. Fux seguiu linha semelhante, sustentando que, uma vez notificadas, as plataformas devem remover conteúdos “claramente ilegais”, como apologia ao golpe de Estado ou discurso de ódio, sob pena de responderem civilmente, mesmo sem decisão judicial formal.
Já Luís Roberto Barroso adotou uma posição intermediária. Reconheceu que, para certos conteúdos, como crimes contra a honra, a remoção deve, sim, depender de ordem judicial, conforme previsto no artigo 19. No entanto, propôs exceções para conteúdos considerados nocivos de forma sistêmica, além de sugerir que plataformas passem a ser responsabilizadas por falhas em seu dever de cuidado e prevenção de riscos, com base em um modelo de autorregulação supervisionada, inspirado no Digital Services Act europeu.
O que os ministros parecem ter esquecido, ou deliberadamente ignoram é que, para o julgamento do caso concreto, não há necessidade alguma de se adentrar nesta ceara. E, ainda que houvesse, o julgamento de constitucionalidade da norma não exige que os ministros reescrevam a norma como acreditam que deveria ser. Este é um papel do Legislativo, através do Congresso Nacional.
As posições adotadas pelos ministros, embora distintas em abrangência, convergem na prática para um mesmo efeito: reinterpretar o artigo 19 com o objetivo de expandir o regime de responsabilização das redes, criando hipóteses que não foram previstas pelo legislador nem encontram respaldo na literalidade do texto legal.
O artigo 19 não está sendo declarado inconstitucional por conflito com a Constituição, mas sim por não satisfazer determinadas expectativas políticas ou sociais do momento. Ora, essa é precisamente a fronteira entre a interpretação constitucional legítima e o ativismo judicial ilegítimo.
Discordância política não configura inconstitucionalidade. Se há insatisfação com os efeitos jurídicos do artigo 19, o caminho correto é a alteração legislativa pelo Congresso Nacional, e não a reescrita da lei por meio da Corte Constitucional.
Além disso, como salientado, o regime de responsabilidade atualmente vigente não é fruto de omissão, mas de deliberação consciente. O legislador fez uma escolha clara: proteger a liberdade de expressão ao evitar que plataformas privadas atuem como censores automatizados, motivados por medo de condenações judiciais.
É preocupante o tom das declarações de alguns ministros sobre o caso. Barroso lamentou a “demora” do Congresso em regular as redes sociais, insinuando que, diante da inércia legislativa, caberia ao Supremo ocupar esse espaço. Gilmar Mendes foi ainda mais direto: classificou a retomada do julgamento como um “esboço de regulação da mídia social”. A fala, despida de pudor institucional, escancara que o real intento do STF é legislar sob o manto do controle de constitucionalidade, substituindo o debate democrático por decisões de cúpula.
Evidente, portanto, que a investida contra o artigo 19 não se dá por sua fragilidade jurídica — que inexiste —, mas por sua inconveniência política. Trata-se de um dispositivo que impõe limites ao voluntarismo punitivo, exige mediação judicial e, portanto, incomoda aqueles que gostariam de respostas rápidas, automáticas e, sobretudo, alinhadas com suas convicções ideológicas.
Soa paradoxal que, ao pretender combater a desinformação e proteger a democracia, o Supremo Tribunal Federal adote justamente uma postura que subverte o processo democrático. Não cabe à Corte “esboçar” uma regulação, como afirmou Gilmar Mendes — cabe a ela aplicar o direito vigente, dentro dos limites constitucionais e legais traçados pelo parlamento eleito. Todo o resto é, em última análise, legislação sem urnas.
O Congresso Nacional e o PL das Fake News
Enquanto o Supremo tenta contornar a literalidade do art. 19 por meio de interpretações criativas, o Congresso Nacional ensaia seu próprio caminho. Desde 2020, tramita o Projeto de Lei nº 2630, popularmente chamado de “PL das Fake News”. A proposta ganhou tração sob o pretexto de combater a desinformação, mas logo revelou seu verdadeiro conteúdo: um modelo de regulação que amplia a responsabilidade das plataformas, cria obrigações vagas de monitoramento e, sobretudo, pressiona por uma moderação ativa de conteúdo, mesmo sem ordem judicial.
O texto sofreu diversas alterações ao longo dos anos, mas pontos centrais do problema permanecem. O chamado “dever de cuidado” — exigência de que plataformas tomem providências para mitigar “riscos sistêmicos” — continua sendo um dos pilares do projeto. E é justamente aí que mora o perigo: ao condicionar a responsabilidade civil à inação diante de conteúdos “nocivos”, o PL cria um incentivo econômico claro à remoção preventiva de postagens, mesmo quando lícitas. O risco de punição judicial faz com que o caminho mais seguro seja remover antes, refletir depois.
Sob o argumento da “transparência” e da “responsabilidade digital”, o projeto impõe obrigações incompatíveis com a natureza descentralizada da internet e ignora os riscos já conhecidos da autocensura algorítmica. Pior: delega às plataformas o papel de árbitros da verdade, ao mesmo tempo em que fragiliza o devido processo. Não há salvaguarda mínima para a liberdade de expressão diante da possibilidade de remoções motivadas por mera notificação privada ou exigências genéricas de compliance.
Essa lógica, como já se viu no debate sobre o art. 19 do Marco Civil, transfere às plataformas a função de julgadoras do conteúdo de terceiros, fragilizando a noção de que só o Judiciário pode limitar o exercício da liberdade de expressão com segurança jurídica e legitimidade democrática.
Há, sem dúvida alguma, uma necessidade de revisitar a legislação civil diante dos desafios da era digital. Mas não podemos nos esquecer de um princípio básico: a resposta à desinformação e ao abuso online deve respeitar os marcos legais e constitucionais já existentes, em vez de criar exceções generalizadas sob o pretexto da urgência. O PL das Fake News, como está formulado, confunde regulação com repressão, responsabilidade com vigilância, e transparência com controle.
Por fim, o discurso que tenta reduzir as críticas ao projeto a uma defesa “ultraliberal” da liberdade de expressão é desonesto. O que se denuncia não é a regulação em si, mas a forma como ela se dá: mal delimitada, mal fundamentada e estruturalmente incompatível com os valores democráticos que pretende proteger.
O Governo Federal e seus palpites
O Executivo, por sua vez, não tem ficado de fora do esforço regulatório. Pelo contrário: tem liderado, de forma direta ou indireta, uma série de iniciativas voltadas ao controle das redes. Desde o início do mandato, o presidente Lula e seus ministros vêm pressionando pela aprovação do PL das Fake News, apresentado como a solução definitiva contra a desinformação, mas que, na prática, abre caminho para um regime de vigilância e censura institucionalizada.
Durante votações, o próprio Planalto atuou para articular apoio parlamentar ao texto, e membros da base governista chegaram a acusar opositores de serem “aliados da mentira” por defenderem salvaguardas à liberdade de expressão. O ministro da Justiça, Flávio Dino, chegou a sugerir que as plataformas “são uma ameaça à democracia e estão lucrando com discursos de ódio”.
A pressão do governo alinha-se ao julgamento de constitucionalidade do art. 19. Na última semana, com a retomada do julgamento, o presidente Lula chegou até mesmo a convidar um representante chinês para discutir a regulação das redes e influenciar o resultado do julgamento.
Mas o apetite regulatório não se limita à retórica ou ao Congresso. Duas frentes escancararam o desejo do governo de assumir o controle direto da infraestrutura e do conteúdo digital no Brasil: a revogação da Norma 004/95 pela Anatel e o teste do chamado “lacre virtual”, um sistema de censura remota disfarçado de medida técnica contra pirataria.
Revogação da Norma 004/95: o início da estatização
A Norma 004/95 do extinto Ministério das Comunicações foi responsável por estabelecer a distinção entre serviços de telecomunicações e serviços de valor adicionado — como o acesso à internet. Essa separação é o que permitiu, por quase três décadas, que qualquer brasileiro pudesse criar um blog, registrar um domínio ou abrir um provedor de internet sem pedir autorização estatal.
A revogação da norma pela Anatel, em abril de 2025, rompe com esse modelo de liberdade digital. Ao tratar o acesso à internet como um serviço de telecomunicações, a agência assume para si a competência de regular tudo que transita online — domínios, redes sociais, serviços de nuvem, aplicativos, conteúdo. Trata-se de uma guinada autoritária: a internet passa a ser vista como uma extensão do espectro radioelétrico, sujeita a outorga, fiscalização e controle centralizado.
O “lacre virtual”: o botão secreto da censura
Paralelamente, a Anatel está testando um mecanismo denominado “lacre virtual”, que consiste na possibilidade de bloquear, diretamente nos roteadores das operadoras, qualquer endereço IP que a agência considere suspeito — tudo isso sem ordem judicial, sem contraditório, sem transparência e em absoluto sigilo.
A justificativa é o combate à pirataria via IPTV. Mas, na prática, cria-se um botão vermelho da censura. Um sistema onde uma autoridade administrativa pode, com um clique, tirar qualquer conteúdo do ar — seja ele um serviço ilegal ou um site de oposição política, um jornal independente ou um perfil crítico do governo. Não há auditoria, nem testemunhas, nem aviso prévio. Há apenas um bloqueio instantâneo e irreversível.
A gravidade disso dispensa exageros: é a consolidação de uma internet estatal, onde o acesso e o conteúdo podem ser definidos por critérios técnicos decididos em gabinetes fechados, longe da arena democrática e sem qualquer controle judicial efetivo.
Regulação das Redes Sociais: a arquitetura da Censura?
O debate sobre a regulação das redes sociais tem sido travestido de defesa institucional. Seus promotores dizem agir em nome da democracia, da proteção das instituições e da ordem pública, mas o que se desenha é, na verdade, um projeto de controle discursivo, travestido de normatização técnica.
A retórica é sedutora: combater fake news, impedir a radicalização, enfrentar discursos de ódio. Mas por trás da linguagem moralista e das bandeiras democráticas, o que se instala é uma arquitetura normativa voltada à vigilância e à censura. A tentativa de responsabilização ampla das plataformas, mudanças normativas da Anatel, a supressão do contraditório no “lacre virtual” e o enfraquecimento do artigo 19 do Marco Civil não são acasos: são peças de um mesmo tabuleiro, onde liberdade e controle caminham em sentidos opostos.
O caso dos ataques de 8 de janeiro foi o estopim perfeito para justificar a escalada regulatória. De fato, as redes sociais foram usadas para mobilizar e difundir desinformação. Mas a resposta institucional tem sido menos sobre corrigir falhas reais e mais sobre concentrar poder discursivo nas mãos de quem está no topo do sistema político. As investidas contra o X (antigo Twitter), acusado de não colaborar com decisões judiciais, mostram o desejo de subordinar a tecnologia à lógica do alinhamento ideológico.
Por trás da pretensa neutralidade regulatória, há uma tentativa de redesenhar os limites do discurso público em função de quem governa. A democracia que se invoca, portanto, não é um valor em si, mas um pretexto conveniente para calar vozes dissonantes, suprimir críticas e definir, unilateralmente, o que pode ou não ser dito.
Não se nega a necessidade de mecanismos institucionais para enfrentar abusos digitais. Mas o que se critica, duramente, é o modo como esses mecanismos vêm sendo concebidos: sem controle, sem transparência, e com imensos riscos de instrumentalização política.
A internet brasileira caminha para se tornar um espaço cada vez mais restrito, onde expressar uma opinião fora do script dominante pode ser suficiente para a repressão institucional das próprias redes, temendo responsabilização civil. Tudo isso sob o pretexto de proteger a democracia. Nada mais irônico.
Lucas Machado é advogado e escritor. Atua no contencioso cível e empresarial, com foco em direito contratual, estratégia processual e regulação econômica. É membro da Comissão da Jovem Advocacia e da Advocacia Empreendedora e Inovação da OAB Jabaquara/SP e associado no IFL Jovem – SP. Transita entre o universo das normas e o das narrativas, onde um bom argumento vale tanto quanto uma boa história bem contada.