Escrito por Guilherme Padoan Ferri [*]
INTRODUÇÃO
No dia 26 de junho de 2025, o Superior Tribunal Federal (STF) definiu pela inconstitucionalidade parcial do art. 19 do Marco Civil da Internet (MCI – Lei 12.965/2014). O julgamento contemplou dois casos emblemáticos: o Recurso Extraordinário 1.057.258[1], no qual o Google recorria pela responsabilização de não ter excluído uma comunidade do Orkut, criada para ofender uma professora (“Caso Aliandra”); e o Recurso Extraordinário 1.037.396[2], recurso do Facebook contra a decisão do Tribunal de Justiça de São Paulo (TJSP) que determinou a exclusão de um perfil falso e o pagamento de indenização por danos morais.
O “Caso Aliandra” ganhou notoriedade depois que a professora Aliandra Cleide Vieira se deparou com a necessidade de buscar meios judiciais para a remoção de um conteúdo, mesmo após ter enviado uma série de pedidos ao provedor do Orkut (Google), os quais foram negados. O conteúdo em questão tratava de um grupo criado por alunos com o nome “Eu odeio Aliandra”. Apesar de ser um grupo privado, Aliandra argumentava que o nome, por si só, já constituía uma evidência de discurso de ódio sendo propagado. Dessa forma, a professora obteve uma decisão favorável na Justiça de Minas Gerais, determinando que o conteúdo fosse removido e que indenizações por danos morais fossem pagas à professora pela plataforma. Entretanto, o Google se ancorou no artigo 19 do Marco Civil da Internet (MCI) e impugnou a decisão por meio de um recurso destinado ao STF, o qual, junto com o recurso do Facebook, compõem o julgamento da constitucionalidade do dispositivo em questão.
Anteriormente, o artigo definia que provedores de aplicações de internet apenas poderiam ser responsabilizados pela ilegalidade de conteúdos advindos de terceiros mediante decisão judicial que expusesse a inconformidade da publicação com as normas do ordenamento jurídico brasileiro. Contudo, com a inconstitucionalidade parcial do dispositivo, as plataformas passam a ser civilmente responsáveis e puníveis a partir do momento em que tomam conhecimento da ilicitude do conteúdo postado, e não o removem, não devendo mais aguardar por ordem judicial para a retirada do material.
Vale ressaltar que, para crimes contra a honra, o entendimento da corte superior ainda exige ordem judicial, não sendo suficiente a notificação extrajudicial para a remoção. Além disso, foi ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo Tribunal Superior Eleitoral (TSE).
Por fim, um último parâmetro estabelecido foi a obrigatoriedade das plataformas de realizarem fiscalização ativa sob ilícitos de anúncios e impulsionamento pago, ou conteúdos propagados por máquinas de maneira sistêmica (robôs). Nessa seara, definiu-se que caso não haja proteção do ambiente virtual, materializada pela retirada diligente e em tempo satisfatório de conteúdos dessa natureza, as plataformas poderão ser responsabilizadas mesmo sem notificação prévia de qualquer origem.
Essa decisão surge em um país de extrema polarização, o que acarreta uma série de discussões que fogem ao escopo técnico jurídico, adentrando em noções ideológicas das quais o direito deve buscar afastamento, como afirma Hans Kelsen em seu livro “Teoria Pura do Direito” (1998, p.1):
“Quando a si própria se designa como “pura” teoria do Direito, isto significa que ela se propõe garantir um conhecimento apenas dirigido ao Direito e excluir deste conhecimento tudo quanto não pertença ao seu objeto, tudo quanto não se possa, rigorosamente, determinar como Direito. Quer isto dizer que ela pretende libertar a ciência jurídica de todos os elementos que lhe são estranhos. Esse é o seu princípio metodológico fundamental.”
Entretanto, parte dessa discussão está, sim, sob tutela do conhecimento jurídico, nesse sentido, o julgamento em questão é relevante pois se concretiza por meio da ponderação entre direitos fundamentais: o direito à liberdade de expressão e a responsabilidade civil.
Por um lado, a existência de fiscalização ativa das plataformas, com a possibilidade de remover conteúdos sem expressa ordem judicial, levanta a preocupação de um possível cerceamento da liberdade de expressão e da privacidade dos usuários, que poderiam ficar à mercê da arbitrariedade dos provedores. Tal postura iria contra os princípios democráticos, que encontraram terreno fértil na liberdade proporcionada pelo ambiente virtual.
Em contrapartida, a livre exposição de opiniões, sem a devida responsabilidade, leva ao cometimento de diversos crimes previstos no sistema jurídico brasileiro. Casos como o da professora Aliandra (RE 1057258) demonstram o caráter negativo da ampla liberdade nesses ambientes, onde a utilização do espaço para propagação de discursos de ódio macula o sentido original do ambiente virtual: a conexão saudável de pessoas, por meio de redes interconectadas que ultrapassam os limites dos espaços físicos. Portanto, diante da necessidade de harmonização entre esses dois princípios, o STF julgou o art. 19 do Marco Civil da Internet parcialmente inconstitucional[3].
Diante do exposto, este artigo pretende abordar o tema a partir da ótica de outros ordenamentos jurídicos, com o objetivo de realizar uma comparação entre a legislação brasileira e as demais. Os objetos de comparação são, principalmente, as legislações dos Estados Unidos da América (EUA) e da União Europeia, além de entendimentos complementares adotados pela Índia e pela China sobre o tema. A partir disso, busca-se compreender textos normativos diversos, traçando paralelos com a realidade brasileira, a fim de estabelecer uma visão ampla que permita a construção de um ideal razoável para o nosso próprio texto normativo. Ademais, o trabalho procura demonstrar os caminhos que o Poder Legislativo deve seguir para que a liberdade de expressão e a responsabilidade civil sejam igualmente tuteladas.
VISÃO INTERNACIONAL
Antes de adentrar nas especificidades regulatórias de cada Estado ou organização supranacional, é mister estabelecer que a ordem de apresentação contemplará o grau de rigidez regulatória, do mais brando ao mais rígido:
ESTADOS UNIDOS DA AMÉRICA (EUA)
Fundado em um espírito liberal, o federalismo norte-americano carrega características únicas consigo. Desde sua Constituição (1787), a primeira constituição moderna, ideais libertários floresceram de maneira peculiar e impressionante nessa sociedade. Essa afirmação se materializa quando, por exemplo, se analisa a Primeira Emenda Constitucional, que demarca o “free speech” como um direito fundamental e intrínseco ao ser humano.
Desde então, pode-se dizer que uma espécie de mística foi criada em torno da liberdade de expressão do estadunidense, legitimando qualquer tipo de discurso. Ou seja, na cultura norte-americana, ao se realizar a ponderação de direitos fundamentais, o direito à liberdade de expressão detém um peso muito maior do que o encontrado em outros ordenamentos jurídicos.
Diante e, em concordância com o exposto, o “Communications Decency Act (CDA)” é uma das normas menos punitivas às plataformas digitais, declarando que nenhum provedor de aplicação deve ser responsabilizado por eventuais conteúdos de natureza ilegal postados por terceiros e que a postura do “bom samaritano” – de retirada de materiais pelas empresas quando julgarem necessária – não deve ser punida, mesmo que a remoção venha a ser considerada equivocada no futuro, como disposto em sua “Section 230”[4]:
(c) Protection for “Good Samaritan” blocking and screening of offensive material
(1) Treatment of publisher or speaker: No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.
(2) Civil liability: No provider or user of an interactive computer service shall be held liable on account of—
(A) any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or
(B) any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1).
Tal entendimento é extremamente protetivo às big techs, de modo que sua responsabilização se torna quase inviável, tornando o ambiente virtual um espaço suscetível ao surgimento e à propagação de discursos de ódio.
Nessa esteira, ressalta-se que o CDA é uma lei de 1996, época em que ainda não havia a existência de algoritmos – ao menos não como os contemporâneos. Esses algoritmos, por vezes, maximizam os impactos que um comentário ofensivo pode causar, de modo a reunir, em torno de uma publicação, um grupo de usuários que já compactuam com o conteúdo em questão. Diante das mudanças temporais, diversos projetos de lei para alteração desse dispositivo foram propostos, como o do senador Lindsey Graham, de 2021[5], que buscava maior responsabilização às plataformas, visando reescrever completamente o dispositivo supracitado; entretanto, assim como esse, todos esbarraram na icônica liberdade de expressão, tão valorizada e protegida pelos estadunidenses. A questão, agora, se situa na discussão de até que ponto essa liberdade pode ir.
EUROPA
Sob outra ótica, situa-se o ordenamento jurídico da União Europeia. O Digital Services Act (DSA)[6], renovado em 2022, visa estabelecer a internet como um domínio seguro e regulado, a fim de garantir tanto a liberdade quanto o respeito e o cuidado. Nota-se que o entendimento do Parlamento Europeu se concentra, sobretudo, na garantia de condições materiais fáceis e acessíveis aos usuários, de modo que possam notificar as plataformas acerca de conteúdos que considerem ilegais. Nesse sentido, os seus artigos 16(1) e 16(6) estabelecem, respectivamente:
-
-
-
-
- Providers of hosting services shall put mechanisms in place to allow any individual or entity to notify them of the presence on their service of specific items of information that the individual or entity considers to be illegal content. Those mechanisms shall be easy to access and user-friendly, and shall allow for the submission of notices exclusively by electronic means.
- Providers of hosting services shall process any notices that they receive under the mechanisms referred to in paragraph 1 and take their decisions in respect of the information to which the notices relate, in a timely, diligent, non-arbitrary and objective manner. Where they use automated means for that processing or decision-making, they shall include information on such use in the notification referred to in paragraph 5.
-
-
-
Após essa notificação, o provedor tem o dever de agir, podendo ser punido caso não atue de forma diligente, conforme dispõe o artigo 6:
-
-
-
-
- Where an information society service is provided that consists of the storage of information provided by a recipient of the service, the service provider shall not be liable for the information stored at the request of a recipient of the service, on condition that the provider: (a)does not have actual knowledge of illegal activity or illegal content and, as regards claims for damages, is not aware of facts or circumstances from which the illegal activity or illegal content is apparent; or (b) upon obtaining such knowledge or awareness, acts expeditiously to remove or to disable access to the illegal content.
-
-
-
Dessa forma, fica claro que as plataformas serão responsabilizadas a partir do momento em que tomarem conhecimento da ilegalidade do conteúdo. Essa responsabilidade, contudo, deve ser aferida após uma série de procedimentos previstos na legislação, os quais tanto o usuário quanto o provedor devem seguir, observando os critérios estabelecidos pelo texto normativo. Nesse sentido, dispõe o artigo 16(2):
-
-
-
-
- The mechanisms referred to in paragraph 1 shall be such as to facilitate the submission of sufficiently precise and adequately substantiated notices. To that end, the providers of hosting services shall take the necessary measures to enable and to facilitate the submission of notices containing all of the following elements:
-
-
-
(a) a sufficiently substantiated explanation of the reasons why the individual or entity alleges the information in question to be illegal content;
(b) a clear indication of the exact electronic location of that information, such as the exact URL or URLs, and, where necessary, additional information enabling the identification of the illegal content adapted to the type of content and to the specific type of hosting service;
(c) the name and email address of the individual or entity submitting the notice, except in the case of information considered to involve one of the offences referred to in Articles 3 to 7 of Directive 2011/93/EU;
(d) a statement confirming the bona fide belief of the individual or entity submitting the notice that the information and allegations contained therein are accurate and complete.
Portanto, demonstra-se evidente como a legislação europeia optou pela regulação de um sistema que, ao mesmo tempo, responsabilize as big techs, mas garanta um grau de transparência no processo, conferindo legitimidade às eventuais retiradas de conteúdos. Neste tocante, é a referida transparência que desponta como ponto-chave para a manutenção da liberdade de expressão, e é essa postura que o DSA procura enfatizar.
ÍNDIA E CHINA
Ao analisar esses dois Estados e sua relação com temáticas do direito digital, principalmente no que tange à liberdade de expressão e ao direito à privacidade, observa-se uma postura mais rígida, que busca um maior controle sobre o conteúdo veiculado na internet. Não obstante essa convergência fiscalizatória, Índia e China ainda possuem um conjunto de legislações que se aproximam do direito europeu; a principal diferença, contudo, situa-se sobretudo no direito à privacidade do usuário.
A Índia, exemplificando, busca estabelecer sistemas de denúncias nos moldes europeus, mas se diferencia ao exigir uma diligência e fiscalização muito maiores por parte das plataformas. No sistema indiano, cada plataforma deve indicar um oficial de reclamações, cuja “jurisdição” será delimitada por regiões. Esse oficial, por sua vez, deve atestar ciência das reclamações dentro do prazo de 24 horas e respondê-las, com sua decisão, em no máximo 15 dias. Tal postura já configura uma ideia de atenção e celeridade; entretanto, a fiscalização torna-se polêmica ao estabelecer que o oficial deve ser capaz de identificar a fonte primária de determinada publicação que viola o espaço metafísico do lícito. Nesse sentido, levantam-se dúvidas sobre até que ponto esse oficial pode controlar e monitorar as redes, pois, a partir do momento em que pode exercer essa fiscalização holística, podendo adentrar até comentários em perfis privados, não existiria um direito substancial à privacidade dentro das redes.[7]
Quanto à China, segundo Jufang Wang[8], os principais problemas residem em dois pontos: (I) a possibilidade de as plataformas retirarem qualquer publicação de cunho político que critique ou desafie o governo; (II) a necessidade de as plataformas fornecerem dados pessoais dos usuários ao governo sempre que solicitados. Nesta seara, o primeiro claramente explicita o regime político vigente na China, onde a liberdade de expressão é considerada um direito meramente formal, sem possibilidade prática de efetivação. O segundo, por sua vez, corrobora essa tese ao sujeitar usuários e provedores ao amplo domínio estatal.
Apesar disso, ressalvando conteúdos de ordem política, o entendimento chinês sobre a responsabilização das plataformas digitais quanto a conteúdos de terceiros é similar ao do direito europeu, sendo elas responsabilizadas a partir do momento do conhecimento da natureza ilegal do conteúdo.
BRASIL, O PRÓXIMO PASSO
Feita essa contextualização global, e diante da decisão proferida pelo Supremo Tribunal Federal (STF) no dia 26 de junho de 2025, cabe buscar os próximos passos que a legislação brasileira deve seguir, de modo que se atinja um ambiente virtual onde tanto a liberdade de expressão quanto o respeito possam coexistir. Nesse sentido, remete-se, novamente, à transparência mencionada na legislação europeia, pois, por meio dela, alcançaremos esse equilíbrio desejado.
Transparência, nesse contexto, significa a ampla divulgação de informações claras e acessíveis sobre os critérios e processos utilizados pelas plataformas no momento de moderar ou retirar conteúdos do domínio público. Isso engloba uma maior difusão das diretrizes adotadas pelas plataformas, tornando-as mais consultivas e conhecidas.
Para tanto, é fundamental que a legislação brasileira estabeleça critérios que gozem de alta taxatividade normativa, impondo parâmetros bem definidos para as atividades de moderação e remoção de conteúdos. Uma saída fácil seria o estudo da legislação europeia, muito mais avançada nessa temática, como podemos ver no capítulo III do Digital Services Act (DSA) sobre “Due Diligence Obligations for a Transparent and Safe Online Environment”.
Nesse sentido, enquanto a norma europeia possui um capítulo inteiro que dispõe sobre detalhes e passos para a concretização de um ambiente transparente; e, desse modo, que assegure a liberdade de expressão. A legislação brasileira é bem mais modesta, evidenciando um estágio de desenvolvimento consideravelmente inferior, visto que o único dispositivo que dispõe sobre o tema é o artigo 20 do Marco Civil da Internet (MCI), o qual declara:
Art. 20. Sempre que tiver informações de contato do usuário diretamente responsável pelo conteúdo a que se refere o art. 19, caberá ao provedor de aplicações de internet comunicar-lhe os motivos e informações relativos à indisponibilização de conteúdo, com informações que permitam o contraditório e a ampla defesa em juízo, salvo expressa previsão legal ou expressa determinação judicial fundamentada em contrário.
A partir dele, percebe-se o quão vago e ausente de taxatividade normativa é o espectro da transparência na legislação brasileira em comparação com a de outros países. Apesar de determinar a necessidade de comunicação, o texto “esqueceu” de prever mecanismos claros para tal, limitando-se a estabelecer que deve possibilitar o contraditório e a ampla defesa, mas sem regulamentar qualquer possibilidade de recurso ou enfatizar uma linha argumentativa necessária – por exemplo, ao não determinar que devesse existir uma argumentação que mencionasse os textos das diretrizes estabelecidas pelas empresas.
Consequentemente, o julgamento da inconstitucionalidade parcial do art. 19 do Marco Civil da Internet (MCI) é apenas um passo singelo rumo à regulamentação das redes, que, isoladamente e na ausência da transparência supracitada, pode acarretar desconfiança quanto ao papel das redes e das autoridades na moderação e remoção de conteúdos.
REFERÊNCIAS BIBLIOGRÁFICAS
BBC NEWS BRASIL. Marco civil da internet: como Estados Unidos e Europa tratam as “big techs”. BBC, 13 jun. 2025.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Disponível em https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 18 jul. 2025.
BRASIL. Supremo Tribunal Federal. RE n. 1.037.396/SP, Rel. Min. Dias Toffoli. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5160549. Acesso em: 16 de jul. 2025.
BRASIL. Supremo Tribunal Federal. RE n. 1.057.258/MG, Rel. Min. Luiz Fux. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5217273. Acesso em: 16 jul. 2025.
BRASIL. Supremo Tribunal Federal. RE 1.037.396 (Tema 987) e 1.057.258 (Tema 533). Responsabilidade de plataformas digitais por conteúdo de terceiros. STF. Rel. Min. Dias Toffoli (RE 1.037.396). Rel. Min. Luiz Fux (RE 1.057.258). j. 26 jun. 2025. Disponível em: https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/Informac807a771oa768SociedadeArt19MCI_vRev.pdf. Acesso em: 16 jul. 2025.
EUROPEAN UNION. European Parliament. Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act). European Union, 19 out. 2022. Disponível em: https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=CELEX%3A32022R2065. Acesso em: 18 jul. 2025.
GRINGS, M. G. Digital Services Act e as novas regras para moderação de conteúdo. Disponível em: https://www.conjur.com.br/2023-fev-22/direito-digital-digital-services-act-novas-regras-moderacao-conteudo/. Acesso em: 4 jul. 2025.
KELSEN, H. Teoria pura do Direito. São Paulo: Martins Fontes, 2009.
MARTINS, G. M.; LONGHI, J. V. R. Caiu um muro: a decisão do STF sobre o Marco Civil. Disponível em: https://www.conjur.com.br/2025-jul-02/caiu-um-muro-e-nao-foi-em-berlim-a-decisao-do-stf-sobre-o-marco-civil-da-internet/. Acesso em: 4 jul. 2025.
PASCOALOTO VENTURI, T. G. Novos rumos da responsabilidade civil das plataformas digitais? Disponível em: https://www.migalhas.com.br/coluna/direito-privado-no-common-law/383638/novos-rumos-da-responsabilidade-civil-das-plataformas-digitais. Acesso em: 3 jul. 2025.
STF define parâmetros para responsabilização de plataformas por conteúdos de terceiros. Disponível em: https://noticias.stf.jus.br/postsnoticias/stf-define-parametros-para-responsabilizacao-de-plataformas-por-conteudos-de-terceiros/. Acesso em: 4 jul. 2025.
Transparência e justiça na moderação de conteúdo. Disponível em: https://legalgroundsinstitute.com/blog/transparencia-e-justica-na-moderacao-de-conteudo/. Acesso em: 5 jul. 2025.
UNITED STATES. 47 U.S. Code §230 – Protection for private blocking and screening of offensive material. Disponível em: https://www.law.cornell.edu/uscode/text/47/230. Acesso em: 18 jul. 2025.
WANG, J. Platform Responsibility with Chinese Characteristics. Disponível em: https://digitalplanet.tufts.edu/wp-content/uploads/2023/02/DD-Report_1-Jufang-Wang-11.30.22.pdf. Acesso em: 4 jul. 2025.
[1] BRASIL. Supremo Tribunal Federal. RE n. 1.057.258/MG, Rel. Min. Luiz Fux. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5217273. Acesso em: 16 jul. 2025.
[2] BRASIL. Supremo Tribunal Federal. RE n. 1.037.396/SP, Rel. Min. Dias Toffoli. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5160549. Acesso em: 16 de jul. 2025.
[3] BRASIL. Supremo Tribunal Federal. RE 1.037.396 (Tema 987) e 1.057.258 (Tema 533). Responsabilidade de plataformas digitais por conteúdo de terceiros. STF. Rel. Min. Dias Toffoli (RE 1.037.396). Rel. Min. Luiz Fux (RE 1.057.258). j. 26 jun. 2025. Disponível em: https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/Informac807a771oa768SociedadeArt19MCI_vRev.pdf. Acesso em: 16 jul. 2025.
[4] UNITED STATES. 47 U.S. Code §230 – Protection for private blocking and screening of offensive material. Disponível em: https://www.law.cornell.edu/uscode/text/47/230. Acesso em: 18 jul. 2025.
[5] S.2972 – A bill to repeal section 230 of the Communications Act of 1934. Disponível em: <https://www.congress.gov/bill/117th-congress/senate-bill/2972/cosponsors>. Acesso em: 21 jul. 2025.
[6] EUROPEAN UNION. European Parliament. Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act). European Union, 19 out. 2022. Disponível em: https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=CELEX%3A32022R2065. Acesso em: 18 jul. 2025.
[7] DOS REIS SILVA, F. A. Regulação das Plataformas de Redes Sociais na Índia e na Austrália. Cobrança pela mineração de dados públicos no Brasil. Disponível em: https://emporiododireito.com.br/leitura/regulacao-das-plataformas-de-redes-sociais-na-india-e-na-australia-cobranca-pela-mineracao-de-dados-publicos-no-brasil. Acesso em: 4 jul. 2025.
[8] WANG, J. Platform Responsibility with Chinese Characteristics. Disponível em: https://digitalplanet.tufts.edu/wp-content/uploads/2023/02/DD-Report_1-Jufang-Wang-11.30.22.pdf. Acesso em: 4 jul. 2025.
[*] Graduando em direito pela Faculdade de Direito da Universidade de Brasília (FD/UnB). Integrante do CoDiTech/UnB e membro da AdvocattA/UnB. E-mail de contato: guiferri2005@gmail.com