Escrito por Catarina Pierdoná Wasilewski [*]
A internet, idealizada como um espaço público livre e democrático, encontra-se aprisionada em um processo acelerado de “cercamento digital”, transformando-se num território dominado por plataformas privadas que exercem um poder incomensurável sobre a informação e a comunicação. Esse processo, comparável à apropriação das terras comuns na era moderna – um paralelo elucidado pela filosofia de Rousseau (1757) e analisado criticamente por autores como Lisboa e Faustino (2021) no contexto virtual –, exige uma regulação urgente e eficaz que transcenda a mera moderação de conteúdo, estendendo-se à arquitetura, aos algoritmos e aos processos internos das plataformas. A regulação justa e equitativa do meio digital é imperativa para garantir a participação e a democracia no século XXI. A liberdade de expressão no ambiente virtual, longe de ser absoluta, deve ser ponderada com outros direitos fundamentais e com a necessidade premente de proteger a democracia em um contexto marcado por crescentes ameaças à ordem pública e à própria soberania nacional[1].
O modelo de negócio predominante nas grandes plataformas digitais se baseia na maximização do tempo de permanência dos usuários, o que, frequentemente, gera uma corrida pela atenção e pela viralização de conteúdos, muitas vezes em detrimento da verdade, da qualidade da informação e da própria saúde mental dos indivíduos. Essa lógica tem como consequência a proliferação de desinformação, discursos de ódio e ataques diretos à democracia, fenômenos que foram tragicamente exemplificados pelos eventos de 8 de janeiro no Brasil, mas que se repetem em diferentes contextos geopolíticos. Nesse sentido, a construção intencional da ignorância, através da disseminação de fake news e narrativas antiéticas, reforça um conservadorismo que encontra na ausência de regulação um espaço fértil para a manipulação[2]. Essa necessidade de uma regulação mais incisiva se torna ainda mais evidente quando analisamos a capacidade dessas plataformas de moldar opiniões públicas e influenciar processos eleitorais, como observado nas eleições presidenciais nos EUA e no Brasil em 2018[3].
A discussão sobre a regulação das redes sociais não pode, no entanto, se limitar ao conteúdo. É crucial analisar a própria arquitetura dessas plataformas, especialmente os algoritmos que governam a experiência do usuário. Esses algoritmos, em regra opacos, desempenham um papel fundamental na seleção, organização e apresentação do conteúdo, influenciando profundamente a percepção da realidade e a formação de opiniões. A arquitetura das redes sociais, portanto, não é neutra; ela é projetada para maximizar o engajamento do usuário, muitas vezes através de mecanismos que privilegiam conteúdos sensacionalistas, polarizadores e emocionalmente carregados, mesmo que isso signifique a proliferação de desinformação e discursos de ódio.
A investigação mais aprofundada sobre a interação entre jovens e plataformas de Zdradek & Beck (2020) fornece insights valiosos sobre como a arquitetura das redes influencia comportamentos, padrões de consumo de conteúdo e as consequências para a saúde mental e social dessa geração. De fato, a maneira como os algoritmos moldam a experiência online, o impacto da personalização de conteúdo e a sua influência na formação de identidades virtuais são aspectos relevantes na formulação de políticas de regulação. Os autores, ao analisar o uso de redes sociais por jovens, demonstram a urgência de uma regulação que leve em conta as nuances da experiência digital e suas potenciais consequências negativas, principalmente em relação à formação de opiniões, à saúde mental e ao desenvolvimento social de uma geração que cresceu imersa nesses ambientes digitais.
Diante disso, a regulação da internet não pode ser meramente reativa. É necessária uma abordagem preventiva, que antecipe e mitigue os riscos inerentes à arquitetura das plataformas. A transparência deve ser um princípio basilar: a origem do conteúdo (orgânico ou artificial), os algoritmos de recomendação, os critérios de impulsionamento, os modelos de negócios e os interesses das plataformas (econômicos e políticos) devem ser públicos, auditáveis e passíveis de investigação independente[4]. A privacidade por design deve ser um princípio fundamental: o usuário tem o direito inalienável de saber por que determinado conteúdo está aparecendo, quem o produziu, qual a trajetória de sua difusão e qual o interesse da plataforma em exibi-lo. Essa transparência permite ao usuário exercer seu direito à informação e tomar decisões mais conscientes sobre o consumo de conteúdo online. A ausência desta transparência cria um ambiente propício à manipulação e à desinformação.
Um dos desafios mais prementes é definir os limites entre a liberdade de expressão e a incitação à violência ou à ação ilícita. Há conteúdos de caráter inequivocamente ilícito, como aqueles que incitam à violência política, promovem a discriminação, divulgam informações falsas com potencial de danos à saúde pública ou à segurança nacional, que devem ser imediatamente removidos. Este ponto nos remete ao debate crucial sobre a responsabilidade das plataformas e a interpretação tradicional do artigo 19 do Marco Civil da Internet —cuja constitucionalidade logo será julgada pelo STF –, que isentaria as plataformas da responsabilidade por atos de terceiros. Tal situação mostra-se cada vez mais inadequada à luz da realidade atual, onde as plataformas não são meros intermediários passivos, mas atores ativos na gestão e disseminação de conteúdo[5]. Como argumenta Frazão (2023), a neutralidade da rede é uma falácia, e a responsabilidade pelas consequências dos conteúdos compartilhados em suas plataformas deve ser compartilhada com os produtores e, mais crucialmente, com as próprias plataformas que lucram com a disseminação de informações falsas ou danosas. A ampla isenção de responsabilidade, como aponta Brega (2023), não funciona diante da necessidade de uma abordagem preventiva e da constatação de que a ação reativa é, na maioria dos casos, insuficiente.
A Alemanha, com sua NetzDG (Rede Durchsetzungsgesetz), oferece exemplos de soluções que podem inspirar a regulação brasileira[6]. Embora o Marco Civil da Internet apresente insuficiências e deficiências de cunho jurídico[7], a declaração de inconstitucionalidade do art. 19 não é necessariamente a solução ideal. A obrigação de remover conteúdo ilícito, especialmente em casos de incitação à violência, desinformação com potencial de danos irreversíveis, ou conteúdo que coloque em risco a segurança nacional, é um dever de cuidado que independe de notificação judicial. Esse dever de cuidado decorre da boa-fé objetiva, estabelecendo um padrão de responsabilidade que exige das plataformas uma postura proativa na identificação e remoção de conteúdo danoso, especialmente aquele de natureza recorrente ou claramente inautêntico. A simples moderação de conteúdo se mostra insuficiente: é necessário estabelecer mecanismos de monitoramento, avaliação de riscos e transparência algorítmica, para evitar a disseminação de conteúdo nocivo.
Portanto, a responsabilidade civil, além de um mero procedimento indenizatório, deve servir como instrumento preventivo e normativo, visando desestimular a geração de danos[8]. A espera por decisões judiciais é, nesse sentido, inaceitável em casos de conteúdos eminentemente ilícitos. A remoção imediata é imperativa, uma vez que muitos danos causados pela desinformação são irreversíveis ou de difícil reparação. A perspectiva de sanções financeiras pesadas, combinada com a necessidade de transparência e prestação de contas, pode ser um forte incentivo para que as plataformas invistam em mecanismos mais eficazes de moderação de conteúdo e na garantia de um ambiente online mais seguro e confiável.
A regulação deve também levar em conta o impacto geopolítico, evitando que as plataformas sejam instrumentos de manipulação política, influenciando eleições e favorecendo determinadas ideologias. O Brasil, por sua vez, enquanto um agente importante, porém marginalizado no cenário digital global, precisa atuar proativamente na regulação das plataformas, buscando o equilíbrio entre a liberdade de expressão e a proteção da democracia[9]. A regulação precisa assim considerar as especificidades da sociedade brasileira, as características do seu sistema jurídico e o papel das redes sociais no contexto político nacional.
Em suma, a construção de um modelo regulatório preventivo e eficaz, inspirado em melhores práticas internacionais, mas adaptado à realidade brasileira, é fundamental para um espaço digital mais justo, democrático e seguro. Não basta apenas reagir aos danos; é necessária uma transformação na arquitetura e nos processos das plataformas, de forma a garantir a accountability social, a transparência algorítmica, e a proteção de direitos fundamentais. Isso exige não só a regulação legal, mas também a promoção de uma cultura digital mais crítica e responsável, que incentive a verificação de informações, o combate à desinformação e o diálogo construtivo. A complexidade do “cercamento digital” requer uma abordagem multifacetada, envolvendo legislação, mecanismos de fiscalização eficientes, investimento em educação digital e uma cooperação internacional efetiva para enfrentar os desafios transnacionais.
REFERÊNCIAS BIBLIOGRÁFICAS
ALMEIDA, Francinete Louseiro de. RÊGO, Ana Regina; BARBOSA, Marialva. A construção intencional da ignorância: o mercado das informações falsas. Rio de Janeiro: Mauad X, 2020. Revista de Políticas Públicas, 26(1), 222–227, 18 ago. 2022.
BREGA, Gabriel Ribeiro. A regulação de conteúdo nas redes sociais: uma breve análise comparativa entre o NetzDG e a solução brasileira. Revista Direito GV, 19(5), 2023.
TOMASEVICIUS FILHO, Eduardo. Marco Civil da Internet: uma lei sem conteúdo normativo. Estudos Avançados, 30(86), 17-35, 2016.
FRAZÃO, Ana. O poder das plataformas digitais: O que são e quais as suas repercussões sobre a regulação jurídica? Jota. 12 jul. 2017. Disponível em: https://www.jota.info/colunas/constituicao-empresa-e-mercado/o-poder-das-plataformas-digitais-12072017. Acesso em: 3 mar. 2025.
FRAZÃO, Ana; SANTOS, Luiza Mendonça da Silva Belo. Plataformas digitais e o negócio de dados: necessário diálogo entre o direito da concorrência e a regulação dos dados. Direito Público, 17(93), 2020.
FREITAS, Luiz Otávio Rezende de; LUNARDI, Fabrício Castagna; CORREIA, Pedro Miguel Alves Ribeiro. Liberdade de expressão na era digital: novos intermediários e censura por atores privados. Revista de Investigações Constitucionais, 11(2), e262, 2024.
LISBOA, Roberto Senise; FAUSTINO, André. O estado de natureza virtual e a justificação das liberdades irrestritas nas redes sociais. Revista Direitos Culturais, 16(39), 225-239, 2021.
ROUSSEAU, Jean Jacques. O contrato social. In: Oeuvres completes, tome III. Collection “Pléíade”. Paris: Gallimard, 1757.
SARLET, Ingo Wolfgang; SIQUEIRA, Andressa de Bittencourt. Liberdade de expressão e seus limites numa democracia: o caso das assim chamadas “fake news” nas redes sociais em período eleitoral no Brasil. REI – Revista Estudos Institucionais, 6(2), 534–578, 2020.
SILVA, Ricardo José de Souza. Direito e internet: regulação, privacidade, redes sociais e outras questões. Revista Direito GV, 9(17), 2017.
ZDRADEK, Ana Carolina Sampaio; BECK, Dinah Quesada. Juventudes e redes sociais: proposições de um estudo netnográfico para a Educação. Textura – Revista de Educação e Letras, 22(52), 2020.
[1] Sarlet, Siqueira (2020).
[2] Almeida (2022).
[3] Sarlet, Siqueira (2020).
[4] Frazão (2023).
[5] Silva (2017); Frazão (2023).
[6] Brega (2023).
[7] Tomasevicius Filho (2016).
[8] Freitas, Lunardi, Correia (2024).
[9] Sarlet, Siqueira (2020).
[*] Graduanda em Direito pela Universidade de Brasília, monitora da disciplina Teoria Geral do Estado, membra do Veredicto e da Assessoria Jurídica Universitária Popular Roberto Lyra Filho (AJUP). E-mail: catarinapierdonaw@gmail.com. Lattes: CV: http://lattes.cnpq.br/5253824623722089.

