28 de junho de 2025
Para analisar a tese de repercussão geral fixada pelo Supremo Tribunal Federal (STF) no último dia 26 de junho, ao decidir sobre a constitucionalidade ou não do art. 19, do Marco Civil da Internet (MCI), sobre responsabilização de plataformas que exploram serviços na Internet por danos decorrentes de conteúdos postados por terceiros, vou partir da pertinente perspectiva manifestada pela Ministra Cármen Lúcia na sessão de julgamento que ocorreu no dia 25 de junho, com o seguinte teor:
“não há nenhuma divergência no que se refere à importância, à gravidade e complexidade do tema que estamos a discutir, um tema que diz respeito à liberdade de expressão e à censura, (...) eu vivo muito preocupada, eu diria quase aterrorizada, com a questão da censura nos últimos tempos e estou dizendo no Brasil. Censuram-se livros, censuram-se publicações que são feitas dizendo respeito, por exemplo, a ganhos de servidores públicos, que têm de ser públicos por determinação legal ... faz-se censura de espetáculos artísticos. Isto é censura inconstitucional vedada. Se for por ordem judicial, pior ainda. Portanto, a censura no Brasil é uma questão que não acabou quando acabou a ditadura. Continua prevalecendo e o tempo todo precisamos ficar atentos para não se restabelecer nenhuma forma de censura, nem prévia e nem nenhuma, até porque a Constituição fala que não é permitida a censura e não diz que é só a prévia. (...) E por isso mesmo é que este tema ganha um relevo maior ... isto tem um apelo enorme para todas as democracias e para as liberdades, muito mais para nós brasileiros que vivemos nos tempos de hoje e nas circunstâncias de hoje ...” .
O art. 19 do MCI e a censura
Assim, para entendermos as possíveis repercussões da decisão do STF, o foco principal deve a defesa da liberdade de expressão e o impedimento à censura, inclusive e especialmente porque o art. 19 deixou expresso que foi esta a preocupação da sociedade, que participou ampla e ativamente da construção do MCI, apoiado no Decálogo de Princípios de Governança da Internet, editado em 2009, num contexto multissetorial do qual participaram representantes do governo, academia, empresas e terceiro setor, promovido pelo Comitê Gestor da Internet no Brasil.
Entre os princípios do decálogo está a inimputabilidade das redes, indicando que o “combate a ilícitos na rede deve atingir os responsáveis finais e não os meios de acesso e transporte, sempre preservando os princípios maiores de defesa da liberdade, da privacidade e do respeito aos direitos humanos”.
Foi esta, então, a redação do art. 19 inspirado nesse princípio: “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário”.
E este dispositivo não pode ser lido como salvo conduto para que as plataformas não respondam por atos próprios, pois o mesmo MCI traz dispositivo prevendo a responsabilização dos agentes por suas atividades nos termos da lei.
Nessa direção, a bandeira levantada por muitos como justificativa para flexibilizar o regime de responsabilidade do MCI, no sentido de que a lei estaria defasada, revela-se absolutamente inconsistente.
Primeiro porque leis principiológicas não envelhecem. Fosse assim, nossa Constituição que é de 1988, nosso Código Penal que é de 1940, a Lei Eleitoral que é de 1992, e assim por diante, também estariam defasados pelo passar dos tempos e das conjunturas.
E segundo porque, como asseverou a Min Cármen Lúcia, os ataques às liberdades e os arroubos da censura continuam a ameaçar as nossas instituições democráticas, de forma acelerada, especialmente a partir de 2014, para o que a atuação das plataformas tem desempenhado papel bastante relevante no processo de enfraquecimento das instituições democráticas do nosso país, bem como no recuo de garantias civilizatórias e direitos fundamentais conquistados ao longo do período de redemocratização com muito esforço.
A expansão acelerada, no contexto neoliberal, do poder de mercado das plataformas estadunidenses no Brasil e no mundo, assim como a crescente exploração dos serviços que prestam na Internet, apoiados em novas tecnologias que implicam na coleta e tratamento massivo e arbitrário de dados pessoais e dados públicos, voltados para a vigilância, com vistas a alimentar seus modelos de negócio baseados principalmente em publicidade e propaganda, como tão bem delineado nas obras de Shoshana Zubof, Evgueny Morozov e Jonathan Crary, entre outros, são elementos que não poderiam ter sido negligenciados pela decisão do STF.
Apesar de as manifestações de todos os onze Ministros que votaram pela constitucionalidade parcial do art. 19, terem referências ao poder das plataformas e os efeitos deletérios de suas práticas algorítmicas, mesmo as daqueles que votaram pela constitucionalidade integral do art. 19, com todo o respeito, entendo que a decisão não deu a devida importância para as repercussões que pode ter no quadro das atuais disputas geopolíticas e tem o potencial de causar efeito contrário ao desejado.
Tiro pela culatra 1
Isto porque nos itens 2 a 3.2 da tese de repercussão geral está dito o seguinte:
“2. Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE.
- O provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas. 3.1. Nas hipóteses de crime contra a honra aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial. 3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
A afirmação de que a eficácia do art. 19 está preservada quando se tratar de crimes contra a honra como regra, não me deixa tranquila quando no item 3.1. a plataforma fica autorizada a promover a remoção do conteúdo mediante mera notificação extrajudicial (notice and take down), o que pode ser interpretado de modo a que se esteja viabilizando que a plataforma, visando reduzir custos de moderação e de responsabilização, adote como padrão a remoção preventiva do conteúdo, como elas já estão ameaçando.
Especialmente porque, no item 5.5 da tese, inserido na parte que faz menção ao dever de cuidado em casos de circulação massiva de conteúdos ilícitos graves o STF afirma que:
“5.5. Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor”.
Ou seja, aquele que tiver o conteúdo removido indevidamente pela plataforma, além de ter o ônus de recorrer ao Poder Judiciário, caso tenha o pedido de restabelecimento do conteúdo atendido, não terá o direito de ser indenizado, o que funciona como verdadeiro estímulo para derrubadas arbitrárias e feitas ao critério exclusivo das bigtechs, contrariando o preceito básico de quem exorbita no exercício dos direitos pratica ilícito, ficando obrigado a indenizar, como estabelece nosso Código Civil.
Se um dos princípios utilizados pelo STF para a fixação da tese foi o respeito ao binômio liberdade/responsabilidade, o certo é que o tribunal no item 5.5 está conferindo margem amplíssima de poder às plataformas para remoção de conteúdos, sem lhes impor a devida e correspondente responsabilidade por derrubadas consideradas ilegais pelo Poder Judiciário.
Ainda considerando o cenário de violações reiteradas de censura prévia pelas plataformas, que moderam seus conteúdos de acordo com seus interesses privados e comerciais, descomprometidas com o interesse público dos países onde atuam, teria sido fundamental que o STF tivesse levado em conta o alinhamento ideológico que mantêm com as forças de direita.
Há inúmeras pesquisas demonstrando que as plataformas já interferem no tráfego de informações, conferindo privilegio e maior alcance a conteúdos desinformativos, racistas, criminosos e discursos de ódio e, especialmente, aos conteúdos financiados e impulsionados pelas forças de direita para desestabilizar as instituições e a democracia, como é o caso dos canais do Brasil Paralelo, Jovem Pan entre outros, que servem de material a ser decupado e espalhado vastamente por diversas aplicações como TikTok, Instagram, Facebook, WhatsApp e Telegram.
Lamento, então, o fato de que, apesar de os Ministros Barroso e Flávio Dino terem cogitado de manter a eficácia do art. 19 não só para os crimes contra a honra – injúria, calúnia e difamação –, mas também para conteúdos jornalísticos, esta hipótese não tenha sido incluída no item 3.1 e que se tenha mantido a previsão de possibilidade de derrubada de conteúdo por mera notificação extrajudicial.
As disputas geopolíticas em curso, com avanços graves da extrema direita em diversos países da Europa, América Latina e nos EUA, dando suporte a partidos fascistas, como ocorreu na Itália e Alemanha, e com a recente eleição de Donald Trump, têm contado com o protagonismo das principais plataformas, que não por acaso são estadunidenses, indicam que a decisão do STF pode funcionar como um tiro pela culatra.
Plataformas sujeitas à eficácia do art. 19
Outro ponto a ser destacado quanto à decisão sobre a incidência do art. 19 é o item 6 da tese que dispõe: “6. Aplica-se o art. 19 do MCI ao (a) provedor de serviços de e-mail; (b)provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; (c) provedor de serviços de mensageria instantânea (também chamadas de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88)”.
Interpretando o item 6 com o item 3.1, teria sido necessário que a tese deixasse claro o seguinte: se o art. 19 só se aplica para provedores de e-mails, provedores de serviço para realização de reuniões fechadas e provedores de mensageria privada, com a advertência de que se respeite o direito constitucional do sigilo das comunicações, cabe perguntar: qual a efetividade desta disposição? Seria para o caso de grupos abertos de discussão como há. no WhatsApp e Telegram?
Os três tipos de serviços referidos no item 6 implicam em tráfego de conteúdos restritos aos participantes, aos quais nem os provedores e nem o público podem ter acesso, inclusive por força do que determina o MCI quando trata da proteção da privacidade e dos dados pessoais e quando, ao tratar dos direitos dos usuários no art. 7º, assegura a “inviolabilidade da intimidade e da vida privada, sua proteção e indenização pelo dano material ou moral decorrente de sua violação; a inviolabilidade e sigilo do fluxo de suas comunicações pela internet, salvo por ordem judicial, na forma da lei”; bem como a “inviolabilidade e sigilo de suas comunicações privadas armazenadas, salvo por ordem judicial”.
Sendo assim, nas hipóteses previstas no item 6 da tese não há que se falar em remoção de conteúdos seja por ação proativa da plataforma ou por ordem judicial. De acordo com o documento publicado pelo STF informando a sociedade sobre a tese, a explicação é a seguinte:
“Em duas hipóteses específicas, as plataformas podem ser responsabilizadas mesmo sem ordem judicial ou notificação privada: (a) em anúncios ou impulsionamento pago de conteúdos, já que nesses casos a plataforma aprova a publicidade; e (b) quando for detectado o uso de redes artificiais de distribuição ilícitas usando robôs. Nesses casos, há uma presunção de que a plataforma tinha conhecimento da ilicitude e ela somente poderá afastar sua responsabilidade se provar que agiu em tempo razoável e com diligência para remover o conteúdo”.
Entretanto, o item 4 da tese, já atribui a presunção de responsabilidade para:
(a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo”.
Nessa linha, a previsão de aplicação do art. 19 para provedores de e-mail, suporte para reuniões online e mensageria privada é desnecessária e, pior, é inconveniente, pois abre uma via para que se justifique algum nível de monitoramento, o que contraria os direitos à intimidade e privacidade. O uso de robôs para distribuição de conteúdos a princípio não deveria ser visto como ilegal. O que o STF quis dizer com “redes artificiais de distribuição ilícitas usando robôs.
O Poder Legislativo, o STF e as leis brasileiras
Analisando os demais itens da tese fixada pelo STF, para além da eficácia residual reconhecida para o art. 19, a Corte avançou em outros aspectos importantes. Ampliou o rol de exceções expressas no art. 21 da lei, que responsabiliza as plataformas por não atenderem pedidos de derrubada de conteúdos recebidos por notificação extrajudicial, deixando claro que as hipóteses ali elencadas são taxativas e não exemplificativas. São elas:
“(a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal; (b) crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016; (c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122 do Código Penal; (d) incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 1989; (e) crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146-A; art. 147, § 1º; art. 147-A; e art. 147-B do CP); (f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-C, 241-D do Estatuto da Criança e do Adolescente; g) tráfico de pessoas (CP, art. 149-A)”.
Diante desta disposição cabe a pergunta: considerando o que está previsto nos incs. V e VI, do art. 3º, do Marco Civil da Internet, estabelecendo a obrigação de “preservação da estabilidade, segurança e funcionalidade da rede, por meio de medidas técnicas compatíveis com os padrões internacionais e pelo estímulo ao uso de boas práticas” e a “responsabilização dos agentes de acordo com suas atividades, nos termos da lei”, todas as hipóteses incluídas no item 5 da tese já não obrigam que as plataformas cumpram o dever de garantir segurança nos seus ambientes, removendo proativamente conteúdos criminosos, nos termos do que está disposto no Código de Proteção de Defesa do Consumidor (CDC)?
Para mim, a única resposta a esta pergunta é sim. E para os Ministros André Mendonça, Kassio Nunes Marques e Edson Fachin também, como é possível concluir de seus votos divergentes.
Tanto é assim que já existem centenas de decisões judiciais responsabilizando as plataformas com base no CDC e outras leis. Nesse sentido, merece destaque a atuação do Tribunal Superior Eleitoral (TSE) que, com base na Lei Eleitoral, vem editando resoluções estabelecendo hipóteses de responsabilidade no caso de descumprimento das normas editadas pelo Tribunal. Ou ainda, as decisões do STF, que, em 2022, exigiu do Telegram apresentação de representação no Brasil e em 2023 determinou o bloqueio do X/Twitter.
Mas, apesar de entender que o regime original de responsabilidade do MCI, com base nos arts. 3º, inc. VI; 19 e 21, aplicado junto com o arcabouço legal brasileiro, já funcionam como ferramentas poderosas para responsabilizar as plataformas por seus atos próprios e que elas não estão imunes à indenizar pelos danos que causem, este fato não torna desnecessária uma lei que venha, de forma específica e com base em diretrizes técnicas, regulamentar a atividade de moderação de conteúdos das plataformas, como o PL 2630/2020, que se propunha a dispor sobre Liberdade de expressão, Transparência e Responsabilidade na Internet, o que representaria um passo seguinte aos princípios estabelecidos com o MCI.
Porém, diante da resistência das plataformas em se submeterem ao poder regulatório e normativo do país, previstos de forma expressa na Constituição Federal (CF), no art. 174, inserido no capítulo sobre atividade econômica, que contou com o apoio de Arthur Lira, então Presidente da Câmara Federal, a conjuntura pesou para que o STF ocupasse um espaço que deveria ser do Poder Legislativo.
Os regimes de responsabilidade estabelecidos com a tese do STF
De forma resumida, então, podemos concluir que a partir da decisão do STF inaugura-se um novo regime de responsabilidade estruturado sobre as seguintes hipóteses:
a) As plataformas podem ser responsabilizadas civilmente caso não removam conteúdos manifestamente ilícitos após notificação extrajudicial. Isso se aplica a conteúdos como: • Pornografia infantil; • Indução, instigação ou auxílio a suicídio ou automutilação; • Tráfico de pessoas; • Atos de terrorismo; • Apologia à abolição violenta do Estado Democrático de Direito ou golpe de Estado; • Discurso de ódio, racismo ou outros conteúdos gravemente nocivos.
b) As plataformas têm o dever de agir proativamente ou após notificação extrajudicial, sem depender de decisão judicial, desde que o conteúdo seja objetivamente ilícito. É o que consta do item 5 na parte intitulada Dever de Cuidado, para evitar o que se denominou de falha sistêmica (item 5.2), que ocorre quando o “provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos”, tais como: • Crimes contra crianças e adolescentes; • Instigação ao suicídio; • Terrorismo; • Crimes contra o Estado Democrático de Direito.
c) Provedores que atuam como intermediários neutros, sem impulsionamento ou curadoria ativa de conteúdo (como provedores de infraestrutura), permanecem protegidos pelo artigo 19, sendo responsabilizados apenas em caso de descumprimento de ordem judicial.
d) Conforme o item 4 da tese, “fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos ilícitos quando se tratar de (a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo.
e) Marketplaces passam a responder solidariamente com os fornecedores que comercializam serviços e produtos em suas de acordo com o CDC, sem incidir a responsabilidade objetiva.
Tiro pela culatra 2
Agora, tendo o STF preenchido essa lacuna, extrapolando ou não suas atribuições constitucionais, como resposta aos riscos que estamos correndo decorrentes do uso indevido das aplicações mantidas pelas bigtechs, como já ocorreu em 2018, 2020 e 2022, de contaminação do próximo processo eleitoral de 2026, bateu o desespero nas plataformas.
Matéria publicada pela Folha de São Paulo dia 27 de junho informa que agora as plataformas vão correr atrás do Congresso para “legislar sobre o assunto rapidamente. Na interpretação das empresas, se o Congresso aprovar uma lei, ela vai se sobrepor à decisão do STF”.
É possível que sim, caso o Legislativo não repita restrições de responsabilidade já reconhecidas como inconstitucionais pela Corte na tese editada agora. Os pontos passíveis a partir de agora de serem substituídos são aqueles que tratam de obrigações adicionais, que já encontram respaldo no CDC.
Aliás, o item 13 da tese do STF, já endereça apelo ao Congresso Nacional “para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”.
A tese do STF e os direitos do consumidor
O STF também fixou obrigações adicionais de caráter instrumental baseadas no CDC e no texto do PL 2630/2020. São elas:
Marketplaces
- Os provedores de aplicações de internet que funcionarem como marketplaces respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei nº8.078/90). Deveres adicionais
- Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
- Deverão, igualmente, disponibilizar a usuários e a não usuários canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente.
- Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.
- Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios. Essa representação deve conferir ao representante, necessariamente pessoa jurídica com sede no país, plenos poderes para (a) responder perante as esferas administrativa e judicial; (b) prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para gestão das reclamações pelos sistemas internos; aos relatórios de transparência, monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de usuários (quando for o caso), a veiculação de publicidade e o impulsionamento remunerado de conteúdos; (c) cumprir as determinações judiciais; e (d) responder e cumprir eventuais penalizações, multas e afetações financeiras em que o representado incorrer, especialmente por descumprimento de obrigações legais e judiciais. Natureza da responsabilidade
- Não haverá responsabilidade objetiva na aplicação da tese aqui enunciada.
- Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais. Modulação dos efeitos temporais
- Para preservar a segurança jurídica, ficam modulados os efeitos da presente decisão, que somente se aplicará prospectivamente, ressalvadas decisões transitadas em julgado.
Vejam que em vários dos itens transcritos acima foi estabelecida uma série de obrigações sobre autorregulação, elaboração de relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos, manutenção de sede e representação no Brasil.
O que a tese deixou em aberto?
Mas quem vai supervisionar o cumprimento dessas obrigações que, a rigor, de acordo com o CDC, já existem e poderiam estar sendo exigidas pela Secretaria Nacional do Ministério da Justiça, que há anos vem agindo de forma bastante complacente com as plataformas? O STF não traz uma indicação na tese que fixou, a despeito de durante o julgamento algumas alternativas tenham sido aventadas como a Autoridade Nacional de Proteção de Dados e a Procuradoria Geral da República.
Diante da indefinição de um organismo de supervisão, caberiam apelos do STF, assim como fez com o Legislativo, dirigidos às Secretarias Nacional do Consumidor e Direitos Digitais do Ministério da Justiça e Secretaria de Políticas Digitais da Secretaria de Comunicações da Presidência da República, para que cumprissem suas atribuições claríssimas expressas em Decretos Presidenciais.
E já que resolveu regular, poderia ter imposto parâmetros definindo assimetrias quanto às obrigações adicionais que impôs, com vistas a não atingir negativamente pequenas e médias empresas e a não contribuir para o poder de mercado das grandes bigtechs.
Ainda com relação às obrigações adicionais, poderia ter estabelecido a obrigação de rotulagem para conteúdos sintéticos, resultado de manipulação por inteligência artificial, assim como fez o TSE, na Resolução 23.732/2024, a fim de capacitar os usuários para terem senso crítico diante da massa informacional caótica a que estamos submetidos.
O que podemos esperar da decisão do TSE?
Apesar de entender o contexto e de compartilhar o sentimento de urgência e necessidade de se colocar freios ao poder enorme das bigtechs de interferirem negativamente no processo eleitoral de 2026, com a perspectiva real de retomada pela extrema direita da Presidência e da ampliação do número de parlamentares de direita na Câmara e especialmente no Senado, não acredito que resposta eficaz ao enorme poder de controle sobre o fluxo de informações detido pelas plataformas hoje vá se dar pela via regulatória; muito menos vinda de fonte tão pouco ortodoxa como é o caso da tese fixada pelo STF.
Precisamos que o atual Governo atue de forma política, exercendo por meio das autoridades competentes o enquadramento dessas empresas às leis do país, deixando de negligenciar sobre nossa soberania e evitando as práticas ilegais que elas vêm promovendo há anos, dominando os mercados e criando uma dependência enorme de cidadãos e governos de suas aplicações. Ou seja, quem vai fazer valer a tese do STF?
Receio que a decisão do STF não traga os resultados esperados e possa até reverter em resultado oposto ao que inspirou os Ministros cujos votos foram vencedores e que as bigtechs, agora autorizadas a derrubar por iniciativa própria o que julgarem o que é inequivocamente ilícito, conteúdos gravemente nocivos e ameaças ao Estado democrático de direito acirrem seus mecanismos de censura prévia contra postagens e canais progressistas.
Quem viver verá!