sábado, 28 de junho de 2025

A solução possível – Pablo Ortellado

O Globo

Na noite da última quinta-feira o Supremo Tribunal Federal (STF) publicou os parâmetros para responsabilização das plataformas digitais, estabelecendo as regras que passam a valer depois da declaração de inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet. Não é exagero chamar essas diretrizes de regulação judicial.

A discussão sobre a responsabilização por conteúdo de terceiros é um dos temas na fundação da internet. As primeiras leis de regulação optaram por um modelo que atribui responsabilidade apenas ao usuário que publica o conteúdo, e não à plataforma que o hospeda.

Naquele momento, responsabilizar as plataformas significaria, na prática, inviabilizar seu modelo de negócio, baseado em escala e interatividade. Além disso, havia o temor de que incentivasse a censura privada, já que, para evitar riscos legais, elas tenderiam a remover preventivamente qualquer conteúdo potencialmente problemático, restringindo a liberdade de expressão. Essa lógica foi adotada em diversos países, como Estados Unidos, na Seção 230 da Communications Decency Act, e Brasil, no artigo 19 do Marco Civil da Internet.

O modelo tradicional começou a ser contestado quando as plataformas deixaram de ser meros repositórios neutros e passaram a exercer papel ativo na curadoria de conteúdo, por meio da moderação e da recomendação por algoritmos. Nesse novo contexto, tornou-se mais razoável exigir que as plataformas assumissem um grau maior de responsabilidade sobre o que circulava em seus ambientes. A consequência foi a busca por um novo regime jurídico que incentivasse práticas de moderação diligente, capazes de mitigar danos concretos sem comprometer a liberdade de expressão.

A decisão do Supremo funciona como atualização da lei brasileira por via judicial, para cobrir um vácuo legislativo. Trata-se de uma solução complexa, que acomoda entendimentos divergentes entre os ministros e estabelece, na prática, quatro regimes distintos de responsabilização.

O primeiro é uma espécie de regra geral, similar ao modelo europeu: as plataformas passam a ser responsáveis se forem notificadas de um conteúdo ilícito e optarem por mantê-lo. É o mecanismo conhecido como notice and action ou “notificação e ação” — já previsto, ainda que de forma mais restrita, no Marco Civil da Internet.

Esse mecanismo corre o risco de ser usado de forma abusiva por atores mal-intencionados que distribuam notificações em massa contra postagens de adversários para que a plataforma apague o conteúdo, temendo responsabilização. Isso poderia estimular uma guerra de denúncias entre esquerda e direita.

Para evitar esse risco e prevenir a censura privada, a legislação europeia impõe salvaguardas. Exige que as notificações sejam específicas, fundamentadas e não automatizadas, e que o usuário moderado tenha o direito de recorrer. A decisão do STF, porém, é vaga nessas salvaguardas. Menciona a exigência de um “devido processo”, mas sem defini-lo, e fala em “legitimidade” da notificação, mas sem estabelecer critérios. Se esses pontos forem devidamente detalhados nos embargos de declaração, o modelo pode se tornar funcional.

No segundo regime, relativo a anúncios e impulsionamentos, a responsabilidade das plataformas passa a ser presumida. A lógica é que, ao receberem pagamento para promover determinado conteúdo, elas o validam — e, por isso, devem responder por ele.

O terceiro regime mantém a exigência de ordem judicial para a exclusão de conteúdos que configurem crimes contra a honra. Essa exceção é essencial para impedir que determinados atores — especialmente políticos — usem as novas regras de notificação para tentar excluir críticas legítimas a eles. A exigência de ordem judicial funciona como um filtro.

Por fim, o quarto regime introduz um “dever de cuidado”, também de inspiração europeia. Ele obriga as plataformas a agir diligentemente para prevenir a publicação de conteúdos ilícitos graves, como ataques à democracia, preconceito ou incentivo ao suicídio. A responsabilização não decorre da eventual presença de um ou outro conteúdo ilegal, mas da falha sistemática da plataforma em adotar medidas eficazes para impedir a publicação desse tipo de conteúdo.

A redação do STF, no entanto, gera confusão ao exigir a “indisponibilização imediata” desses conteúdos. Tal linguagem se choca com a lógica do dever de cuidado, que pressupõe esforço diligente, não resposta automática. Essa imprecisão deverá gerar disputas interpretativas nos tribunais e parece refletir a tensão entre os ministros que defendem uma regulação inspirada no modelo europeu e aqueles que preferem uma abordagem linha-dura contra as plataformas. Sente-se também a ausência de alguém que fiscalize esse dever de cuidado.

A decisão do STF não é elegante, nem plenamente coerente — é uma solução judicial improvisada para cobrir uma omissão do Congresso. Os quatro regimes delineados parecem razoáveis isoladamente, mas formam um conjunto confuso, guiado por lógicas distintas, por vezes contraditórias. Além disso, há problemas de redação e inconsistências que certamente ressoarão nos tribunais. Essa regulação judicial não é a ideal, mas talvez seja o melhor que se conseguiu fazer diante das circunstâncias.

Nenhum comentário: