O Globo
Na noite da última quinta-feira o Supremo
Tribunal Federal (STF) publicou os parâmetros para responsabilização das
plataformas digitais, estabelecendo as regras que passam a valer depois da
declaração de inconstitucionalidade parcial do artigo 19 do Marco Civil da
Internet. Não é exagero chamar essas diretrizes de regulação judicial.
A discussão sobre a responsabilização por
conteúdo de terceiros é um dos temas na fundação da internet. As primeiras leis
de regulação optaram por um modelo que atribui responsabilidade apenas ao
usuário que publica o conteúdo, e não à plataforma que o hospeda.
Naquele momento, responsabilizar as plataformas significaria, na prática, inviabilizar seu modelo de negócio, baseado em escala e interatividade. Além disso, havia o temor de que incentivasse a censura privada, já que, para evitar riscos legais, elas tenderiam a remover preventivamente qualquer conteúdo potencialmente problemático, restringindo a liberdade de expressão. Essa lógica foi adotada em diversos países, como Estados Unidos, na Seção 230 da Communications Decency Act, e Brasil, no artigo 19 do Marco Civil da Internet.
O modelo tradicional começou a ser contestado
quando as plataformas deixaram de ser meros repositórios neutros e passaram a
exercer papel ativo na curadoria de conteúdo, por meio da moderação e da
recomendação por algoritmos. Nesse novo contexto, tornou-se mais razoável
exigir que as plataformas assumissem um grau maior de responsabilidade sobre o
que circulava em seus ambientes. A consequência foi a busca por um novo regime
jurídico que incentivasse práticas de moderação diligente, capazes de mitigar danos
concretos sem comprometer a liberdade de expressão.
A decisão do Supremo funciona como
atualização da lei brasileira por via judicial, para cobrir um vácuo
legislativo. Trata-se de uma solução complexa, que acomoda entendimentos
divergentes entre os ministros e estabelece, na prática, quatro regimes distintos
de responsabilização.
O primeiro é uma espécie de regra geral,
similar ao modelo europeu: as plataformas passam a ser responsáveis se forem
notificadas de um conteúdo ilícito e optarem por mantê-lo. É o mecanismo
conhecido como notice and action ou “notificação e ação” — já
previsto, ainda que de forma mais restrita, no Marco Civil da Internet.
Esse mecanismo corre o risco de ser usado de
forma abusiva por atores mal-intencionados que distribuam notificações em massa
contra postagens de adversários para que a plataforma apague o conteúdo,
temendo responsabilização. Isso poderia estimular uma guerra de denúncias entre
esquerda e direita.
Para evitar esse risco e prevenir a censura
privada, a legislação europeia impõe salvaguardas. Exige que as notificações
sejam específicas, fundamentadas e não automatizadas, e que o usuário moderado
tenha o direito de recorrer. A decisão do STF, porém, é vaga nessas
salvaguardas. Menciona a exigência de um “devido processo”, mas sem defini-lo,
e fala em “legitimidade” da notificação, mas sem estabelecer critérios. Se
esses pontos forem devidamente detalhados nos embargos de declaração, o modelo
pode se tornar funcional.
No segundo regime, relativo a anúncios e
impulsionamentos, a responsabilidade das plataformas passa a ser presumida. A
lógica é que, ao receberem pagamento para promover determinado conteúdo, elas o
validam — e, por isso, devem responder por ele.
O terceiro regime mantém a exigência de ordem
judicial para a exclusão de conteúdos que configurem crimes contra a honra.
Essa exceção é essencial para impedir que determinados atores — especialmente
políticos — usem as novas regras de notificação para tentar excluir críticas
legítimas a eles. A exigência de ordem judicial funciona como um filtro.
Por fim, o quarto regime introduz um “dever
de cuidado”, também de inspiração europeia. Ele obriga as plataformas a agir
diligentemente para prevenir a publicação de conteúdos ilícitos graves, como
ataques à democracia, preconceito ou incentivo ao suicídio. A responsabilização
não decorre da eventual presença de um ou outro conteúdo ilegal, mas da falha
sistemática da plataforma em adotar medidas eficazes para impedir a publicação
desse tipo de conteúdo.
A redação do STF, no entanto, gera confusão
ao exigir a “indisponibilização imediata” desses conteúdos. Tal linguagem se
choca com a lógica do dever de cuidado, que pressupõe esforço diligente, não
resposta automática. Essa imprecisão deverá gerar disputas interpretativas nos
tribunais e parece refletir a tensão entre os ministros que defendem uma
regulação inspirada no modelo europeu e aqueles que preferem uma abordagem
linha-dura contra as plataformas. Sente-se também a ausência de alguém que
fiscalize esse dever de cuidado.
A decisão do STF não é elegante, nem
plenamente coerente — é uma solução judicial improvisada para cobrir uma
omissão do Congresso. Os quatro regimes delineados parecem razoáveis
isoladamente, mas formam um conjunto confuso, guiado por lógicas distintas, por
vezes contraditórias. Além disso, há problemas de redação e inconsistências que
certamente ressoarão nos tribunais. Essa regulação judicial não é a ideal, mas
talvez seja o melhor que se conseguiu fazer diante das circunstâncias.
Nenhum comentário:
Postar um comentário