segunda-feira, 16 de dezembro de 2024

A regulamentação das redes e a garantia da democracia - Marcus Vinicius Furtado Coêlho*

Valor Econômico

Em situações de incitação ao crime, desinformação ou discurso de ódio, se faz necessária uma intervenção para proteger o Estado democrático e os direitos da coletividade

O crescente impacto das redes sociais no cenário global tem gerado discussões sobre a regulamentação dessas plataformas, especialmente no contexto do Estado democrático de Direito. Há mais de uma década, o Brasil já reconhecia a relevância de se estabelecer, em lei, deveres e direitos no ambiente digital.

Contudo, a evolução tecnológica e a explosão de conteúdos ilícitos nas redes deram urgência a uma resposta jurídica precisa e adaptada aos desafios impostos pela internet, como o fenômeno da desinformação e a disseminação de discurso de ódio.

Nesse contexto, o Supremo Tribunal Federal retomou, no último dia 27, o julgamento de processos que questionam regras do Marco Civil da Internet. Os casos não são novos, estão na Corte há pelo menos oito anos.

O Congresso também tentou avançar na regulamentação das redes, por meio daquele que ficou conhecido como “PL das Fake News”. Aprovada no Senado em 2020 e, desde então tramitando na Câmara dos Deputados sob forte resistência, a proposta pretende instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.

Nesse período, no entanto, a polarização ganhou ainda mais força no Brasil e a política, infelizmente, contaminou o debate e a discussão não avançou.

Enquanto isso, sob o manto da liberdade de expressão, práticas ilícitas, como a propagação de desinformação, os discursos extremistas e os ataques a direitos fundamentais, passaram a ter impacto no cotidiano das cidadãs e dos cidadãos brasileiros.

O caso da pandemia de covid-19, por exemplo, evidenciou as sequelas da desinformação em relação à saúde pública. A proteção das crianças e adolescentes, como determina a Constituição Federal, também passou a estar em jogo.

Embora a internet seja uma ferramenta poderosa para o conhecimento, ela também abriga ameaças, como o cyberbullying, o acesso a conteúdos inadequados, a exposição a predadores virtuais e até o vício em tecnologia.

Em recente entrevista ao jornal “O Globo”, a juíza Vanessa Cavalieri, titular da maior Vara da Infância e Adolescência do país, definiu com lucidez o que o ambiente virtual pode representar para os nossos filhos e netos: “A rede social é uma praça pública escura e cheia de estranhos”.

O cerne da discussão em torno da regulamentação das redes sociais é a responsabilidade das chamadas big techs no controle de conteúdos apócrifos.

Embora o Marco Civil da Internet tenha significado, há 10 anos, um avanço na proteção da liberdade de expressão e na prevenção da censura, a interpretação de seu artigo 19, que exige ordem judicial prévia para a remoção de conteúdo, tem representado um obstáculo à ação rápida contra a disseminação de práticas ilícitas.

Nesse contexto, o episódio recente das bombas que explodiram na Praça dos Três Poderes, matando seu detonador, Francisco Wanderley Luiz, deu mais força ao debate no Supremo sobre a constitucionalidade do artigo 19.

A ausência de regulamentação das redes não obriga, por exemplo, as empresas a repassar dados de usuários para ações coercitivas de agentes de segurança pública e tampouco identificar ameaças por meio de rastreamento de palavras-chaves. Ações como essas dependem de decisões judiciais.

Cobrados por supostas falhas de ações de inteligência, investigadores poderiam prevenir crimes como o ocorrido na capital do Brasil, no início de novembro, se a internet não estivesse no estado de terra sem lei.

Todo esse cenário sublinha a necessidade de regulamentação das plataformas digitais, a fim de garantir que essas ferramentas não sejam usadas para enfraquecer os direitos democráticos e a segurança de toda a população.

No último dia 28, na tribuna do plenário do STF, o advogado-geral da União, Jorge Messias, afirmou que o artigo 19 do Marco Civil da Internet impôs, na prática, uma “imunidade” às plataformas para manterem atitudes omissas em relação à desinformação.

A sustentação de Messias representou uma mudança no entendimento do governo, que vinha defendendo a interpretação conforme do artigo 19, mas estabelecendo os “deveres de prevenção, precaução e segurança” para as empresas. Elas seriam obrigadas a adotar uma série de medidas para evitar que conteúdos ilícitos circulassem livremente no ambiente digital.

Na quinta-feira (5), o ministro Dias Toffoli, relator de uma das ações que estão sendo julgadas pelo Supremo, concluiu seu voto no sentido de responsabilizar as plataformas pelos conteúdos publicados por seus usuários. Ou seja, Toffoli defendeu a inconstitucionalidade do artigo 19.

Para o ministro, as empresas devem remover postagens apócrifas quando notificadas pelas vítimas desses conteúdos ou por seus advogados, sem a necessidade de decisão judicial. Toffoli também entende que, em situações específicas, envolvendo crimes graves, as plataformas devem agir mesmo sem notificação.

Nesse rol, segundo o magistrado, estão, entre outros: crimes contra o Estado democrático de Direito; atos de terrorismo ou preparatórios de terrorismo; divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral; infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias em situação de Emergência em Saúde Pública de Importância Nacional; qualquer espécie de violência contra a criança, o adolescente e as pessoas vulneráveis; qualquer espécie de violência contra a mulher e crime de racismo.

A despeito da contaminação da discussão pela polarização política, não há mais dúvidas de que é essencial que os provedores de plataformas digitais sejam responsabilizados de forma mais direta e ágil - especialmente quando se trata de conteúdos manifestamente ilícitos, como discursos de ódio, fraude, e desinformação. Isso inclui uma moderação proativa, sem a necessidade de uma ordem judicial, para garantir uma resposta mais eficaz e célere a abusos.

O desafio, no entanto, é garantir que o debate sobre a regulamentação das redes sociais leve em conta o equilíbrio entre a liberdade de expressão e a proteção de outros direitos fundamentais. A Constituição Brasileira garante a liberdade de expressão, mas ela não é absoluta. Em situações de incitação ao crime, desinformação ou discurso de ódio, se faz necessária uma intervenção para proteger o Estado democrático e os direitos da coletividade.

A responsabilidade das plataformas digitais na moderação de conteúdo ilícito e na proteção dos direitos fundamentais é vital para garantir que a internet continue a ser um espaço de liberdade, mas sem comprometer a segurança e a dignidade da sociedade.

*Marcus Vinicius Furtado Coêlho, advogado, é presidente da Comissão de Estudos Constitucionais da OAB, ex-presidente nacional da instituição (2013-2016).

 

Nenhum comentário: