Valor Econômico
Em situações de incitação ao crime,
desinformação ou discurso de ódio, se faz necessária uma intervenção para
proteger o Estado democrático e os direitos da coletividade
O crescente impacto das redes sociais no
cenário global tem gerado discussões sobre a regulamentação dessas plataformas,
especialmente no contexto do Estado democrático de Direito. Há mais de uma
década, o Brasil já reconhecia a relevância de se estabelecer, em lei, deveres
e direitos no ambiente digital.
Contudo, a evolução tecnológica e a explosão de conteúdos ilícitos nas redes deram urgência a uma resposta jurídica precisa e adaptada aos desafios impostos pela internet, como o fenômeno da desinformação e a disseminação de discurso de ódio.
Nesse contexto, o Supremo Tribunal Federal
retomou, no último dia 27, o julgamento de processos que questionam regras do
Marco Civil da Internet. Os casos não são novos, estão na Corte há pelo menos
oito anos.
O Congresso também tentou avançar na
regulamentação das redes, por meio daquele que ficou conhecido como “PL das
Fake News”. Aprovada no Senado em 2020 e, desde então tramitando na Câmara dos
Deputados sob forte resistência, a proposta pretende instituir a Lei Brasileira
de Liberdade, Responsabilidade e Transparência na Internet.
Nesse período, no entanto, a polarização
ganhou ainda mais força no Brasil e a política, infelizmente, contaminou o
debate e a discussão não avançou.
Enquanto isso, sob o manto da liberdade de
expressão, práticas ilícitas, como a propagação de desinformação, os discursos
extremistas e os ataques a direitos fundamentais, passaram a ter impacto no
cotidiano das cidadãs e dos cidadãos brasileiros.
O caso da pandemia de covid-19, por exemplo,
evidenciou as sequelas da desinformação em relação à saúde pública. A proteção
das crianças e adolescentes, como determina a Constituição Federal, também
passou a estar em jogo.
Embora a internet seja uma ferramenta
poderosa para o conhecimento, ela também abriga ameaças, como o cyberbullying,
o acesso a conteúdos inadequados, a exposição a predadores virtuais e até o
vício em tecnologia.
Em recente entrevista ao jornal “O Globo”, a
juíza Vanessa Cavalieri, titular da maior Vara da Infância e Adolescência do
país, definiu com lucidez o que o ambiente virtual pode representar para os
nossos filhos e netos: “A rede social é uma praça pública escura e cheia de
estranhos”.
O cerne da discussão em torno da
regulamentação das redes sociais é a responsabilidade das chamadas big techs no
controle de conteúdos apócrifos.
Embora o Marco Civil da Internet tenha
significado, há 10 anos, um avanço na proteção da liberdade de expressão e na
prevenção da censura, a interpretação de seu artigo 19, que exige ordem
judicial prévia para a remoção de conteúdo, tem representado um obstáculo à
ação rápida contra a disseminação de práticas ilícitas.
Nesse contexto, o episódio recente das bombas
que explodiram na Praça dos Três Poderes, matando seu detonador, Francisco
Wanderley Luiz, deu mais força ao debate no Supremo sobre a constitucionalidade
do artigo 19.
A ausência de regulamentação das redes não
obriga, por exemplo, as empresas a repassar dados de usuários para ações
coercitivas de agentes de segurança pública e tampouco identificar ameaças por
meio de rastreamento de palavras-chaves. Ações como essas dependem de decisões
judiciais.
Cobrados por supostas falhas de ações de
inteligência, investigadores poderiam prevenir crimes como o ocorrido na
capital do Brasil, no início de novembro, se a internet não estivesse no estado
de terra sem lei.
Todo esse cenário sublinha a necessidade de
regulamentação das plataformas digitais, a fim de garantir que essas
ferramentas não sejam usadas para enfraquecer os direitos democráticos e a
segurança de toda a população.
No último dia 28, na tribuna do plenário do
STF, o advogado-geral da União, Jorge Messias, afirmou que o artigo 19 do Marco
Civil da Internet impôs, na prática, uma “imunidade” às plataformas para
manterem atitudes omissas em relação à desinformação.
A sustentação de Messias representou uma
mudança no entendimento do governo, que vinha defendendo a interpretação
conforme do artigo 19, mas estabelecendo os “deveres de prevenção, precaução e
segurança” para as empresas. Elas seriam obrigadas a adotar uma série de
medidas para evitar que conteúdos ilícitos circulassem livremente no ambiente
digital.
Na quinta-feira (5), o ministro Dias Toffoli,
relator de uma das ações que estão sendo julgadas pelo Supremo, concluiu seu
voto no sentido de responsabilizar as plataformas pelos conteúdos publicados
por seus usuários. Ou seja, Toffoli defendeu a inconstitucionalidade do artigo
19.
Para o ministro, as empresas devem remover
postagens apócrifas quando notificadas pelas vítimas desses conteúdos ou por
seus advogados, sem a necessidade de decisão judicial. Toffoli também entende
que, em situações específicas, envolvendo crimes graves, as plataformas devem
agir mesmo sem notificação.
Nesse rol, segundo o magistrado, estão, entre
outros: crimes contra o Estado democrático de Direito; atos de terrorismo ou
preparatórios de terrorismo; divulgação de fatos notoriamente inverídicos ou
descontextualizados com potencial para causar danos ao equilíbrio do pleito ou
à integridade do processo eleitoral; infração sanitária, por deixar de
executar, dificultar ou opor-se à execução de medidas sanitárias em situação de
Emergência em Saúde Pública de Importância Nacional; qualquer espécie de violência
contra a criança, o adolescente e as pessoas vulneráveis; qualquer espécie de
violência contra a mulher e crime de racismo.
A despeito da contaminação da discussão pela
polarização política, não há mais dúvidas de que é essencial que os provedores
de plataformas digitais sejam responsabilizados de forma mais direta e ágil -
especialmente quando se trata de conteúdos manifestamente ilícitos, como
discursos de ódio, fraude, e desinformação. Isso inclui uma moderação proativa,
sem a necessidade de uma ordem judicial, para garantir uma resposta mais eficaz
e célere a abusos.
O desafio, no entanto, é garantir que o
debate sobre a regulamentação das redes sociais leve em conta o equilíbrio
entre a liberdade de expressão e a proteção de outros direitos fundamentais. A
Constituição Brasileira garante a liberdade de expressão, mas ela não é
absoluta. Em situações de incitação ao crime, desinformação ou discurso de
ódio, se faz necessária uma intervenção para proteger o Estado democrático e os
direitos da coletividade.
A responsabilidade das plataformas digitais
na moderação de conteúdo ilícito e na proteção dos direitos fundamentais é
vital para garantir que a internet continue a ser um espaço de liberdade, mas
sem comprometer a segurança e a dignidade da sociedade.
*Marcus Vinicius Furtado Coêlho, advogado, é
presidente da Comissão de Estudos Constitucionais da OAB, ex-presidente
nacional da instituição (2013-2016).
Nenhum comentário:
Postar um comentário