O Globo
Nasceu a ilusão de que haveria uma agência
para definir quais informações são publicáveis e quais não
O fracasso da Câmara dos
Deputados em votar o Projeto de Lei que regulamenta as
plataformas digitais, na última terça-feira, mostra que o processo legislativo
brasileiro está fundamentalmente quebrado. Era difícil encontrar mais que dois
ou três deputados governistas capazes de defender o texto do relator, Orlando Silva (PCdoB-SP).
Não o conheciam. Não quer dizer que fosse fácil encontrar na oposição
parlamentares com críticas consistentes — um punhado, não mais. O problema é
mais amplo. Boa parte do debate fora do Congresso, na praça pública, estava
permeado por desinformação e marcado pela polarização patológica.
A responsabilidade por isso começa no Legislativo e no Executivo. Não houve um esforço real de explicar à sociedade o que o projeto propunha. Como colou o apelido PL das Fake News, criou-se a impressão de que o objetivo era definir o que é mentira. Daí nasceu a ilusão de que haveria uma agência para definir quais informações são publicáveis e quais não. Foi fácil, a partir daí, para plataformas e bolsonarismo se unirem no entorno de outro apelido, “PL da Censura”.
Hoje, em virtude do Marco Civil da
Internet, as plataformas não são responsáveis pelo conteúdo que terceiros
publicam. A gente publica uma coisa no Face, no Twitter,
no TikTok,
as empresas não têm nada com isso. O espírito que moveu conceber a lei dessa
forma vem dos anos 1990, quando as pequenas startups que inventavam a internet
eram empresas frágeis, que poderiam ser esmagadas por uma onda de processos.
Interessava à sociedade abrir um espaço de proteção para que pudessem criar o
novo. Hoje, as big techs são as maiores empresas, em valor de mercado, jamais
criadas na História do capitalismo. Não tem para bancos, para petroleiras, para
a GE. São gigantes transnacionais com imenso poder. E, diferentemente do que
ocorria na época do Marco Civil, essas empresas não apenas recebem passivamente
conteúdo de terceiros. Elas literalmente escolhem qual informação será vista
por milhões e qual não terá audiência. É para isso que servem seus algoritmos.
Para escolher o que será visto e o que não será.
Para corrigir esse problema, o projeto
estabelece três pontos importantes.
O primeiro é que as empresas passam a ser
responsabilizadas ao impulsionar conteúdos que promovam crimes em geral e, em
particular, violência contra a mulher, crianças e adolescentes, racismo e
ameaça à democracia. Se permitirem ou contribuírem para a disseminação desse
tipo de conteúdo, hoje já tipificado como crime, passarão a ser corresponsáveis
junto aos autores das postagens. Este ponto é importante: são conteúdos já
tipificados como crimes. A diferença é que, agora, se ajudarem a espalhar o que
já é crime, serão responsabilizadas.
O segundo ponto importante é que se
estabelece um protocolo de segurança. Em momentos muito particulares, como o
período de medo com massacres escolares, autoridades poderão pedir às
plataformas atenção especial a um tema. Postagens que incitem estes ataques,
por exemplo.
Por fim, elas terão de publicar com
regularidade relatórios de riscos sistêmicos. O nome é pomposo, mas quer dizer
algo bastante simples. São empresas movidas a inovação. Toda inovação pode
gerar efeitos colaterais não previstos. Elas devem informar à sociedade os
riscos previstos. A Meta tinha
conhecimento de que suas redes incentivavam depressão em adolescentes,
automutilação, e jamais tornaram isso público. Passarão a ser obrigadas.
Podemos discutir sobre cada um desses
dispositivos. Mas não foi o que fizemos coletivamente nas últimas semanas.
Nenhum comentário:
Postar um comentário