sexta-feira, 5 de maio de 2023

Pedro Doria - O fracasso da Câmara com o meio digital

O Globo

Nasceu a ilusão de que haveria uma agência para definir quais informações são publicáveis e quais não

O fracasso da Câmara dos Deputados em votar o Projeto de Lei que regulamenta as plataformas digitais, na última terça-feira, mostra que o processo legislativo brasileiro está fundamentalmente quebrado. Era difícil encontrar mais que dois ou três deputados governistas capazes de defender o texto do relator, Orlando Silva (PCdoB-SP). Não o conheciam. Não quer dizer que fosse fácil encontrar na oposição parlamentares com críticas consistentes — um punhado, não mais. O problema é mais amplo. Boa parte do debate fora do Congresso, na praça pública, estava permeado por desinformação e marcado pela polarização patológica.

A responsabilidade por isso começa no Legislativo e no Executivo. Não houve um esforço real de explicar à sociedade o que o projeto propunha. Como colou o apelido PL das Fake News, criou-se a impressão de que o objetivo era definir o que é mentira. Daí nasceu a ilusão de que haveria uma agência para definir quais informações são publicáveis e quais não. Foi fácil, a partir daí, para plataformas e bolsonarismo se unirem no entorno de outro apelido, “PL da Censura”.

Hoje, em virtude do Marco Civil da Internet, as plataformas não são responsáveis pelo conteúdo que terceiros publicam. A gente publica uma coisa no Face, no Twitter, no TikTok, as empresas não têm nada com isso. O espírito que moveu conceber a lei dessa forma vem dos anos 1990, quando as pequenas startups que inventavam a internet eram empresas frágeis, que poderiam ser esmagadas por uma onda de processos. Interessava à sociedade abrir um espaço de proteção para que pudessem criar o novo. Hoje, as big techs são as maiores empresas, em valor de mercado, jamais criadas na História do capitalismo. Não tem para bancos, para petroleiras, para a GE. São gigantes transnacionais com imenso poder. E, diferentemente do que ocorria na época do Marco Civil, essas empresas não apenas recebem passivamente conteúdo de terceiros. Elas literalmente escolhem qual informação será vista por milhões e qual não terá audiência. É para isso que servem seus algoritmos. Para escolher o que será visto e o que não será.

Para corrigir esse problema, o projeto estabelece três pontos importantes.

O primeiro é que as empresas passam a ser responsabilizadas ao impulsionar conteúdos que promovam crimes em geral e, em particular, violência contra a mulher, crianças e adolescentes, racismo e ameaça à democracia. Se permitirem ou contribuírem para a disseminação desse tipo de conteúdo, hoje já tipificado como crime, passarão a ser corresponsáveis junto aos autores das postagens. Este ponto é importante: são conteúdos já tipificados como crimes. A diferença é que, agora, se ajudarem a espalhar o que já é crime, serão responsabilizadas.

O segundo ponto importante é que se estabelece um protocolo de segurança. Em momentos muito particulares, como o período de medo com massacres escolares, autoridades poderão pedir às plataformas atenção especial a um tema. Postagens que incitem estes ataques, por exemplo.

Por fim, elas terão de publicar com regularidade relatórios de riscos sistêmicos. O nome é pomposo, mas quer dizer algo bastante simples. São empresas movidas a inovação. Toda inovação pode gerar efeitos colaterais não previstos. Elas devem informar à sociedade os riscos previstos. A Meta tinha conhecimento de que suas redes incentivavam depressão em adolescentes, automutilação, e jamais tornaram isso público. Passarão a ser obrigadas.

Podemos discutir sobre cada um desses dispositivos. Mas não foi o que fizemos coletivamente nas últimas semanas.

 

Nenhum comentário:

Postar um comentário