terça-feira, 3 de dezembro de 2024

Supremo decide o futuro das redes - Pedro Doria

O Globo

Quando uma plataforma escolhe impulsionar alguma informação, deveria ser responsável

O Supremo Tribunal Federal volta nesta semana ao julgamento do artigo 19 do Marco Civil da Internet. A primeira frase, assim posta, parece coisa em burocratês do tipo muito difícil de entender. Mas não é difícil de entender que a decisão pode mudar radicalmente a maneira como entendemos internet no Brasil. O que está em jogo é o debate que temos todos, coletivamente, tido insistentemente nos últimos anos: qual a responsabilidade das plataformas digitais pelo que é publicado nelas.

A interpretação habitual do artigo 19 diz que é nenhuma:

— O provedor somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências.

É o que diz o texto da lei. Quer dizer, a não ser que venha uma ordem de juiz, devidamente assinada e com todos os carimbos, as redes sociais não são obrigadas a fazer nada.

Ainda assim, com alguns tipos de conteúdo, elas escolhem fazer um bocado. Ninguém encontra pornografia no YouTube. Ou no Instagram. Ou no TikTok. Não é porque ninguém tente botar esse tipo de coisa lá. Muitos tentam, muitos milhares de vezes por hora. No primeiro trimestre de 2023, segundo números da própria plataforma, o YouTube retirou 9,1 milhões de vídeos que violavam suas regras internas. Porção significativa eram vídeos adultos que ninguém jamais viu. Os algoritmos do sistema reconhecem pornografia imediatamente. Quem sobe o vídeo não consegue torná-lo público. Ocorre o equivalente no Instagram ou no Facebook.

Ainda assim, há uma quantidade considerável de desinformação no mundo digital. Há conteúdo que radicaliza a população, principalmente os jovens. Há material que leva adolescentes a crises muitas vezes dolorosas, algumas vezes fatais, a respeito de seus corpos. Há crianças vendo anúncio de casas de apostas digitais, as bets. Há toda sorte de problema nas plataformas. Só que, da maneira como o artigo 19 é interpretado hoje, elas são terra sem lei. Não são responsáveis por nada, a não ser que um juiz diga o que devem fazer.

É o que está em julgamento. A lei é assim mesmo? Vale como está e assim ficará? É constitucional?

A Advocacia-Geral da União pediu que o artigo 19 fosse declarado inconstitucional por inteiro. Alguns advogados que acompanham o processo temem que os ministros decidam seguir esse caminho. É ruim. Nenhuma plataforma terá segurança jurídica para nada, talvez o incentivo as torne excessivamente censoras. Além disso, exigiria posição de um Congresso Nacional onde esse tipo de tema é inflamável.

Quando a lei surgiu, a internet era diferente. Já havia algoritmos, claro, mas eles eram incipientes. Não faziam cócegas. Conteúdo publicado por terceiros era, principalmente, comentário em blogs. Mesmo as postagens nas redes eram vistas, principalmente, pelos amigos. Por gente que conhecia quem publicava. Os algoritmos mudaram o jogo. Por meio deles, as plataformas criam grandes audiências. Os algoritmos decidem qual conteúdo será visto por milhões e qual terá visibilidade zero. Quando um TikTok ou um Insta decidem que um vídeo com desinformação alcançará grandes audiências, a responsabilidade não é só de quem se filmou mentindo. É também de quem escolheu mostrar aquilo para gente à beça.

Há soluções alternativas. Uma é criar uma lista de temas delicados. Desinformação sobre vacinas em meio a pandemia, por exemplo. É como já fazem com pornografia por vontade própria. Para certos assuntos, as plataformas têm um tipo de responsabilidade legal. É o que já acontece com direitos autorais. Ninguém ganha dinheiro explorando a música de terceiros. Elas seriam legalmente responsáveis naqueles temas da lista. Para outros assuntos, vale a regra atual.

Outra possibilidade intermediária é a notificação extrajudicial. Alguém se sentiu prejudicado por alguma postagem? Notifica por meio do sistema. A partir daquela notificação, a plataforma é responsável por quaisquer danos que houver.

No fim das contas, é o ônus de fazer negócios. Jornais são juridicamente responsáveis por quaisquer danos que venham do que publicam. Quando uma plataforma escolhe impulsionar alguma informação, deveria ser responsável. Porque impulsionar, mostrar para muita gente, é essencialmente uma decisão editorial. É igual ao jornal que escolhe qual artigo publicar e qual não.

Derrubar por completo é ruim. Organizar a interpretação do artigo 19 é a melhor solução.

 

Um comentário:

Anônimo disse...

Passa pano não o nome disso é censura
Quem tem que cuidar desse assunto é o Congresso o STF não está aí pra isso Ele está apenas para manter e zelar pela Constituição
Os jornalistas aderiram à censura do STF que vergonha
Mas não vai dar em nada, porque as Big techs estão com a faca no pescoço , o Trump ameaçou quem embarcar na censura disse que vai pagar caro
Essas plataformas estão num beco sem saída , mas eu acho que elas preferem encarar o STF a fúria do laranjão Tio SAN
A ver..,
Vocês são uma vergonha do jornalismo
Consideram todos esses absurdos autoritários do STF coisa mais normal, vergonha!!