O Globo
Quando uma plataforma escolhe impulsionar
alguma informação, deveria ser responsável
O Supremo Tribunal Federal volta nesta semana
ao julgamento do artigo 19 do Marco Civil da Internet. A primeira frase, assim
posta, parece coisa em burocratês do tipo muito difícil de entender. Mas não é
difícil de entender que a decisão pode mudar radicalmente a maneira como
entendemos internet no Brasil. O que está em jogo é o debate que temos todos,
coletivamente, tido insistentemente nos últimos anos: qual a responsabilidade
das plataformas digitais pelo que é publicado nelas.
A interpretação habitual do artigo 19 diz que
é nenhuma:
— O provedor somente poderá ser
responsabilizado civilmente por danos decorrentes de conteúdo gerado por
terceiros se, após ordem judicial específica, não tomar as providências.
É o que diz o texto da lei. Quer dizer, a não ser que venha uma ordem de juiz, devidamente assinada e com todos os carimbos, as redes sociais não são obrigadas a fazer nada.
Ainda assim, com alguns tipos de conteúdo,
elas escolhem fazer um bocado. Ninguém encontra pornografia no YouTube.
Ou no Instagram.
Ou no TikTok.
Não é porque ninguém tente botar esse tipo de coisa lá. Muitos tentam, muitos
milhares de vezes por hora. No primeiro trimestre de 2023, segundo números da
própria plataforma, o YouTube retirou 9,1 milhões de vídeos que violavam suas
regras internas. Porção significativa eram vídeos adultos que ninguém jamais
viu. Os algoritmos do sistema reconhecem pornografia imediatamente. Quem sobe o
vídeo não consegue torná-lo público. Ocorre o equivalente no Instagram ou
no Facebook.
Ainda assim, há uma quantidade considerável
de desinformação no mundo digital. Há conteúdo que radicaliza a população,
principalmente os jovens. Há material que leva adolescentes a crises muitas
vezes dolorosas, algumas vezes fatais, a respeito de seus corpos. Há crianças
vendo anúncio de casas de apostas digitais, as bets. Há toda sorte de problema
nas plataformas. Só que, da maneira como o artigo 19 é interpretado hoje, elas
são terra sem lei. Não são responsáveis por nada, a não ser que um juiz diga o
que devem fazer.
É o que está em julgamento. A lei é assim
mesmo? Vale como está e assim ficará? É constitucional?
A Advocacia-Geral da União pediu que o artigo
19 fosse declarado inconstitucional por inteiro. Alguns advogados que
acompanham o processo temem que os ministros decidam seguir esse caminho. É
ruim. Nenhuma plataforma terá segurança jurídica para nada, talvez o incentivo
as torne excessivamente censoras. Além disso, exigiria posição de um Congresso
Nacional onde esse tipo de tema é inflamável.
Quando a lei surgiu, a internet era
diferente. Já havia algoritmos, claro, mas eles eram incipientes. Não faziam
cócegas. Conteúdo publicado por terceiros era, principalmente, comentário em
blogs. Mesmo as postagens nas redes eram vistas, principalmente, pelos amigos.
Por gente que conhecia quem publicava. Os algoritmos mudaram o jogo. Por meio
deles, as plataformas criam grandes audiências. Os algoritmos decidem qual
conteúdo será visto por milhões e qual terá visibilidade zero. Quando um TikTok
ou um Insta decidem que um vídeo com desinformação alcançará grandes
audiências, a responsabilidade não é só de quem se filmou mentindo. É também de
quem escolheu mostrar aquilo para gente à beça.
Há soluções alternativas. Uma é criar uma
lista de temas delicados. Desinformação sobre vacinas em meio a pandemia, por
exemplo. É como já fazem com pornografia por vontade própria. Para certos
assuntos, as plataformas têm um tipo de responsabilidade legal. É o que já
acontece com direitos autorais. Ninguém ganha dinheiro explorando a música de
terceiros. Elas seriam legalmente responsáveis naqueles temas da lista. Para
outros assuntos, vale a regra atual.
Outra possibilidade intermediária é a
notificação extrajudicial. Alguém se sentiu prejudicado por alguma postagem?
Notifica por meio do sistema. A partir daquela notificação, a plataforma é
responsável por quaisquer danos que houver.
No fim das contas, é o ônus de fazer
negócios. Jornais são juridicamente responsáveis por quaisquer danos que venham
do que publicam. Quando uma plataforma escolhe impulsionar alguma informação,
deveria ser responsável. Porque impulsionar, mostrar para muita gente, é
essencialmente uma decisão editorial. É igual ao jornal que escolhe qual artigo
publicar e qual não.
Derrubar por completo é ruim. Organizar a
interpretação do artigo 19 é a melhor solução.
Passa pano não o nome disso é censura
ResponderExcluirQuem tem que cuidar desse assunto é o Congresso o STF não está aí pra isso Ele está apenas para manter e zelar pela Constituição
Os jornalistas aderiram à censura do STF que vergonha
Mas não vai dar em nada, porque as Big techs estão com a faca no pescoço , o Trump ameaçou quem embarcar na censura disse que vai pagar caro
Essas plataformas estão num beco sem saída , mas eu acho que elas preferem encarar o STF a fúria do laranjão Tio SAN
A ver..,
Vocês são uma vergonha do jornalismo
Consideram todos esses absurdos autoritários do STF coisa mais normal, vergonha!!