O Globo
O responsável pela seleção não é quem
produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook. Ou o TikTok
A Suprema Corte americana começou a
analisar um caso muito difícil, que poderá mudar para sempre a cara da
internet. Os pais de Nohemi Gonzalez, uma universitária de 23 anos que morreu
num ataque terrorista em Paris, estão processando o YouTube. Seus advogados
alegam que os três responsáveis pelo ataque à casa de shows Bataclan, em 2015,
foram radicalizados após assistirem a uma série de vídeos produzidos pelo
Estado Islâmico (EI) e recomendados pelo site.
A praxe da Corte americana é escolher os casos que julgará. Ela não é obrigada a aceitar nenhum, mas, sempre que considera haver uma questão constitucional importante, entra no debate. Os advogados submetem aos nove juízes seus argumentos por escrito e, depois, são convidados a uma ou mais sessões de sustentação oral. É quando os ministros têm a oportunidade de compreender melhor como cada lado vê o tema em debate. A primeira sessão foi na última terça-feira.
O que está sendo testado é a Seção 230 da
Lei de Decência nas Comunicações, aprovada pelo Congresso e sancionada pelo
presidente Bill Clinton, em 1996. É a lei que rege a internet no país desde
então. Naquela época, quando a indústria digital no Vale do Silício se
concentrava ainda em hardware e software, e a internet não passava de promessa,
a Seção 230 possibilitou o desenvolvimento da rede. Em essência, definiu que
uma empresa com presença na web não poderia ser responsabilizada legalmente
pelo que dizem usuários que publicam em seus sites. Em 1996, poucos sites
ofereciam espaço a comentários. Havia também espaços de discussão, fóruns,
começando a se popularizar. Não existiam ainda blogs, muito menos redes
sociais. Não havia algoritmos de recomendação.
Este é o argumento dos advogados da família
Gonzalez: a lei pode proteger o YouTube de qualquer coisa que o EI tenha
decidido publicar, mas a recomendação por algoritmo é diferente. A partir do
momento em que o YouTube pinça um vídeo específico dentre milhões para sugerir
a quem assiste, aí o exercício de expressão não é mais dos terroristas. O
YouTube, como qualquer outro serviço baseado em algoritmos, se exprime por meio
das escolhas de conteúdo que faz. O responsável pela seleção não é quem
produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook. Ou o TikTok.
Alguns ministros expressaram em suas
perguntas dúvidas a respeito desse argumento. Afinal, mecanismos de seleção de
conteúdo baseados em algoritmos tornaram a internet viável. Foi a revolução que
o Google produziu quando apresentou seu sistema de buscas ainda no final do
século passado. Havia outros sites de busca que apontavam para os locais na
rede onde as palavras-chave estavam presentes. O Google, porém, fazia mais que
oferecer uma lista de centenas ou milhares de links. Usava um algoritmo para
recomendar hierarquicamente os melhores resultados de busca.
A internet se tornou útil ali.
Tornar as empresas responsáveis pelo que
seus algoritmos recomendam, quiseram saber os ministros, não poderia abrir uma
imensa onda de processos que trariam impactos econômicos inimagináveis? Afinal,
a rede se ergue sobre tais algoritmos.
A pergunta que os juízes da Suprema Corte
americana parecem fazer é onde está a linha divisória. Por óbvio, outras
indústrias são responsáveis pelos danos que suas decisões internas produzem.
Quando falamos de algoritmos, a partir de que momento as gigantes da tecnologia
passam a ser responsáveis? A Suprema Corte tomará uma decisão neste ano — e ela
pode ser até não decidir nada. Por enquanto.
Um comentário:
Muito interessante!
Postar um comentário