sexta-feira, 24 de fevereiro de 2023

Pedro Doria - A Suprema Corte dos EUA contra algoritmos?

O Globo

O responsável pela seleção não é quem produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook. Ou o TikTok

A Suprema Corte americana começou a analisar um caso muito difícil, que poderá mudar para sempre a cara da internet. Os pais de Nohemi Gonzalez, uma universitária de 23 anos que morreu num ataque terrorista em Paris, estão processando o YouTube. Seus advogados alegam que os três responsáveis pelo ataque à casa de shows Bataclan, em 2015, foram radicalizados após assistirem a uma série de vídeos produzidos pelo Estado Islâmico (EI) e recomendados pelo site.

A praxe da Corte americana é escolher os casos que julgará. Ela não é obrigada a aceitar nenhum, mas, sempre que considera haver uma questão constitucional importante, entra no debate. Os advogados submetem aos nove juízes seus argumentos por escrito e, depois, são convidados a uma ou mais sessões de sustentação oral. É quando os ministros têm a oportunidade de compreender melhor como cada lado vê o tema em debate. A primeira sessão foi na última terça-feira.

O que está sendo testado é a Seção 230 da Lei de Decência nas Comunicações, aprovada pelo Congresso e sancionada pelo presidente Bill Clinton, em 1996. É a lei que rege a internet no país desde então. Naquela época, quando a indústria digital no Vale do Silício se concentrava ainda em hardware e software, e a internet não passava de promessa, a Seção 230 possibilitou o desenvolvimento da rede. Em essência, definiu que uma empresa com presença na web não poderia ser responsabilizada legalmente pelo que dizem usuários que publicam em seus sites. Em 1996, poucos sites ofereciam espaço a comentários. Havia também espaços de discussão, fóruns, começando a se popularizar. Não existiam ainda blogs, muito menos redes sociais. Não havia algoritmos de recomendação.

Este é o argumento dos advogados da família Gonzalez: a lei pode proteger o YouTube de qualquer coisa que o EI tenha decidido publicar, mas a recomendação por algoritmo é diferente. A partir do momento em que o YouTube pinça um vídeo específico dentre milhões para sugerir a quem assiste, aí o exercício de expressão não é mais dos terroristas. O YouTube, como qualquer outro serviço baseado em algoritmos, se exprime por meio das escolhas de conteúdo que faz. O responsável pela seleção não é quem produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook. Ou o TikTok.

Alguns ministros expressaram em suas perguntas dúvidas a respeito desse argumento. Afinal, mecanismos de seleção de conteúdo baseados em algoritmos tornaram a internet viável. Foi a revolução que o Google produziu quando apresentou seu sistema de buscas ainda no final do século passado. Havia outros sites de busca que apontavam para os locais na rede onde as palavras-chave estavam presentes. O Google, porém, fazia mais que oferecer uma lista de centenas ou milhares de links. Usava um algoritmo para recomendar hierarquicamente os melhores resultados de busca.

A internet se tornou útil ali.

Tornar as empresas responsáveis pelo que seus algoritmos recomendam, quiseram saber os ministros, não poderia abrir uma imensa onda de processos que trariam impactos econômicos inimagináveis? Afinal, a rede se ergue sobre tais algoritmos.

A pergunta que os juízes da Suprema Corte americana parecem fazer é onde está a linha divisória. Por óbvio, outras indústrias são responsáveis pelos danos que suas decisões internas produzem. Quando falamos de algoritmos, a partir de que momento as gigantes da tecnologia passam a ser responsáveis? A Suprema Corte tomará uma decisão neste ano — e ela pode ser até não decidir nada. Por enquanto.

 

Um comentário: