Folha de S. Paulo
Computadores, ao papagaiar nossas
instanciações, acabam reproduzindo nossos vieses
Os não tão novos se lembrarão de quão ruins eram os primeiros programas de computador que se propunham a traduzir textos de um idioma para outro. Muita coisa não fazia sentido e, do que fazia, grande parte estava simplesmente errada. Línguas naturais encerram uma carga quase proibitiva de ambiguidades e polissemias. O panorama começou a mudar quando os programadores abandonaram a estratégia linguisticamente mais intuitiva de traba lhar em cima de listas de palavras (dicionário) combinadas com as regras sintáticas e partiram para a força bruta.
Inspirados nas ideias de Claude Shannon (1916-2001) e sua teoria da informação e com
acesso a megabancos de dados de documentos bilíngues, com bilhões e bilhões de
frases, os cientistas resolveram apostar em métodos estatísticos, que analisam
todas as possibilidades de traduções registradas, calculam suas frequências e a
partir daí tentam adivinhar a expressão "certa". Funcionou, e
programas como o ChatGPT e seus concorrentes são os filhotes desses algoritmos
linguísticos ancestrais.
Vejo aí duas lições a extrair. A primeira é
que o sucesso do método revela que clichês e repetições estão muito mais
profundamente entranhados em nossas existências do que estaríamos prontos a
admitir. Gostamos de nos imaginar como seres criativos, mas a verdade é que
somos tão previsíveis que, quando computadores modelam nossas repetições e agem
segundo seus padrões, eles se passam bem por humanos, sendo aprovados sem
maiores dificuldades no teste de Turing.
A segunda é que os computadores, ao papagaiar nossas instanciações, acabam
reproduzindo nossos vieses. É lamentável, mas não chega a ser uma surpresa que
esses programas linguísticos incorram em racismo, delírios, explosões do que
parece ser raiva, inventem citações e até mesmo fatos. Como diria Nietzsche, isso é "humano, demasiado humano".
PS – Dou dez dias de trégua aos leitores.
Feliz descanso!
ResponderExcluir