O Estado de S. Paulo
A máquina nos convida para o papel de coadjuvantes na nossa própria história. E fala pelos cotovelos de silício
Sim, você sabe o que é o ChatGPT. Claro que
sabe: já leu a respeito, já viu notícias nos telejornais e, talvez, até já
tenha brincado com ele. O chatbot desenvolvido pelo Open AI Institute explodiu
nas preferências das massas interconectadas. A versão 3,5, que funciona pela
combinação de 175 bilhões de parâmetros simultaneamente, já bateu a marca de
120 milhões de usuários. A versão 4,0, a caminho, conta com 1 trilhão de
parâmetros.
As pessoas não falam de outra coisa. As máquinas também: não falam de outra coisa. Isso mesmo: agora, as máquinas conversam, escrevem sobre temas abstratos, muito além do “pegue a segunda saída à esquerda” ou de “por favor, espere na linha, a sua ligação é muito importante para nós”. Computadores e celulares foram promovidos a seres falantes, e já com ares de seres pensantes. O sujeito vai lá e pergunta: “Que verso de Bocage eu posso citar para a minha namorada hoje no jantar?”. O negócio responde, por escrito. “Como faço um bolo de laranja?” Ele ensina, em um segundo. “Qual a diferença entre um emir e um califa?” “Quem foi Ésquilo?” “Como reverter o aquecimento global?” “Vladimir Putin é movido pelas paixões tristes de que falou Espinosa?” “A trigonometria será um dia dispensável em cálculos geométricos?” “Vale a pena ler artigos no Estadão?”
Os templos do conhecimento se alvoroçam. O
cyber-oráculo tem aspectos viciantes, já sabemos, mas são os aspectos viciosos
que mais agitam a comunidade acadêmica. Estudantes recorrem a ele para redigir
seus deveres de casa. Como fica o professor? Como saber se aquele texto é,
mesmo, de quem o assina? Os métodos de avaliação escolar estão em xeque. O
plágio mudou de patamar. Direitos autorais para robôs entram na pauta.
As provas feitas em sala de aula, baseadas
na velha tecnologia de papel e caneta, renascem. As mais prestigiosas revistas
científicas do mundo se apressam em anunciar normas editoriais urgentes: não
aceitam papers redigidos por Inteligência Artificial (IA), embora admitam usar
a famigerada IA para melhor distribuir “conteúdos” nas redes.
Daqui para a frente, tudo vai ser
diferente. “O que vem por aí é uma enxurrada de inovações e nada no passado se
compara ao que está para acontecer”, avisou o professor Glauco Arbix, do
Departamento de Sociologia da USP, no seminário ChatGPT: potencial, limites e
implicações para a universidade, que ocorreu no Instituto de Estudos Avançados
da USP, em São Paulo, na terça-feira passada. Um dos mais influentes
pesquisadores brasileiros da Inteligência Artificial, Glauco diz que as
tecnologias em marcha não são “ferramentas” neutras: “não são uma reles chave
de fenda”.
Em resumo: já começou a grande mutação no
modo como os seres humanos se relacionam entre si e com o conhecimento, o
trabalho, o consumo e a cultura. As máquinas ainda não começaram a aprender a
ser gente, mas já começaram a se comportar como sujeitos de linguagem.
Problemas à vista. Se você for perguntar
aos psicanalistas o que distingue o humano dos outros animais, eles dirão que
só o humano é sujeito de linguagem, ao contrário das minhocas e das
calculadoras. Um antropólogo esboçará uma resposta na mesma linha. O
bicho-homem se distingue porque fala e, ao falar, ativa representações
abstratas e encadeia proposições orientadas por valores morais. Ora, o ChatGPT
faz tudo isso – ou, pelo menos, simula muito bem. Não que ele seja humano, não
é isso, mas as diferenças entre o humano e o não-humano vão ficando mais e mais
nubladas. Se máquinas são seres de linguagem (e se já há gente nos Estados
Unidos usando aplicativos conversadores para fazer terapia psicológica), o que,
afinal de contas, separa uma pessoa de carne e osso de um algoritmo palrador?
Há os que evitam o debate e se refugiam em
alegações técnicas. O ChatGPT comete erros, dizem, com alívio. De fato, no
dizer dos programadores e dos estudiosos da computação, a engenhoca entra em
alucinações: erra, induz a erro, mente – e tudo isso sem enrubescer.
Mas por acaso isso lá é critério para
garantir que o organismo não é humano? Errar é desumano? Desde quando? Outro
dia, numa resposta dada a uma doutoranda da USP, o prodígio digital se saiu com
um “à Deus”, com crase e tudo. O que pode haver de mais humano? Estamos às
voltas com um Rolando Lero maquínico, um personagem que tem caradura para
sustentar como óbvias afirmações despirocadas. E escreve “à Deus” com crase.
Outros dizem que o Chat não deveria nos
preocupar porque, na verdade, não é inteligente, apenas finge ser. Para esses,
o artefato passa a impressão de coerência lógica, mas não pensa coisa alguma.
Pode ser que estejam certos. No entanto, o mundo está cheio de gente que
ostenta a inteligência que não tem. Exatamente como o GPT. Serão elas menos
humanas?
E assim estamos. Com algoritmos que falam
(e, pior ainda, escutam), além de escrever (e até ler), a nossa irrelevância
fica ainda mais indisfarçável. A máquina nos convida para o papel de
coadjuvantes na nossa própria história. E fala pelos cotovelos de silício.
*Jornalista, é professor da ECA-USP
3 comentários:
"No entanto, o mundo está cheio de gente que ostenta a inteligência que não tem. Exatamente como o GPT. Serão elas menos humanas?" Não são menos humanas, apenas o abismo entre humanos e menos humanos vai aumentar tanto quanto possível.
Um belo artigo.
Um belo artigo e um mundo horrendo, Ademar.
Postar um comentário