O Globo
Os sistemas devem sair trabalhando sem que
alguém dê o comando
Na semana passada, Sam Altman se sentou no
palco da conferência DealBook, do jornal New York Times. O CEO da OpenAI
encarou uma entrevista de pouco mais de meia hora com o jornalista Andrew Ross
Sorkin, em que o destaque veio ali pelo meio.
— A AGI está bastante próxima. Vem, talvez,
já no ano que vem — afirmou Altman.
A sigla em inglês quer dizer inteligência
artificial geral. Mais frequentemente, é descrita de forma mais simples: aquele
momento em que inteligências artificiais igualam ou superam a humana.
Uma pausa dramática se faz necessária. Altman sugeriu que IAs podem superar a inteligência humana brevemente. Talvez no ano que vem.
Só que, simultaneamente, fez algo ainda mais
estranho. Tratou o evento como algo pouco extraordinário.
— Acontecerá antes do que imaginam — afirmou
Altman —, mas importará pouco. Muitos dos riscos sobre os quais alertamos com a
IA não ocorrerão no momento da AGI. A economia se moverá mais rápido, as coisas
se desenvolverão com mais velocidade, mas a partir daí há um longo avanço
partindo da AGI até o que chamamos de superinteligência.
A declaração é estranha e precisa ser
decodificada. Há um ano, o próprio Altman fez um tour mundial, com parada no
Rio de Janeiro, alertando aos governos que procedessem à regulação rápido
perante os riscos de a inteligência artificial ultrapassar as capacidades
humanas. Agora, mudou o discurso de forma bastante radical e cria um vácuo, uma
distância, entre duas categorias novas. De um lado, AGI; do outro, lá na
frente, algo chamado superinteligência.
A explicação possivelmente começa no contrato
que sua empresa, a OpenAI, tem com a Microsoft. A sacada foi do Financial
Times. Tendo investido US$ 13 bilhões no desenvolvimento do GPT, a companhia
fundada por Bill Gates tem
acesso total às tecnologias desenvolvidas pela OpenAI, mas há uma cláusula de
ruptura. Esse acesso se encerra quando a AGI for alcançada.
Evidentemente, os advogados não soltaram a
expressão sem defini-la bem. Então, não basta Altman reinterpretar o que quer
dizer inteligência artificial geral numa entrevista. O que vale é o que está no
contrato:
— São sistemas autônomos com performance
superior à humana na maioria do trabalho com valor econômico.
Tome o trabalho de um executivo. O serviço de
um advogado. A função de um jornalista. A capacidade de diagnóstico de um
médico. Quebre essas profissões em uma série de ações. O momento em que uma IA
for capaz de desempenhá-las de forma autônoma, melhor que um profissional
médio, essa definição de AGI se aplicará.
É isso que Altman quer dizer com “a economia
se moverá mais rápido”, com “as coisas se desenvolverão com mais velocidade”.
Boa parte do trabalho intelectual mais braçal seria substituído. Autonomia é
uma característica importante nessa equação. Os sistemas devem sair trabalhando
sem que alguém dê o comando. Eles são agentes. Têm agência. Percebem quando há
trabalho para realizar — e o realizam. Mas isso que ele descreve não é a
substituição definitiva de executivos, advogados, jornalistas ou médicos.
O que sobra é o ato de criação e a capacidade
de empatia. A possibilidade de ser original, de resolver problemas novos e
também de entender quando é o momento de sorrir. IAs poderão detectar tumores
em exames de imagem bastante antes de um médico. Mas não serão tão cedo as
entidades mais adequadas para dar a notícia. Ou conviver com pacientes. Um
contrato pode, sim, ser redigido por uma IA, assim como o preenchimento de uma
planilha ou a redação de uma lista de perguntas. Mas a pergunta que traz a
resposta que surpreende, o argumento que convence o juiz num caso muito
difícil, tudo aquilo que não está nos dados, que nunca foi feito, isso ainda
será exclusivo de seres humanos.
Altman tem se mostrado um executivo
interessante. Cada vez menos é claro e, cada vez mais, é críptico. Fala de um
jeito que parece dizer muito, mas exige esforço de interpretação. Sua
entrevista com o Times parece ser o lance de abertura numa renegociação de
contrato com a Microsoft. Quer mais dinheiro. E a OpenAI precisa de mais
dinheiro. Tem mais concorrentes no mercado, e o que faz custa bilhões. Ainda
assim, precisará entregar algo que pareça realmente novo e que possa chamar de
forma convincente de inteligência artificial geral.
O ano de 2025 será interessante.
Siga o dinheiro... O destino da humanidade, os empregos etc. são meros efeitos colaterais.
ResponderExcluir