terça-feira, 12 de agosto de 2025

O tropeço do GPT-5 – Pedro Doria

O Globo

É cedo para dizer se o GPT-5, que a OpenAI lançou na quinta-feira passada, é um modelo ruim de inteligência artificial. Mas é, certamente, o primeiro lançamento desastroso da empresa. Até aqui, a receptividade de cada novo anúncio tecnológico vinha ocorrendo com festa. Desta vez, não foi assim. As críticas começaram a chegar rapidamente. Em horas, enxurradas de clientes pagos do ChatGPT estavam se queixando. Reclamavam, principalmente, dizendo que o modelo anterior dava respostas melhores, mais completas. Será interessante acompanhar como a OpenAI encara esse seu primeiro momento de estar nas más graças do público. É, também, uma oportunidade para suas duas maiores concorrentes — de um lado, Google, com o Gemini; do outro, Anthropic, com o Claude.

Como isso pode ter acontecido? A OpenAI lançou o GPT-4 em março de 2023, menos de quatro meses depois de o ChatGPT explodir. Era, evidentemente, um avanço imenso. O modelo 4o veio em maio do ano passado. Todos compreendiam que não era uma atualização gigante e, no entanto, seus resultados pareciam consistentemente melhores. Enquanto trabalhava para pôr na rua algo que pudesse chamar de GPT-5, inúmeras melhorias incrementais foram aparecendo. O modo Deep Research, um botão que se clica no ChatGPT para que ele vá à web e faça uma pesquisa intensa, profunda e cheia de links de referências sobre qualquer assunto. Ou, então, os modelos capazes de raciocínio. Primeiro, o GPT-4 o1, depois o o3. Em vez de a IA responder de bate-pronto, elabora uma solução para o problema, aí a analisa, revê seu “raciocínio”, se debruça sobre a questão posta. Não foi só isso. Nesse período de mais de dois anos convivendo com o ChatGPT, nós o vimos ganhar a capacidade de analisar imagens, ler arquivos de planilha ou textos e, ao final, de produzir imagens. O sistema também passou a conversar em tempo real de um jeito que nenhuma Alexa jamais conseguiu.

Ainda assim, nos bastidores a equipe de programadores vinha se debatendo com dificuldades para construir uma atualização de grande porte. Todos esses sistemas de IA são baseados num jeito de criar algoritmos que aprendem por si enquanto devoram informação, chamado Modelo Transformer. O “T”, de GPT, é isso: Transformer. Foi, originalmente, uma criação do Google. Os cientistas da OpenAI descobriram que, quanto maior o volume de informação entregue a esse algoritmo, mais “sábio” ele se torna. Foi assim que essa pequena empresa ultrapassou a gigante na corrida usando a criação da veterana. Até o GPT-4, isso funcionou. Quanto maior o volume de dados para treinamento, melhor o modelo. Ao longo do ano passado, os programadores bateram num teto. O modelo de codinome Orion, que pretendiam batizar GPT-5, demonstrou que dobrar a base de treinamento, àquela altura, produzia não um salto de qualidade, mas só uma pequena melhoradinha. O Orion foi lançado, sem fanfarra, como GPT-4.5. E quase ninguém usava.

Então o que é que a OpenAI lançou, na semana passada? A empresa fechou-se em copas e não dá detalhes da arquitetura do novo modelo. Possivelmente adotaram uma lógica batizada, no Vale do Silício, de Mistura de Especialistas, ou MoE, no jargão americano. O GPT-5 possivelmente não é um modelo, mas vários modelos interligados. É um exímio programador de computadores. Bateu o Claude, que vinha se apresentando como líder nessa frente. Na lógica MoE, existe um modelinho treinado só com largos pedaços de programas de computador. Um especialista, pois. Especialistas podem ser de todo tipo. Um modelo específico para linguagem jurídica, outro para uma língua específica, um terceiro com conhecimento voltado para a área de saúde.

No lançamento do GPT-5, essas foram duas áreas que a OpenAI ressaltou, programação e saúde, reforçando a ideia de que são vários modelos especialistas interligados. Para que funcionem bem, é preciso um sistema de distribuição. Perante a pergunta que o usuário faz, o prompt, a IA precisa saber para que modelo jogar. Segundo o CEO da companhia, Sam Altman, este “roteamento” funcionou mal. Por isso a experiência inicial de muitos foi de um GPT piorado.

 

Nenhum comentário:

Postar um comentário

Observação: somente um membro deste blog pode postar um comentário.