terça-feira, 3 de março de 2026

A IA vai à guerra, por Pedro Doria

O Globo

É provável que os Estados Unidos tenham usado inteligência artificial para ter certeza da localização do aiatolá

Quão legítimo é o uso de inteligência artificial numa guerra? Da semana passada para cá, essa discussão veio para o centro do debate político americano. E, pela primeira vez, o Vale do Silício rachou. Mais que isso. O CEO da Anthropic, Dario Amodei, disse “não” ao governo Donald Trump. Nunca um líder havia dito “não” para esta Casa Branca, bem pelo contrário. No último ano e pouco, houve um festival de homenagens, elogios e até troféus dados ao presidente por CEOs da alta tecnologia. Ainda assim, mesmo tendo havido ruptura formal, a tecnologia da Anthropic fez parte do arsenal americano neste ataque ao Irã. Em quê? Ainda não sabemos.

Das três principais companhias de IA — na lista ainda estão OpenAI e Google —, a Anthropic era a principal fornecedora do Pentágono, o Departamento de Guerra americano. Mas mantinha uma posição clara, devidamente registrada em contrato, a respeito dos limites de uso. Sua IA, o Claude, não poderia ser usada em campo de batalha, nem para ajudar a definir alvos para uso letal à distância. Além disso, a Anthropic não queria sua tecnologia em armas autônomas, que definem alvos e atacam, sem participação de humanos na decisão. E, naturalmente, veto completo para vigilância em massa de cidadãos americanos. (Que seria ilegal, diga-se.)

Esses usos diversos se dividem em dois grupos. A IA, no estado atual, já seria bastante útil para agilizar a tomada de decisões durante uma batalha. Assim como para processar dados que levem à definição dos alvos ideais para ataques à distância — um ataque desses matou o aiatolá Ali Khamenei durante o fim de semana. Definir quem está onde, num país tão fechado quanto o Irã, depende de espiões, naturalmente. E Teerã se tornou a cidade com mais espiões por habitante do mundo nestes últimos anos. Mas não só. A informação precisa ser confirmada. Para isso se conta com dados de satélite, fotografias, conversas interceptadas. É uma massa de informação que, com um modelo particularmente bom de processamento de dados como o Claude, é imensamente facilitada sem perder precisão. Não sabemos se os Estados Unidos usaram a IA para ter certeza da localização do aiatolá no momento do ataque. É bastante provável que sim.

Outra coisa bastante distinta é o uso desses modelos para armas autônomas. Um drone que levante voo, vá a algum canto, selecione onde atacar — e puxe o gatilho por conta própria. Dispare sem que um ser humano participe da conversa, entenda por que a IA decidiu tal coisa e corrobore se é mesmo para disparar. Inteligências artificiais falham. Falham feio. Vidas humanas não deveriam estar “nas mãos” de modelos como os que temos hoje.

É preciso compreender a natureza da Anthropic. Amodei e seu time estavam na equipe que desenvolveu o GPT 1 e, principalmente, o 2. Foi essa a primeira versão a deixar claro que IAs eram capazes de sustentar conversas tal qual seres humanos. Esse núcleo de engenheiros deixou a OpenAI por ter a impressão de que a empresa era relapsa com questões éticas e de segurança. De que punha a velocidade de desenvolvimento na frente. Todo o branding da Anthropic se baseia na ideia de que a segurança, de que responsabilidade ética são princípios essenciais. De que humanos estarão sempre no comando. Quando o Pentágono exigiu a remoção de determinadas cláusulas, o comando da empresa se viu perante uma decisão existencial. Ou rompia com seus princípios fundadores, ou dizia “não” ao governo Trump. Disse “não”.

A OpenAI disse “sim”. Segundo o CEO Sam Altman, o governo não usará o GPT para vigilância em massa de cidadãos americanos nem para armas autônomas. Então, qual é a diferença? Que fronteira a Anthropic se recusou a ultrapassar, mas a OpenAI topou? É possível que a diferença esteja nas firulas jurídicas, na maneira como as palavras se arranjam nas frases e abrem espaço a interpretações diversas. Os dois CEOs sabem, perfeitamente, quem é Donald Trump. Que ele é imprevisível. Que toma decisões no rompante, com frequência irresponsavelmente.

Os Estados Unidos não ordenaram um ataque militar que culmina com a morte de um chefe de Estado no pós-guerra. Operações da CIA, nos anos 1960, houve. Mas eram secretas, nada assumido. Que se deixe claro: Khamenei era um dos piores ditadores do mundo. Só nos últimos cinco anos, a ONU e a Anistia Internacional documentaram estupros em série contra manifestantes, homens e mulheres, presos nas cadeias iranianas. Uma das vítimas tinha 12 anos. Chibatadas seguidas de choques elétricos. Em janeiro deste ano, o governo ordenou que se abrisse fogo, de metralhadoras, contra passeatas. Morreram por baixo 30 mil pessoas. São raras as ditaduras que abrem fogo aberto contra passeatas. Nas que tivemos aqui na América Latina, nenhuma fez isso. Ainda assim, o assassinato de um chefe de Estado é uma linha que não se cruza impunemente. Abre a porteira para que se faça de novo, de novo e de novo. Ainda mais quando os critérios de tomada de decisão não estão claros.

A inteligência artificial que os Estados Unidos desenvolvem estará nas mãos de um governo que toma decisões graves sem objetivo claro e sem permissão do Congresso? Por que o Pentágono quis extirpar do contrato a proibição de uso para espionagem em massa de cidadãos americanos?

Essa conversa apenas começou.

Nenhum comentário: