O Globo
É provável que os Estados Unidos tenham usado
inteligência artificial para ter certeza da localização do aiatolá
Quão legítimo é o uso de inteligência artificial numa guerra? Da semana passada para cá, essa discussão veio para o centro do debate político americano. E, pela primeira vez, o Vale do Silício rachou. Mais que isso. O CEO da Anthropic, Dario Amodei, disse “não” ao governo Donald Trump. Nunca um líder havia dito “não” para esta Casa Branca, bem pelo contrário. No último ano e pouco, houve um festival de homenagens, elogios e até troféus dados ao presidente por CEOs da alta tecnologia. Ainda assim, mesmo tendo havido ruptura formal, a tecnologia da Anthropic fez parte do arsenal americano neste ataque ao Irã. Em quê? Ainda não sabemos.
Das três principais companhias de IA — na
lista ainda estão OpenAI e Google —, a
Anthropic era a principal fornecedora do Pentágono, o Departamento de Guerra
americano. Mas mantinha uma posição clara, devidamente registrada em contrato,
a respeito dos limites de uso. Sua IA, o Claude, não poderia ser usada em campo
de batalha, nem para ajudar a definir alvos para uso letal à distância. Além
disso, a Anthropic não queria sua tecnologia em armas autônomas, que definem
alvos e atacam, sem participação de humanos na decisão. E, naturalmente, veto
completo para vigilância em massa de cidadãos americanos. (Que seria ilegal,
diga-se.)
Esses usos diversos se dividem em dois
grupos. A IA, no estado atual, já seria bastante útil para agilizar a tomada de
decisões durante uma batalha. Assim como para processar dados que levem à
definição dos alvos ideais para ataques à distância — um ataque desses matou o
aiatolá Ali Khamenei durante o fim de semana. Definir quem está onde, num país
tão fechado quanto o Irã, depende de espiões, naturalmente. E Teerã se tornou a
cidade com mais espiões por habitante do mundo nestes últimos anos. Mas não só.
A informação precisa ser confirmada. Para isso se conta com dados de satélite,
fotografias, conversas interceptadas. É uma massa de informação que, com um
modelo particularmente bom de processamento de dados como o Claude, é
imensamente facilitada sem perder precisão. Não sabemos se os Estados Unidos
usaram a IA para ter certeza da localização do aiatolá no momento do ataque. É
bastante provável que sim.
Outra coisa bastante distinta é o uso desses
modelos para armas autônomas. Um drone que levante voo, vá a algum canto,
selecione onde atacar — e puxe o gatilho por conta própria. Dispare sem que um
ser humano participe da conversa, entenda por que a IA decidiu tal coisa e
corrobore se é mesmo para disparar. Inteligências artificiais falham. Falham
feio. Vidas humanas não deveriam estar “nas mãos” de modelos como os que temos
hoje.
É preciso compreender a natureza da
Anthropic. Amodei e seu time estavam na equipe que desenvolveu o GPT 1 e,
principalmente, o 2. Foi essa a primeira versão a deixar claro que IAs eram
capazes de sustentar conversas tal qual seres humanos. Esse núcleo de
engenheiros deixou a OpenAI por ter a impressão de que a empresa era relapsa
com questões éticas e de segurança. De que punha a velocidade de
desenvolvimento na frente. Todo o branding da Anthropic se baseia na ideia de
que a segurança, de que responsabilidade ética são princípios essenciais. De
que humanos estarão sempre no comando. Quando o Pentágono exigiu a remoção de
determinadas cláusulas, o comando da empresa se viu perante uma decisão
existencial. Ou rompia com seus princípios fundadores, ou dizia “não” ao
governo Trump. Disse “não”.
A OpenAI disse “sim”. Segundo o CEO Sam
Altman, o governo não usará o GPT para vigilância em massa de cidadãos
americanos nem para armas autônomas. Então, qual é a diferença? Que fronteira a
Anthropic se recusou a ultrapassar, mas a OpenAI topou? É possível que a
diferença esteja nas firulas jurídicas, na maneira como as palavras se arranjam
nas frases e abrem espaço a interpretações diversas. Os dois CEOs sabem,
perfeitamente, quem é Donald Trump. Que ele é imprevisível. Que toma decisões
no rompante, com frequência irresponsavelmente.
Os Estados Unidos não ordenaram um ataque
militar que culmina com a morte de um chefe de Estado no pós-guerra. Operações
da CIA, nos anos 1960, houve. Mas eram secretas, nada assumido. Que se deixe
claro: Khamenei era um dos piores ditadores do mundo. Só nos últimos cinco anos,
a ONU e a Anistia Internacional documentaram estupros em série contra
manifestantes, homens e mulheres, presos nas cadeias iranianas. Uma das vítimas
tinha 12 anos. Chibatadas seguidas de choques elétricos. Em janeiro deste ano,
o governo ordenou que se abrisse fogo, de metralhadoras, contra passeatas.
Morreram por baixo 30 mil pessoas. São raras as ditaduras que abrem fogo aberto
contra passeatas. Nas que tivemos aqui na América Latina, nenhuma fez isso.
Ainda assim, o assassinato de um chefe de Estado é uma linha que não se cruza
impunemente. Abre a porteira para que se faça de novo, de novo e de novo. Ainda
mais quando os critérios de tomada de decisão não estão claros.
A inteligência artificial que os Estados
Unidos desenvolvem estará nas mãos de um governo que toma decisões graves sem
objetivo claro e sem permissão do Congresso? Por que o Pentágono quis extirpar
do contrato a proibição de uso para espionagem em massa de cidadãos americanos?
Essa conversa apenas começou.

Nenhum comentário:
Postar um comentário