segunda-feira, 15 de abril de 2024

Fernando Gabeira - A máquina mortal da IA em Gaza

O Globo

Regular a IA na sociedade já é muito difícil, quanto mais sua aplicação bélica, que foge completamente ao nosso controle

Já se passaram seis meses de guerra na Faixa de Gaza, e há um perigo grande de esquecermos as mortes e sofrimento vividos no front, tomando-os como algo cotidiano, como a aurora e o crepúsculo. Novos dados podem reativar nossa atenção. A tão famosa e celebrada inteligência artificial (IA) aparece ali como o principal instrumento na liquidação em massa dos palestinos, mulheres e crianças, em primeiro lugar.

Essa participação da inteligência artificial foi denunciada pela revista +972 e pelo site Local Call, ambos de Israel. Repercutiu na imprensa do mundo inteiro, e por meio dela ficamos sabendo que essa máquina mortal foi idealizada há algum tempo. Ela aparece no livro “Equipe humano-máquina”, de autoria de um homem que assina brigadeiro-general Y. S. O jornal L’Humanité afirma que, na realidade, o livro foi escrito por um chefe de serviço de inteligência de Israel.

roblema central que o texto procura enunciar é a concepção de uma máquina capaz de tratar uma quantidade maciça de dados e gerar alvos potenciais, no fogo da ação. A denúncia dos órgãos alternativos de Israel afirma que essa máquina existe, na forma de um programa chamado Lavender. Ele teve papel central nos bombardeios, e os resultados da devastação provocada são tratados como se fossem produto de decisões humanas.

Os alvos inicialmente eram os dirigentes do Hamas, mas se ampliaram para muitos palestinos que tinham participação secundária. Fala-se em 37 mil alvos, processados e definidos no ataque com espaços de 20 segundos. O Lavender resolvia o que o livro definia como ponto de estrangulamento da ação destrutiva, quando levada apenas pelo cérebro humano: encontrar alvos rapidamente e tomar a decisão de alvejá-los.

Nesse momento em que se fala tanto de IA, e os grandes nomes do mundo tecnológico, como Elon Musk, são saudados aos gritos modernos de “Caramuru, Caramuru”, é importante parar para pensar. Regular a IA na sociedade já é muito difícil, quanto mais sua aplicação bélica, que foge completamente a nosso controle.

Mas há perguntas pertinentes que podem ser levadas para a própria discussão sobre os limites da guerra. Uma delas é esta: é eticamente defensável que a máquina defina alvos e realize execuções em massa, sem passar pelo crivo humano?

Quando se discute tecnologia, o senso comum é que ela é apenas um instrumento para atingirmos nossos objetivos. Os mais pessimistas, como Martin Heidegger, lembraram que ela poderia moldar o ser humano, que dificilmente seria o mesmo depois dessa revolução.

As denúncias surgidas após os primeiros seis meses de guerra ajudam a explicar por que morrem tantas crianças e mulheres. Muito possivelmente, os alvos não são mais apenas instalações militares ou prédios estratégicos, mas apenas pessoas. Pessoas, de um modo geral, são casadas, criam filhos, cuidam dos mais velhos que vivem em casa. É aterrador pensar que, de 20 em 20 segundos, uma família inteira irá para o espaço apenas porque o Lavender, processando os dados, apontou para elas.

No momento, o debate no Brasil se concentra nas redes sociais. O pressuposto é que palavras têm consequências e podem ser letais. A entrada da IA em cena significa muito mais. Decisões letais podem ser tomadas sem a interferência direta do juízo humano.

Nem todas as grandes promessas se cumpriram na plenitude. O Iluminismo, com sua fé na razão, acabou levando a uma desastrada tentativa de controlar a natureza. As redes sociais prometiam mais democracia, e hoje vive nelas um grande perigo para o sistema. A IA promete um mundo novo de possibilidades, mas para as crianças de Gaza é apenas o anjo da morte.

 

4 comentários:

  1. Muito bom! Na sua coluna de ontem publicada neste blog, Dorrit Hazarim detalhou brilhantemente as tecnologias usadas pelo Estado TERRORISTA de Israel para ASSASSINAR FAMÍLIAS palestinas com algum membro suspeito por qualquer motivo de pertencer ao Hamas. O título da coluna dela: ALGORITMO DA MORTE.

    ResponderExcluir
  2. Daniel é petralha; Daniel jamais exigiu que o Hamas se entregasse; Daniel é lixo. Mas poderia nos explicar quais seriam os motivos para se pertencer ao Hamas, além de querer destruir Israel...MAM

    ResponderExcluir
  3. Israel não pode se comportar como um grupo terrorista.

    ResponderExcluir
  4. "The Economist: Inteligência artificial vai tornar os cuidados de saúde melhores e mais seguros
    Tendência é que eles também se tornem cada vez mais baratos, mas há desafios para que sirvam à população em geral tão bem quanto deveriam; leia a reportagem que abre a série especial"

    Gabeira também é contra? MAM

    ResponderExcluir