O Globo
Regular a IA na sociedade já é muito difícil,
quanto mais sua aplicação bélica, que foge completamente ao nosso controle
Já se passaram seis meses de guerra na Faixa
de Gaza, e há um perigo grande de esquecermos as mortes e sofrimento vividos no
front, tomando-os como algo cotidiano, como a aurora e o crepúsculo. Novos
dados podem reativar nossa atenção. A tão famosa e celebrada inteligência
artificial (IA) aparece ali como o principal instrumento na
liquidação em massa dos palestinos, mulheres e crianças, em primeiro lugar.
Essa participação da inteligência artificial foi denunciada pela revista +972 e pelo site Local Call, ambos de Israel. Repercutiu na imprensa do mundo inteiro, e por meio dela ficamos sabendo que essa máquina mortal foi idealizada há algum tempo. Ela aparece no livro “Equipe humano-máquina”, de autoria de um homem que assina brigadeiro-general Y. S. O jornal L’Humanité afirma que, na realidade, o livro foi escrito por um chefe de serviço de inteligência de Israel.
roblema central que o texto procura enunciar
é a concepção de uma máquina capaz de tratar uma quantidade maciça de dados e
gerar alvos potenciais, no fogo da ação. A denúncia dos órgãos alternativos de
Israel afirma que essa máquina existe, na forma de um programa chamado
Lavender. Ele teve papel central nos bombardeios, e os resultados da devastação
provocada são tratados como se fossem produto de decisões humanas.
Os alvos inicialmente eram os dirigentes do
Hamas, mas se ampliaram para muitos palestinos que tinham participação
secundária. Fala-se em 37 mil alvos, processados e definidos no ataque com
espaços de 20 segundos. O Lavender resolvia o que o livro definia como ponto de
estrangulamento da ação destrutiva, quando levada apenas pelo cérebro humano:
encontrar alvos rapidamente e tomar a decisão de alvejá-los.
Nesse momento em que se fala tanto de IA, e
os grandes nomes do mundo tecnológico, como Elon Musk, são saudados aos gritos
modernos de “Caramuru, Caramuru”, é importante parar para pensar. Regular a IA
na sociedade já é muito difícil, quanto mais sua aplicação bélica, que foge
completamente a nosso controle.
Mas há perguntas pertinentes que podem ser
levadas para a própria discussão sobre os limites da guerra. Uma delas é esta:
é eticamente defensável que a máquina defina alvos e realize execuções em
massa, sem passar pelo crivo humano?
Quando se discute tecnologia, o senso comum é
que ela é apenas um instrumento para atingirmos nossos objetivos. Os mais
pessimistas, como Martin Heidegger, lembraram que ela poderia moldar o ser
humano, que dificilmente seria o mesmo depois dessa revolução.
As denúncias surgidas após os primeiros seis
meses de guerra ajudam a explicar por que morrem tantas crianças e mulheres.
Muito possivelmente, os alvos não são mais apenas instalações militares ou
prédios estratégicos, mas apenas pessoas. Pessoas, de um modo geral, são
casadas, criam filhos, cuidam dos mais velhos que vivem em casa. É aterrador
pensar que, de 20 em 20 segundos, uma família inteira irá para o espaço apenas
porque o Lavender, processando os dados, apontou para elas.
No momento, o debate no Brasil se concentra
nas redes sociais. O pressuposto é que palavras têm consequências e podem ser
letais. A entrada da IA em cena significa muito mais. Decisões letais podem ser
tomadas sem a interferência direta do juízo humano.
Nem todas as grandes promessas se cumpriram
na plenitude. O Iluminismo, com sua fé na razão, acabou levando a uma
desastrada tentativa de controlar a natureza. As redes sociais prometiam mais
democracia, e hoje vive nelas um grande perigo para o sistema. A IA promete um
mundo novo de possibilidades, mas para as crianças de Gaza é apenas o anjo da
morte.
4 comentários:
Muito bom! Na sua coluna de ontem publicada neste blog, Dorrit Hazarim detalhou brilhantemente as tecnologias usadas pelo Estado TERRORISTA de Israel para ASSASSINAR FAMÍLIAS palestinas com algum membro suspeito por qualquer motivo de pertencer ao Hamas. O título da coluna dela: ALGORITMO DA MORTE.
Daniel é petralha; Daniel jamais exigiu que o Hamas se entregasse; Daniel é lixo. Mas poderia nos explicar quais seriam os motivos para se pertencer ao Hamas, além de querer destruir Israel...MAM
Israel não pode se comportar como um grupo terrorista.
"The Economist: Inteligência artificial vai tornar os cuidados de saúde melhores e mais seguros
Tendência é que eles também se tornem cada vez mais baratos, mas há desafios para que sirvam à população em geral tão bem quanto deveriam; leia a reportagem que abre a série especial"
Gabeira também é contra? MAM
Postar um comentário