Valor Econômico
Fica cada vez mais difícil saber o que é ou
não um fato, e um dos fundamentos da democracia é atingido
O líder está diante das câmeras. Olho no
monitor, traje formal, fundo neutro, bandeiras do país à esquerda e à direita,
proclama a vitória do seu partido nas eleições e conclama o povo a ficar
vigilante para que não lhe garfem o resultado. Adverte contra “fake news”: seu
principal adversário teve a desfaçatez de se declarar vitorioso, embora sua
sigla tenha conseguido 30 cadeiras a menos. “Ninguém aqui acredita nele, mas a
imprensa internacional também está publicando essas bobagens”, diz.
Para quem ainda negligencia a influência da inteligência artificial no processo eleitoral convém prestar atenção ao que aconteceu no Paquistão na semana passada. O líder do vídeo mencionado é Imran Khan, um ex-primeiro-ministro, e ele não concorreu às eleições e nem gravou nada.
O motivo do impedimento soa familiar para os
brasileiros. Está preso, acusado de corrupção, condenado por supostamente ter
vendido presentes recebidos como chefe de Estado. Entre os quais seis relógios
Rolex, de acordo com a Al-Jazeera.
Antes que se possa avançar em analogias,
Imran Khan também trombou com as Forças Armadas, de longe o principal vetor de
poder no Paquistão, desde sempre.
Todo o vídeo descrito acima é produto da nova
tecnologia, adotada sem subterfúgio. As contas oficiais de Imran Khan
registraram na postagem que se tratava de IA. Mas o uso dessa ferramenta é
perturbador. Onde está a fronteira do que se convenciona chamar de realidade,
quando uma fraude política é denunciada em um discurso jamais feito, em vídeo
nunca gravado?
O caso do Paquistão é o mais recente, mas não
o primeiro. Em 2022, na Coreia do Sul, os candidatos à Presidência criaram
avatares para interagir nas redes sociais com o eleitorado mais jovem. Sem
freio nenhum.
Cada um tinha o seu dublê. Tornou-se possível
a um candidato melhorar a sua voz, retocar a sua aparência, assumir
compromissos para um determinado nicho e outros para outro. Não houve nenhum
questionamento relevante. A isso se convencionou chamar de “IA do bem”.
Na Argentina, no ano passado, prevaleceu a
manipulação para campanha negativa. Circulou nas redes um vídeo em que o
candidato derrotado à Presidência, Sergio Massa, era flagrado cheirando
cocaína. Tratava-se de “deep fake”. Repercutiu pouco na superfície, mas o
efeito subterrâneo será sempre desconhecido.
Fica cada vez mais difícil saber o que é ou
não um fato, e um dos fundamentos da democracia é atingido. Desaparece o
princípio da boa-fé. “Há uma corrosão muito rápida da estrutura de confiança na
sociedade para fazer as escolhas públicas”, observa Marco Aurélio Ruediger,
diretor da Escola de Comunicação da FGV do Rio de Janeiro.
O Tribunal Superior Eleitoral está prestes a
regulamentar o uso da IA no Brasil - deve fazê-lo, em tese, até 5 de março - e
a tendência é que algo parecido com o que aconteceu no Paquistão possa ocorrer
aqui. Tende a ser permitido que uma candidatura use IA, desde que se avise o
eleitor.
As balizas colocadas devem ser as seguintes,
segundo minuta da resolução do TSE que foi discutida em uma audiência pública
no mês passado: uma resolução irá determinar que a IA “deve ser acompanhada de
informação explícita e destacada de que o conteúdo foi fabricado ou manipulado
e qual tecnologia foi utilizada”.
O texto da minuta ainda proíbe na propaganda
“conteúdo fabricado ou manipulado de fatos sabidamente inverídicos ou
gravemente descontextualizados com potencial de causar danos ao equilíbrio do
pleito ou à integridade do processo eleitoral, inclusive na forma de
impulsionamento”.
O texto da minuta sugere que a
responsabilidade da aplicação das normas deve ficar a cargo do “provedor de
aplicação de internet que permita a veiculação de conteúdo eleitoral”, e aqui
reside uma polêmica: não será dar poder demais para Meta, Google, Elon Musk e
TikTok?
Ruediger aponta que a pressão sobre as
plataformas, e não sobre o autor da publicação, parece ser a tendência
internacional onde a preocupação é maior, como na União Europeia, mas ressalta
que país nenhum encontrou uma fórmula de blindar a democracia contra os
aspectos mais disruptivos da IA. O ideal, aponta, é o que não foi feito: as
próprias instituições desenvolverem a sua tecnologia para detectar manipulação,
numa estratégia de fogo contra fogo.
Para Diogo Rais, professor de direito
eleitoral da Universidade Mackenzie, não é claro o compromisso das plataformas,
ou pelo menos não de todas elas, em combater a desinformação eleitoral, fora o
risco de falha, provocando o que chama de efeito “rebote”. Uma peça com uso de
IA poderia ganhar uma espécie de selo de autenticidade, na hipótese de uma
plataforma não ser capaz de identificar a manipulação, ou não quiser fazê-lo.
Para ele, a responsabilidade da rotulagem
deveria ser das próprias campanhas. “O beneficiário direto da IA é que deveria
ter a responsabilidade integral pelo seu uso”, ressalta.
Não se questiona mais, como se fosse um dado
inexorável, o próprio uso da IA nas eleições.
César Felício
Nenhum comentário:
Postar um comentário