sexta-feira, 16 de fevereiro de 2024

César Felício - A hora da Inteligência Artificial nas eleições

Valor Econômico

Fica cada vez mais difícil saber o que é ou não um fato, e um dos fundamentos da democracia é atingido

O líder está diante das câmeras. Olho no monitor, traje formal, fundo neutro, bandeiras do país à esquerda e à direita, proclama a vitória do seu partido nas eleições e conclama o povo a ficar vigilante para que não lhe garfem o resultado. Adverte contra “fake news”: seu principal adversário teve a desfaçatez de se declarar vitorioso, embora sua sigla tenha conseguido 30 cadeiras a menos. “Ninguém aqui acredita nele, mas a imprensa internacional também está publicando essas bobagens”, diz.

Para quem ainda negligencia a influência da inteligência artificial no processo eleitoral convém prestar atenção ao que aconteceu no Paquistão na semana passada. O líder do vídeo mencionado é Imran Khan, um ex-primeiro-ministro, e ele não concorreu às eleições e nem gravou nada.

O motivo do impedimento soa familiar para os brasileiros. Está preso, acusado de corrupção, condenado por supostamente ter vendido presentes recebidos como chefe de Estado. Entre os quais seis relógios Rolex, de acordo com a Al-Jazeera.

Antes que se possa avançar em analogias, Imran Khan também trombou com as Forças Armadas, de longe o principal vetor de poder no Paquistão, desde sempre.

Todo o vídeo descrito acima é produto da nova tecnologia, adotada sem subterfúgio. As contas oficiais de Imran Khan registraram na postagem que se tratava de IA. Mas o uso dessa ferramenta é perturbador. Onde está a fronteira do que se convenciona chamar de realidade, quando uma fraude política é denunciada em um discurso jamais feito, em vídeo nunca gravado?

O caso do Paquistão é o mais recente, mas não o primeiro. Em 2022, na Coreia do Sul, os candidatos à Presidência criaram avatares para interagir nas redes sociais com o eleitorado mais jovem. Sem freio nenhum.

Cada um tinha o seu dublê. Tornou-se possível a um candidato melhorar a sua voz, retocar a sua aparência, assumir compromissos para um determinado nicho e outros para outro. Não houve nenhum questionamento relevante. A isso se convencionou chamar de “IA do bem”.

Na Argentina, no ano passado, prevaleceu a manipulação para campanha negativa. Circulou nas redes um vídeo em que o candidato derrotado à Presidência, Sergio Massa, era flagrado cheirando cocaína. Tratava-se de “deep fake”. Repercutiu pouco na superfície, mas o efeito subterrâneo será sempre desconhecido.

Fica cada vez mais difícil saber o que é ou não um fato, e um dos fundamentos da democracia é atingido. Desaparece o princípio da boa-fé. “Há uma corrosão muito rápida da estrutura de confiança na sociedade para fazer as escolhas públicas”, observa Marco Aurélio Ruediger, diretor da Escola de Comunicação da FGV do Rio de Janeiro.

O Tribunal Superior Eleitoral está prestes a regulamentar o uso da IA no Brasil - deve fazê-lo, em tese, até 5 de março - e a tendência é que algo parecido com o que aconteceu no Paquistão possa ocorrer aqui. Tende a ser permitido que uma candidatura use IA, desde que se avise o eleitor.

As balizas colocadas devem ser as seguintes, segundo minuta da resolução do TSE que foi discutida em uma audiência pública no mês passado: uma resolução irá determinar que a IA “deve ser acompanhada de informação explícita e destacada de que o conteúdo foi fabricado ou manipulado e qual tecnologia foi utilizada”.

O texto da minuta ainda proíbe na propaganda “conteúdo fabricado ou manipulado de fatos sabidamente inverídicos ou gravemente descontextualizados com potencial de causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral, inclusive na forma de impulsionamento”.

O texto da minuta sugere que a responsabilidade da aplicação das normas deve ficar a cargo do “provedor de aplicação de internet que permita a veiculação de conteúdo eleitoral”, e aqui reside uma polêmica: não será dar poder demais para Meta, Google, Elon Musk e TikTok?

Ruediger aponta que a pressão sobre as plataformas, e não sobre o autor da publicação, parece ser a tendência internacional onde a preocupação é maior, como na União Europeia, mas ressalta que país nenhum encontrou uma fórmula de blindar a democracia contra os aspectos mais disruptivos da IA. O ideal, aponta, é o que não foi feito: as próprias instituições desenvolverem a sua tecnologia para detectar manipulação, numa estratégia de fogo contra fogo.

Para Diogo Rais, professor de direito eleitoral da Universidade Mackenzie, não é claro o compromisso das plataformas, ou pelo menos não de todas elas, em combater a desinformação eleitoral, fora o risco de falha, provocando o que chama de efeito “rebote”. Uma peça com uso de IA poderia ganhar uma espécie de selo de autenticidade, na hipótese de uma plataforma não ser capaz de identificar a manipulação, ou não quiser fazê-lo.

Para ele, a responsabilidade da rotulagem deveria ser das próprias campanhas. “O beneficiário direto da IA é que deveria ter a responsabilidade integral pelo seu uso”, ressalta.

Não se questiona mais, como se fosse um dado inexorável, o próprio uso da IA nas eleições.

César Felício 

 

Nenhum comentário:

Postar um comentário