O Globo
O temor dominante é o dano potencial da
desinformação à democracia, particularmente com ‘deepfakes’
Em 2024, estão previstas eleições em mais de 60 países, envolvendo quase 50% da população adulta mundial e incluindo a escolha do presidente dos Estados Unidos, dos integrantes do Parlamento Europeu e dos prefeitos e vereadores no Brasil. Nos Estados Unidos, como noticiado pelo New York Times em março de 2023, os engenheiros republicanos e democratas estão empenhados em usar a inteligência artificial (IA) para aprimorar técnicas de microtargeting, gerar mensagens personalizadas e aumentar o impacto da publicidade. O temor dominante é o dano potencial da desinformação à democracia, particularmente com as deepfakes (amálgama de deep learning e fake, técnica que sintetiza imagens ou sons humanos com IA).
O ministro Alexandre de Moraes, presidente do
Tribunal Superior Eleitoral (TSE), tem manifestado sua preocupação com o uso de
inteligência artificial nas eleições de 2024:
— A sanção deve ser drástica. Quem se
utilizar de inteligência artificial para manipular a vontade do eleitor para
ganhar as eleições, se descoberto for, é cassação do registro, e, se for
eleito, é cassação do mandato — alerta o ministro.
Em dezembro, ele se reuniu com representantes
da Meta solicitando
o monitoramento e a explicitação de conteúdos manipulados por IA em suas redes
sociais (Facebook, Instagram, WhatsApp e
Thread).
Em 4 de janeiro, o TSE colocou em audiência
pública uma minuta de resolução assinada pela ministra Cármen Lúcia, que
exercerá a presidência do tribunal a partir do meio de 2024, com o objetivo de
punir o uso fraudulento da IA, estabelecendo que as campanhas deverão
explicitar a adoção da tecnologia na propaganda eleitoral. O escopo da
resolução define a fabricação ou a manipulação de conteúdo político-eleitoral
como “a criação ou a edição de conteúdo sintético que ultrapasse ajustes
destinados à melhoria da qualidade da imagem ou som”.
A eficácia dessas medidas, contudo, é
limitada, como atesta o próprio Alexandre de Moraes:
— Depois que as notícias fraudulentas são
produzidas, por mais que você combata, é impossível conseguir anular 100% os
malefícios. Até você comprovar que isso não é verdade, imagine o estrago que
faz na escolha do eleitor.
Ele complementa ponderando que nem todos
terão acesso ao desmentido ou acreditarão nele. Na recente eleição argentina,
ambas as campanhas usaram IA para produzir conteúdo autoelogioso e destratar o
oponente. Os rótulos de “conteúdo sintético” nas peças publicitárias foram
pouco eficazes, gerando confusão entre os eleitores em relação ao que era
verdadeiro ou falso.
Imaginemos que um candidato a prefeito usou
IA para produzir uma peça publicitária sintética contra seu oponente. Coerente
com o teor da minuta de resolução do TSE, a campanha desse candidato deveria
explicitar o uso de IA. Cenário 1: o candidato, cumprindo as regras eleitorais,
explicitou o uso de IA — a peça fake circulou nas redes sociais, como reconhece
o ministro Alexandre de Moraes, causando estrago na escolha dos eleitores
(parte significativa deles não compreende o que seja “produzido por IA” ou rótulos
assemelhados). Cenário 2: o candidato não explicitou o uso de IA — o TSE
identificou o problema ou a campanha adversária denunciou ao TSE. Em ambos os
casos, leva tempo até a proibição, o suficiente para causar dano. Vale lembrar
que as eleições de 2024 envolvem a escolha de prefeitos e vereadores em 5.568
municípios brasileiros.
A única maneira de salvaguardar o processo
eleitoral de 2024 — garantindo a integridade do sistema e protegendo a
democracia — é proibir explicitamente o uso de IA na propaganda eleitoral e
bani-la da criação das peças publicitárias de campanha, sejam elas no formato
de texto, imagem ou voz.
*Dora Kaufman, professora na PUC-SP e colunista
da Época Negócios, é autora do livro “Desmistificando a inteligência
artificial”
Um comentário:
Concordo.
Postar um comentário