O Globo
Empresas não precisam aplicar as mesmas
regras fora do estado, porém a tendência é que as incorporem a suas políticas
internas
Muitos parlamentos pelo mundo, incluindo o nosso, estão ainda imobilizados perante a inteligência artificial. Mas, curiosamente, nas últimas semanas o Poder Legislativo da Califórnia aprovou pelo menos uma dezena de leis que o governador Gavin Newsom sancionou. Poderia ser apenas um estado americano a mais, só que não é. Hollywood fica na Califórnia, e o Vale do Silício também. Alguns dos principais interessados no tema, neste momento, são de lá. Newsom é de San Francisco, cidade em que algumas das principais companhias de IA têm sede. Por ser um político local, foi eleito com as doações de dinheiro de meio Vale. O jeito como a Califórnia regula IA impactará legisladores em todo o mundo.
Duas das leis estão diretamente ligadas à
cultura. Uma obriga que, quando a imagem ou a voz de um artista forem
representadas por inteligência artificial, isso seja dito ao público. Ninguém
pode ser enganado. Além disso, o uso de imagem e voz só pode ocorrer mediante
contrato assinado. O artista tem o direito de aprovar a obra criada pelo
computador e pode cobrar quanto quiser para autorizar réplicas digitais. A
segunda lei dá esse mesmo controle aos herdeiros de artistas, no caso de uso
comercial.
Outras duas leis miram profissionais de
saúde. Médicos, na Califórnia, agora precisam avisar seus pacientes sempre que
enviarem informação clínica usando IA generativa. Pode ser o texto de um
e-mail, um exame de imagem que tenha sido manipulado para ficar mais nítido,
não importa. Se a inteligência artificial contribuiu para processar aquela
informação específica, o paciente precisa ser avisado. E não só. Haverá limites
para automação em toda a indústria — seguradoras, hospitais e clínicas, assim
como os próprios profissionais de saúde, não podem tirar quaisquer conclusões
baseadas apenas no computador. Tudo precisa sempre ser revisado por um médico
ou profissional competente.
Uma lei trata de desinformação eleitoral — e
essa é radical. Se vídeo ou foto falsa de candidato forem publicados numa rede
social, quem distribui a desinformação poderá ser processado criminalmente.
Será preciso provar que agiu de má-fé, mas é a primeira vez que uma lei assim,
nos Estados Unidos, responsabiliza diretamente quem atua para desinformar.
A sexualidade, evidentemente, tinha de estar
na lista. Todos têm preocupação com deepfakes, as fotografias ou vídeos
artificiais em que pessoas de verdade aparecem nuas ou em situação erotizada.
Criar ou distribuir imagens desse tipo que pareçam autênticas agora é crime no
estado. Uma segunda lei obriga todas as grandes plataformas que hospedam
conteúdo produzido por terceiros a fornecer um mecanismo para vítimas desse
tipo de ataque pornográfico poderem imediatamente sinalizar que as imagens
estão lá. Perante o aviso, todas as cópias precisam ser retiradas
imediatamente. A análise sobre se as imagens foram mesmo construídas com IA
deve ser feita depois da retirada, não antes.
Não foi só isso. Todas as imagens produzidas
com IA, no estado da Califórnia, precisam agora ter uma marca-d’água digital.
Não é algo que se veja a olho nu. Mas todas as plataformas que geram imagem,
seja estática, seja vídeo, são obrigadas a fornecer um aplicativo gratuito que
qualquer um possa usar com facilidade. Esse app informa, imediatamente, se o
desenho, foto ou filme foi inventado pelo computador.
Na Califórnia, que tem uma Assembleia
Legislativa e um Senado estadual, como é comum nos Estados Unidos, o primeiro
semestre foi intenso, com debates e audiências públicas para que deputados e
senadores pudessem entender em que áreas deveriam se concentrar com urgência e
a natureza das regras que deveriam criar. Optaram por este caminho: em vez de
criar uma grande lei de IA, parlamentares se dividiram em seus gabinetes
redigindo várias leis com foco específico. Ao dividir o esforço, tiveram tempo
de produzir muito sobre um assunto complexo, porém em poucos meses. Além disso,
como a maioria das empresas americanas de IA são californianas, todas meio que
já saem de cara tendo de obedecer a essas leis. É claro que não precisam
aplicar as mesmas regras fora do estado, porém a tendência é que as incorporem
a suas políticas internas.
Houve, porém, uma lei que Newsom vetou, a
mais polêmica de todas. Ela obriga quem constrói modelos de IA a testar
pesadamente quaisquer problemas. O governador afirmou que é o tipo da lei que
tira do jogo as empresas pequenas —só as gigantes conseguiriam cumpri-la.
Nenhum comentário:
Postar um comentário