O Globo
Se substituímos a força de trabalho humana
pela máquina, quem responde pelos eventuais erros que ela possa cometer?
Desde o tempo do Google, costumo
consultar a plataforma a qualquer pequena doença, incômodo físico ou ziquizira.
Com o advento da inteligência artificial, as consultas se tornaram mais
frequentes. As respostas, copiosas, oferecem mais dados, indicam novos exames,
novos caminhos de pesquisa. Na aparência, um superconsultório médico.
Em contato com a médica Adrienne Moreno, que me atende já há alguns anos, comentei o desempenho da inteligência artificial e ouvi o que, de certa forma, desconfiava: as coisas não são tão positivas quanto parecem. Na opinião dela, o uso dessas consultas sem treinamento especial traz vários perigos, mesmo para os médicos.
Os modelos de linguagem dos robôs de IA —
conhecidos como large language models, ou LLMs — , quando usados de forma
descuidada, implicam alguns problemas. É um hábito que expõe o usuário a
diferentes vieses: da automação (o paciente substitui sua opinião pela da
máquina); da confirmação (ele se satisfaz quando a máquina concorda com ele);
da bajulação (a máquina elogia o usuário de forma exagerada). Esses vieses têm
sido estudados na prática médica, e já se provou que têm o potencial de
diminuir a precisão.
Posso confirmar alguns deles, sobretudo a
bajulação. Faço um curso de pronúncia inglesa usando IA. Ao cabo de cada aula,
os elogios são abundantes:
— Muito bem, você é ótimo, sua insistência
mostra seriedade.
E daí por diante, até o ponto de dizer:
— Seu trabalho mostra bem quem você é.
A pessoa fica se achando, quando, na verdade,
é apenas uma aula diária de 15 minutos.
Adrienne ressalta outro aspecto importante na
qualidade da máquina no cenário médico: a ética. Máquinas, segundo ela, não
carregam valores humanos ou códigos de ética. Podem dar respostas objetivas. Se
o algoritmo mostra que um paciente com mais de 80 anos tem poucas chances de
sobreviver a uma internação em CTI, um gestor pode decidir não investir
recursos nos mais velhos. Outro aspecto destacado por ela é a questão da
responsabilidade. Se substituímos a força de trabalho humana pela máquina, quem
responde pelos eventuais erros que ela possa cometer? Há uma proporção de
laudos da máquina que pode ser revisada por um especialista. Quando esses
laudos são muito numerosos, isso excede a capacidade do revisor e pode ser uma
fonte de erros.
O mais interessante nisso tudo é a falta de
regulamentação. Adrienne foi surpreendida com o anúncio de um aplicativo que se
dispõe a fazer um diagnóstico de leucemia apenas com um hemograma. Ela acha que
esse é um diagnóstico complexo, e, se alguém descobre uma maneira de abordá-lo
apenas com o hemograma, primeiro tem de validá-lo por meio de publicações, e
não usar um aplicativo sem qualquer regulamentação.
Tudo isso, segundo ela, indica um caminho
mais sério no uso da IA: treinar médicos para que sejam capazes de entender as
limitações da máquina. E as empresas de IA precisam introduzir filtros éticos
em seus modelos, para que sejam alinhados aos valores de cada país, evitando
que as máquinas sejam preconceituosas ao mostrar os dados.
Para Adrienne, é preciso endereçar o problema
da responsabilidade da IA antes que a máquina seja incorporada ao cotidiano
médico. Médicos — diz ela — conhecem seres humanos em níveis que a máquina
ainda não consegue alcançar. Mesmo se a máquina conseguir ser melhor do que
nós, será que precisamos que ela substitua as pessoas? O que não estaríamos
perdendo com essa substituição?
O interessante em toda a argumentação é que
ela não tem um enfoque nostálgico. A ideia é aproveitar ao máximo o uso da IA,
exigindo das empresas transparência no raciocínio da máquina em relação a
questões médicas — e reconhecendo a superioridade humana quando a questão é
cuidar da vida do outro.
Nenhum comentário:
Postar um comentário