O que acontece quando leigos usam IA como médico, segundo estudo?
Pesquisadores de Oxford compararam a eficácia dos diagnósticos pela tecnologia, revelando como a precisão varia entre profissionais e leigos
Nos últimos anos, a busca por diagnósticos via Inteligência Artificial (IA) superou o hábito de pesquisar sintomas no Google. Essa mudança não se deve somente à agilidade, como à confiança crescente dos usuários na tecnologia. Um estudo recente, no entanto, aponta que o uso de chatbots, como o ChatGPT, por leigos para fins médico, geralmente, resulta em erros.
Riscos do uso de IA como médico
De acordo com a pesquisa desenvolvida por cientistas da Universidade de Oxford, a prática ainda faz com que as pessoas tomem decisões equivocadas que podem comprometer a saúde. Por outro lado, quando especialistas utilizam essas ferramentas, as taxas de acerto são significativas. Para chegar a esta conclusão, o levantamento reuniu 1.200 voluntários.
Os participantes receberam descrições de sintomas de condições comuns, como rinite alérgica e cólica renal. Em seguida, inseriram as informações na IA para obter diagnósticos e orientações de como prosseguir. Uma parte do grupo, contudo, foi instruída a pesquisar os sinais apenas em sites de busca convencionais. Os resultados do estudo, e então, revelaram que as consultas realizadas por profissionais geraram informações corretas em 94,9% dos casos.
Além disso, a tecnologia indicou procedimentos benéficos em mais da metade das vezes (56,3%). Entretanto, quando leigos buscavam respostas, a taxa de acerto caía para 34,5%, com recomendações adequadas em apenas 44,2% das ocasiões. Já o grupo que utilizou meios tradicionais disponíveis na internet obteve o dobro de orientações válidas em comparação aos usuários de IA.
De acordo com o levantamento publicado na revista Nature Medicine, isso ocorre principalmente porque os usuários podem omitir sintomas decisivos para o diagnóstico. Ademais, o problema está no prompt utilizado: leigos dificilmente dominam a terminologia técnica recorrente no campo médico, o que limita a precisão da resposta e ocasiona atitudes perigosas.
*Leia também: Crianças e jovens utilizam IA para desabafar e buscar conselhos; veja os riscos