IA do Google voltada à medicina cita órgão humano que não existe

Med-Gemini mencionou infarto em órgão que chamou de “gânglios basilares” em um artigo científico

IA do Google – Um erro grave cometido pelo modelo de inteligência artificial Med-Gemini, do Google, demonstrou os riscos do uso indiscriminado da tecnologia na área da saúde. Em um artigo científico assinado por mais de 50 autores, o sistema mencionou um infarto nos chamados “gânglios basilares” — um termo que, na prática, descreve um órgão que não existe.
A confusão surgiu da combinação indevida de dois conceitos reais: a artéria basilar, que irriga o tronco cerebral, e os gânglios da base, estruturas ligadas ao controle motor. Apesar da complexidade do material e do grande número de profissionais envolvidos, a falha passou despercebida durante toda a revisão do texto. O equívoco só foi identificado mais tarde pelo neurologista Bryan Moore, que alertou a empresa sobre a inconsistência.

LEIA: Moto voadora inspirada em Star Wars é anunciada por startup

Desenvolvido a partir do modelo Gemini e lançado em 2024, o Med-Gemini é voltado para aplicações clínicas, como interpretação de exames, elaboração de relatórios e respostas a profissionais da saúde. No entanto, o episódio evidencia a necessidade de validações mais rigorosas.
Embora o Google tenha feito uma correção silenciosa no blog oficial, a explicação só veio após a exposição pública do caso. A empresa afirmou que a IA aprendeu a “transcrição incorreta” a partir dos dados de treinamento. Curiosamente, o artigo original com o erro segue publicado sem alterações.
Pesquisadores e profissionais da saúde alertam para o chamado “viés de automação”, ou seja, a tendência de confiar excessivamente em sistemas automatizados, mesmo quando apresentam respostas equivocadas. Para eles, o problema não está apenas no erro em si, mas na forma como ele é apresentado, com a mesma confiança de uma resposta correta.
Casos semelhantes já foram registrados, como o relatado por Maulin Shah, diretor de informação médica da rede Providence, em que uma IA reproduziu um diagnóstico incorreto de câncer registrado como negativo.
Outro exemplo vem da pesquisadora Judy Gichoya, que obteve respostas diferentes ao apresentar o mesmo raio-x à IA: com uma pergunta detalhada, houve acerto; com uma mais simples, a IA classificou o exame como normal.
Para especialistas, episódios como o dos “gânglios basilares” mostram que o uso de IA na medicina exige mais do que eficiência técnica: requer responsabilidade, transparência e, principalmente, revisão humana constante.

(Com informações de Tecnoblog)
(Foto: Reprodução/Freepik/DC Studio)

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp
Rolar para cima