Um novo estudo publicado em 24 de março na revista Radiology, da Sociedade Radiológica da América do Norte (RSNA), revela que tanto radiologistas quanto modelos de linguagem grandes e multimodais (LLMs) têm dificuldade em distinguir raios-X reais de imagens “deepfake” geradas por inteligência artificial (IA). Os resultados levantam preocupações sobre os riscos apresentados pelas imagens médicas sintéticas e destacam a necessidade de melhores ferramentas e treinamentos para garantir a precisão da imagiologia médica e preparar os profissionais de saúde a reconhecer deepfakes.
Um “deepfake” é um vídeo, foto, imagem ou arquivo de áudio que parece autêntico, mas foi criado ou alterado usando IA.
“Nosso estudo demonstra que esses raios-X deepfake são realistas o suficiente para enganar radiologistas, os especialistas em imagem médica mais altamente treinados, mesmo quando eles estavam cientes de que imagens geradas por IA estavam presentes,” disse o autor principal do estudo, Mickael Tordjman, M.D., bolsista de pós-doutorado da Icahn School of Medicine at Mount Sinai, em Nova Iorque. “Isso cria uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada puder ser indistinguível de uma real. Também há um risco significativo de cibersegurança se hackers obtiverem acesso à rede de um hospital e injetarem imagens sintéticas para manipular diagnósticos de pacientes ou causar um caos clínico generalizado ao undermar a confiabilidade fundamental do registro médico digital.”
Detalhes do Estudo e Teste de Imagens
A pesquisa incluiu 17 radiologistas de 12 instituições em seis países (Estados Unidos, França, Alemanha, Turquia, Reino Unido e Emirados Árabes Unidos). A experiência deles variava entre iniciantes e especialistas com até 40 anos de prática. No total, o estudo examinou 264 imagens de raios-X, divididas igualmente entre exames reais e gerados por IA.
Os participantes revisaram dois conjuntos de imagens separados e sem sobreposição. Um conjunto continha uma mistura de imagens reais e raios-X gerados pelo ChatGPT de diferentes partes do corpo. O segundo conjunto focava em raios-X do tórax, com metade reais e metade criadas usando o RoentGen, um modelo de difusão gerador de IA de código aberto desenvolvido por pesquisadores da Stanford Medicine.
Precisão na Detecção para Radiologistas e IA
Quando os radiologistas não foram informados de que imagens falsas estavam incluídas, apenas 41% reconheceram os raios-X gerados por IA após avaliar sua qualidade técnica. Após serem informados da presença de imagens sintéticas, a precisão média deles em distinguir real de falso aumentou para 75%.
O desempenho variou amplamente entre os indivíduos. Os radiologistas identificaram corretamente entre 58% e 92% das imagens geradas pelo ChatGPT. Os sistemas de IA apresentaram limitações semelhantes. Quatro LLMs multimodais — GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) e Llama 4 Maverick (Meta) — alcançaram taxas de precisão variando de 57% a 85%. Mesmo o ChatGPT-4o, que foi usado para gerar as imagens deepfake, não conseguiu detectar todas elas, embora tenha se saído melhor do que os outros modelos.
Para os raios-X do tórax gerados pelo RoentGen, os radiologistas alcançaram taxas de precisão entre 62% e 78%, enquanto os modelos de IA variaram de 52% a 89%.
A Experiência Não Garante a Detecção
O estudo não encontrou uma ligação entre os anos de experiência de um radiologista e sua capacidade de identificar raios-X falsos. Contudo, radiologistas especializados em musculoesquelético apresentaram um desempenho significativamente melhor do que outros subspecialistas.
Indícios Visuais em Raios-X Deepfake
Os pesquisadores identificaram vários padrões que podem aparecer em imagens sintéticas.
“Imagens médicas deepfake geralmente parecem perfeitas demais,” disse o Dr. Tordjman. “Os ossos são excessivamente lisos, as colunas são anormalmente retas, os pulmões são excessivamente simétricos, os padrões de vasos sanguíneos são excessivamente uniformes e as fraturas aparecem incomumente limpas e consistentes, frequentemente limitadas a um lado do osso.”
Riscos e Salvaguardas para Imagens Médicas
Os resultados destacam riscos sérios se raios-X deepfake forem mal utilizados. Imagens fabricadas poderiam ser usadas em casos legais ou inseridas nos sistemas hospitalares para influenciar diagnósticos e interromper cuidados.
Para reduzir essas ameaças, os pesquisadores recomendam proteções digitais mais robustas. Isso inclui marcas d’água invisíveis embutidas diretamente nas imagens e assinaturas criptográficas vinculadas ao tecnólogo no momento da captura da imagem, o que pode ajudar a verificar a autenticidade.
O Futuro da IA na Imagiologia Médica
“Estamos potencialmente apenas vendo a ponta do iceberg,” disse o Dr. Tordjman. “O próximo passo lógico nessa evolução é a geração de imagens sintéticas 3D por IA, como CT e ressonância magnética. Estabelecer conjuntos de dados educacionais e ferramentas de detecção agora é fundamental.”
Para apoiar a educação e conscientização, os pesquisadores disponibilizaram um conjunto de dados curado de deepfakes que inclui quizzes interativos para fins de treinamento.



