“Novas Táticas Alarmantes”: deepfakes com médicos reais espalham desinformação nas redes
Vídeos manipulados por inteligência artificial invadiram o TikTok e outras redes, usando rostos e vozes de médicos reais para promover suplementos sem eficácia comprovada e convencer mulheres na menopausa a comprar produtos milagrosos. A estratégia, que mistura tecnologia sofisticada com práticas enganosas de marketing, já é considerada uma das formas mais perturbadoras de desinformação médica dos últimos anos.
A organização independente de verificação de fatos Full Fact identificou centenas de deepfakes envolvendo profissionais de saúde e influenciadores. Nos vídeos, versões totalmente fabricadas desses especialistas recomendam probióticos, resinas naturais e compostos vegetais comercializados pela empresa americana Wellness Nest, sem qualquer base científica.
Médicos transformados em porta-vozes falsos
Os criadores dos deepfakes não partem do zero — utilizam trechos reais de palestras, entrevistas e eventos acadêmicos. Em seguida, substituem áudio e movimentos faciais, criando a ilusão de que médicos respeitados estão endossando produtos duvidosos.
Um dos casos mais gritantes envolve o professor David Taylor-Robinson, especialista em saúde infantil da Universidade de Liverpool. Em agosto, ele descobriu que o TikTok estava exibindo ao menos 14 vídeos falsificados com sua imagem. Em um deles, sua “versão” digital explicava um suposto sintoma da menopausa chamado “perna termométrica”, alegando que mulheres sentem naturalmente a necessidade de colocar uma perna para fora da cama para regular a temperatura corporal — sintoma que não existe na literatura médica.
Para completar o absurdo, o deepfake recomendava um probiótico com “10 extratos vegetais” e garantia resultados após poucas semanas.
“Essa é definitivamente uma tática nova, perturbadora e bastante sinistra”, afirmou o verificador de fatos Leo Benedictus, responsável pela investigação. Ele alerta que a prática usa IA para “simular credibilidade”, explorando a confiança pública em figuras médicas.
A demora na remoção e a falha das plataformas
Taylor-Robinson relatou que o processo para remover o conteúdo foi lento e confuso: “No início, disseram que alguns vídeos violavam as regras, e outros não. Era absurdo, porque todos eram deepfakes.”
Outro alvo foi Duncan Selby, ex-diretor da Public Health England, também transformado digitalmente em um “especialista em menopausa”. Um de seus vídeos adulterados descrevendo a mesma “perna termométrica” foi classificado como “impressionantemente convincente”.
“É ficção do início ao fim. E não tem graça, porque as pessoas acreditam”, disse Selby.
A Full Fact ainda encontrou versões semelhantes no X, Facebook e YouTube, indicando que o problema é sistêmico.
Especialistas pedem ação urgente
Com o avanço das ferramentas de IA generativa, especialistas pedem que as plataformas adotem mecanismos mais rigorosos para identificar e bloquear conteúdos adulterados que possam colocar vidas em risco. Deepfakes médicos não apenas distorcem informações, mas manipulam decisões de saúde, incentivam compras enganosas e afetam a confiança pública em instituições científicas.
As redes sociais, segundo analistas, precisam acelerar processos de denúncia, melhorar detecção automática de manipulações e criar métodos mais transparentes de rotulagem de conteúdos gerados por IA.