‘Sou uma ‘Zé ninguém’ e usaram minha imagem em vídeo falso com IA para vender chá milagroso’


Golpistas mudaram boca e voz da influencer carioca Tânia Carvalho e promoveram um anúncio com vídeo falso vendendo um tratamento. Do lado esquerdo, o vídeo falso feito com a imagem de Tânia; do lado direito, o vídeo original
Reprodução/Instagram
O vídeo diz tudo ao contrário do que Tânia Carvalho defende. O rosto é o dela, o quarto é o dela, as pernas são a dela, a voz parece ser a dela, mas a mensagem é algo que ela nunca promoveria.
“Eu tenho lipedema, e eu já estava no grau dois. E eu vou te contar como eu saí disso aqui, para esse resultado aqui em apenas sete dias”, diz o vídeo disponível como anúncios no Instagram. Nas imagens, um antes e depois das pernas de Tânia.
Lipedema é uma doença que vem sendo “descoberta” nos últimos anos. Ela causa acúmulo de gordura nas pernas e braços de aproximadamente 10% das mulheres em todo o mundo. Os nódulos se assemelham a celulite e podem causar dor.
O vídeo falso continua até começar a promover um milagroso “chá especial”.
“Eu só precisava tomar ele toda manhã durante sete dias”, diz no vídeo a falsa Tânia.
“O chá vai agir na sua corrente sanguínea, liberando toda a gordura adiposa, tecidos inflamados e retenção de líquidos.”
Não há qualquer comprovação de que um chá possa fazer tal efeito. E Tânia sabe bem disso.
Há menos de um ano, a carioca de 31 anos começou a compartilhar sua rotina após ser diagnosticada com lipedema, com a intenção de reunir mulheres que sofrem com o mesmo problema.
Ela estava se preparando para fazer uma cirurgia de lipoaspiração específica para retirar as células de gordura afetadas pela doença e queria compartilhar seu pós-operatório.
No processo de descoberta e cuidado, a carioca aprendeu que o tratamento de lipedema é um processo multidisciplinar, envolvendo exercícios, alimentação, tratamentos.
Ou seja, nada de um chá milagroso.
No vídeo verdadeiro, inclusive, Tânia justamente defende que não é “só fazer alguma coisa que vai ter resultado”, contando que seu tratamento envolveu a intervenção cirúrgica.
“Tudo é muito mais complexo do que malhar um ano, tem muitos fatores, como hormonal, idade. A doença não é tão simples quanto parece”, explicou no vídeo para as seguidoras.
Os vídeos de Tânia chamaram a atenção no Instagram e acabaram reunindo uma pequena comunidade de mulheres. No Instagram, em março de 2025, eram pouco mais de 6 mil seguidoras.
Mas o tamanho da conta não impediu que Tânia acabasse sendo vítima do chamado deepfake, um vídeo com sua imagem criado por uma inteligência artificial (IA) baseado em sua voz, gestos e expressões faciais.
Há plataformas online que oferecem com facilidade a criação desse tipo de conteúdo, também conhecido como mídia sintética.
Pessoas famosas já têm sida vítimas desse tipo de vídeo há algum tempo. A imagem do médico Drauzio Varella, por exemplo, tem sido usada em vídeos que promovem tratamentos especiais ou medicamentos para resolver problemas de saúde. Todos falsos.
Celebridades como a cantora Ivete Sangalo e as apresentadoras Ana Maria Braga e Xuxa também já foram vítimas
Mas o caso como o de Tânia chama atenção por ser de uma pessoa com pouca visibilidade. Ou seja, a maioria das pessoas que viu o anúncio provavelmente não sabe reconhecer como ela fala originalmente ou como ela pensa.
Também é sinal de que muitas pessoas podem estar tendo suas imagens usadas sem nem saber.
Até a publicação dessa reportagem, o anúncio seguia disponível, apesar da denúncia de Tânia ao Instagram. A usuária recebeu uma mensagem que diz que o vídeo “segue os padrões da comunidade”.
Em nota à BBC News Brasil, a Meta, dona do Instagram, apenas afirmou que “atividades que tenham como objetivo enganar, fraudar ou explorar terceiros não são permitidas”, orientando pessoas a denunciarem na plataforma — algo que Tânia diz já ter feito. A empresa não disse se vai tirar o conteúdo do ar.
Tânia diz ainda não saber se vai prosseguir com alguma ação judicial, já que isso demandaria “energia e dinheiro”.
O iPad encontrado no rio Tâmisa que ajudou a desvendar série de crimes
Processada, Meta diz que copiar livros para treinar IA foi ‘uso justo’
‘Até agora sem acreditar’
Essa não foi a primeira vez que a imagem de Tânia foi usada num vídeo para promover algum produto online. Há alguns meses, imagens das pernas dela apareceram numa montagem junto ao depoimento de um médico para vender um “protocolo de desinflamação” de combate ao lipedema.
Dessa vez, porém, a tecnologia foi mais sofisticada, com a própria imagem dela falando do chá milagroso.
“No primeiro vídeo, achei que era o máximo que podiam me atingir. Quando me mandaram isso (o deepfake), eu fiquei muito chocada e até agora estou sem acreditar”, diz Tânia.
“O fato de ver os dentes que não são meus, naquela boca que não é minha, me ouvindo falar algo que é absurdo, me fez pensar ‘meu Deus, eu posso realmente ser vítima de algo muito pior’.”
Foram duas amigas que alertaram Tânia sobre o golpe com o vídeo, já que conheciam o conteúdo original e sabiam que ela não postaria aquilo que estavam vendo.
Por seguirem páginas relacionadas ao lipedema, provavelmente as amigas entraram como um público-alvo do anúncio falso.
O vídeo está vinculado a uma página do Facebook, de uma suposta médica sem posts ou seguidores. A foto usada nesse perfil pode ser rastreada a outras páginas de saúde e até a um blog da Costa do Marfim que alerta que essa é uma imagem frequentemente usada em sites por golpistas.
Ao final do vídeo deepfake, há um link que leva a um site com uma pesquisa sobre sintomas do lipedema, para se chegar ao “método caseiro que mulheres estão eliminando a gordura de forma natural em sete dias”.
Na medida em que se avança nas perguntas, há relatos de celebridades como a modelo Yasmin Brunet, que recentemente divulgou ter a doença.
Ao final, é vendido por R$ 37 um pacote de “produtos”. Entre eles, a “receita secreta do chá detox anti-inflamatório de lipedema” e um “acompanhamento personalizado via WhatsApp”.
Tânia não chegou a ser procurada por alguém que tenha de fato caído no golpe.
Mas, após saber que estavam usando sua imagem, a carioca postou um vídeo reagindo ao deepfake. Foi aí que ela ficou assustada. Muitas pessoas comentaram que demoraram para perceber a diferença entre a “Tânia fake” e ela.
“Porque uma coisa são as pessoas que me conhecem, sabem o que eu falo, minha voz, o vídeo original. Mas as pessoas que não me conhecem vendo aquele vídeo, no desespero, podem cair”, diz.
Essa busca por soluções ao lipedema vem aumentando nos últimos anos devido a mais conhecimento sobre o assunto.
Em 2019, a Organização Mundial da Saúde (OMS) reconheceu o lipedema como uma doença distinta. Em 2022, o quadro foi incluído na Classificação Internacional de Doenças (CID-11), um manual amplamente utilizado como referência global para identificação e registro de condições de saúde.
No Brasil, entretanto, a adoção da CID-11, prevista inicialmente para 2025, foi adiada para 2027 pelo Ministério da Saúde, que justificou a decisão com a necessidade de treinar profissionais e atualizar os sistemas.
O lipedema é considerado “novo” não só pela falta de familiaridade de profissionais de saúde com o quadro — que ainda persiste mesmo após 85 anos da primeira descrição — mas também porque faltam respostas importantes sobre o mecanismo da doença.
“Ainda falta entender o mecanismo do acúmulo diferenciado da gordura do lipedema e suas vias metabólicas, ou seja, os processos bioquímicos responsáveis pela produção, armazenamento e mobilização dessa gordura no organismo”, explicou à BBC o cirurgião vascular Mauro de Andrade.
‘Precisamos nos acostumar a não acreditar’, diz advogada
Para Tânia, o que preocupa não é apenas o caso em que ela foi vítima.
“Eu sou uma ‘Zé ninguém’ e usaram minha imagem. E eu fico imaginando crianças sendo expostas, mulheres que têm a imagem delas usada para coisas piores. É algo bem preocupante”, diz.
Na avaliação da advogada Andressa Bizutti, mestre na Universidade Harvard, nos EUA, e pesquisadora de mídia sintética na Universidade de São Paulo (USP), esse avanço na tecnologia com a IA, na verdade, escancara problemas sociais anteriores, como golpes, informações falsas ou até o uso do corpo da mulher em casos de deepfakes pornô que se espalham pela internet.
A advogada defende que o que aconteceu com deepfake é que a tecnologia mexeu em um lugar que a sociedade ainda não sabia que era possível: o vídeo. Já estávamos acostumados a lidar com montagem de fotos, por exemplo, sabendo que nem tudo o que vemos é verdade.
“Vídeo sempre teve um consenso na filosofia de transparência: você via e achava que estava vendo a realidade”, diz Bizutti, sócia do escritório b/luz.
“A mídia sintética dá um passo adicional por conta desse aspecto cultural que a gente ainda não se acostumou como sociedade.”
Apesar dos avançados deepfakes, Bizutti explica que casos como o de Tânia já são contemplados na legislação vigente sobre direitos à personalidade (imagem, nome e voz).
“Esses direitos estão protegidos no Brasil, estão presentes na Constituição Federal, no Código Civil e são inalienáveis [não se pode transferir]”, conta.
A lei já diz que não se pode usar a imagem de uma pessoa “se o uso for atingir a honra, a boa fama, a respeitabilidade ou se destinarem a fins comerciais”.
Há um projeto de lei avançando no Congresso, o PL 2338, que trata sobre Inteligência Artificial. A respeito de deepfake, ele diz, ainda sem dar detalhes, que vídeos alterados precisariam ser identificados de alguma forma. Ou seja, trata mais sobre a transparência do uso de IA do que regula o que pode ou não fazer com a imagem das pessoas.
Para a advogada especializada no tema, os passos que a sociedade e o direito precisam dar é “mais uma questão sobre como vamos lidar com esses usos do que necessariamente uma regulamentação”.
“O problema não é a IA ou deepfake. O problema é você ver um vídeo e ser enganado por esse vídeo. A gente tem que se acostumar com o fato que a gente não pode acreditar no que a gente está vendo”.
Para Bizutti, com o aprimoramento da tecnologia, vai adiantar cada vez menos a busca por “sinais” de que o vídeo é falso, como uma voz robótica ou uma boca que mexe de maneira esquisita.
“Você tem saber de onde o vídeo vem, a fonte. Da mesma forma, quando começamos a usar internet nas pesquisas da escola, a gente aprendeu que não podia pegar informação de qualquer lugar no Google, de um site aleatório. O mesmo passo a gente vai precisar dar com os vídeos”, conta.
Caso a vítima se sentir lesada, o ideal procurar os mecanismos judiciais. O Marco Civil da Internet, por exemplo, tem mecanismos para o usuário pedir a identificação de quem realizou as postagens e requerer indenização, por exemplo. O Judiciário também pode determinar que as plataformas tirem o conteúdo do ar.
Adicionar aos favoritos o Link permanente.