Após Golpe com Marcos Mion, Deepfakes Entram na Mira da Justiça Brasileira

Forbes, a mais conceituada revista de negócios e economia do mundo.

Nesta quinta-feira (16), durante a operação Voiceover, a Polícia Civil do Distrito Federal prendeu três suspeitos de usar deepfake, técnica de manipulação de imagens e sons com IA, para aplicar golpes.

Após 27 denúncias em quatro dias, um vídeo falso com a imagem de Marcos Mion foi o catalisador da investigação. Na “propaganda” gerada por IA, o apresentador divulga uma promoção do restaurante Outback. No entanto, ao clicar no link, as vítimas eram redirecionadas a um site falso.

Leia também

  • Forbes Tech

    Verificadores de Fatos da Meta não Foram Avisados Sobre o Fim do Programa

  • Forbes Tech

    O Lado Sombrio da IA: Deepfakes e Desinformação São Um Risco Bilionário

  • Francis Mascarenhas/Reuters
    Forbes Tech

    Meta reformula regras sobre deepfakes e outras mídias

De acordo com a apuração, o objetivo do golpe era coletar dados pessoais para a aplicação de fraudes financeiras.

“Figuras públicas são alvos preferenciais pois seus nomes geram mais engajamento e repercussão. Criadores de deepfakes maliciosas buscam causar o maior impacto possível, seja para prejudicar a imagem da pessoa alvo ou para aumentar visualizações e aplicar golpes”, explica Fabrício Carraro, especialista em IA e program manager da Alura.

A lista de personalidades brasileiras que já foram “clonadas” pela IA é extensa e inclui nomes como Neymar, Anitta, Eliana, Ana Maria Braga, William Bonner, Drauzio Varella, Ivete Sangalo, Mano Brown e Jade Picon – além de figuras da política nacional.

“As deepfakes estão crescendo não apenas no Brasil, mas em todo o mundo, impulsionadas, principalmente, pelo acesso às ferramentas de IA. Hoje, qualquer pessoa com um smartphone pode gerar deepfakes em minutos”, pontua Carraro.

Como Reconhecer Conteúdos Falsos

Para não cair em armadilhas online, o especialista recomenda a adoção de uma postura de “ceticismo crítico”. “Isso significa sempre questionar a autenticidade de vídeos, áudios ou imagens, mesmo quando provêm de fontes conhecidas, como amigos ou familiares.”

Ademais, existem algumas dicas práticas para reconhecer conteúdos feitos por IA. Confira:

  • Observe o movimento dos olhos e da boca: deepfakes têm dificuldade em replicar movimentos naturais dos olhos e na sincronia da fala com os lábios.
  • Preste atenção na iluminação e sombras: inconsistências podem indicar manipulação.
  • Verifique a qualidade da voz e do áudio: conteúdos gerados por deepfake podem parecer artificiais, com entonações ou pausas incomuns.
  • Analise detalhes no rosto: olhe para as bordas do rosto ou para áreas como o cabelo e os óculos.
  • Procure por movimentos corporais anormais: em vídeos, observe se os gestos e os movimentos corporais parecem naturais e consistentes com a pessoa.
  • Questione mensagens sensacionalistas: golpistas costumam usar deepfakes para causar impacto e criar urgência.
  • Observe a resolução do vídeo: os vídeos frequentemente apresentam baixa qualidade.
  • Confirme com fontes confiáveis: se algo parecer suspeito, entre em contato diretamente com a pessoa ou instituição envolvida ou pesquise em fontes confiáveis para confirmar a veracidade.

Escolhas do editor

  • Escolhas do editor

    Startup Que Escaneia Íris por R$ 750 Entra na Mira do Governo

  • Ramon Alcaraz CEO JSL
    Carreira

    CEO da JSL Conta Como Levou a Empresa a Faturar R$ 10 Bilhões

  • Carreira

    As 25 Profissões Que Mais Crescem no Brasil, Segundo o LinkedIn

O post Após Golpe com Marcos Mion, Deepfakes Entram na Mira da Justiça Brasileira apareceu primeiro em Forbes Brasil.

Adicionar aos favoritos o Link permanente.