Forbes, a mais conceituada revista de negócios e economia do mundo.
O vídeo de um canguru de apoio emocional barrado em um voo alcançou, em poucas horas de publicação, mais de 11 milhões de pessoas. O conteúdo, que continha uma advertência discreta por ser fruto de IA, gerou uma nova onda de discussões sobre a veracidade de vídeos feitos por plataformas de inteligência artificial generativa. O caso ocorreu no final de maio, poucos dias depois de o Google ter lançado o Veo 3, ferramenta que inundou a internet de vídeos ultrarrealistas.
As ferramentas não surpreendem apenas por criarem animações sofisticadas tecnicamente, mas por replicarem emoções, movimentos de câmera e expressões faciais com realismo. “É fundamental estar atento ao potencial significativo de desinformação e uso malicioso dessas tecnologias, especialmente na criação de deepfakes altamente convincentes. Imagine, por exemplo, vídeos falsos de figuras públicas fazendo discursos que jamais aconteceram, ou cenas de eventos inventados que circulam nas redes como se fossem registros autênticos. Embora o Veo 3 conte com restrições específicas, como o bloqueio à geração de vídeos envolvendo pessoas públicas, essas barreiras podem estar ausentes, ou ser facilmente burladas, em outras ferramentas similares”, explica Fabrício Carraro, Program Manager da Alura.
A pedido da Forbes Brasil, Carraro desenvolveu várias amostras de vídeos que simulavam a campanha de um leite feito a partir de água com variação de cenários e personagens. “À medida que se torna cada vez mais difícil distinguir o que é real do que é gerado por IA, a credibilidade da informação como um todo é colocada em xeque. Isso afeta não apenas o jornalismo e as instituições democráticas, mas também a confiança entre as pessoas nas interações digitais.”
“A inteligência artificial inaugura uma era exponencial sem precedentes, com mudanças na forma como vivemos, nos relacionamos e construimos o amanhã. E na mesma proporção das oportunidades, vem os desafios e os riscos. Nessa direção a ascensão dos vídeos ultrarrealistas gerados por inteligência artificial inauguram uma nova era de manipulação perceptiva, na qual a linha entre o real e o sintético se dissolve com velocidade alarmante”, explica Ale Fu, Executiva e Conselheira de Tecnologia e Inovação.
O lado sombrio dos vídeos de IA
Um dos principais pontos de atenção com os vídeos sintéticos é que eles podem ser usados para manipular a opinião pública, incitar violência, fraudar processos eleitorais e até viabilizar golpes financeiros. Um exemplo disso foi demonstrado por jornalistas da Revista Time, que conseguiram criar vídeos fictícios e altamente realistas simulando rebeliões e fraudes eleitorais usando o Veo3. Marioo, Sócio e Diretor Criativo da Human, explica que a responsabilidade dos criadores é ainda maior neste contexto. “Produzir conteúdos com inteligência artificial exige cuidado criativo e responsabilidade redobrada. A primeira regra é ética: nunca utilizar rostos reais sem consentimento claro, nem se apropriar indevidamente da identidade visual de artistas sem reconhecimento ou contexto.”
De acordo com o YouTube, 96% dos criadores de conteúdo brasileiros já utilizam IA generativa. Além disso, segundo a Conversion, mais de 90% dos brasileiros digitalizados já usam IA generativa com frequência. Para Rodrigo Helcer, Especialista em IA e Fundador da Stilingue by Blip, deepfakes tornam mais simples a manipulação de vozes, rostos e cenas, facilitando fraudes, extorsões e falsas acusações. “Se tudo pode ser falsificado, o ‘ver para crer’ deixa de existir. O risco maior é que verdades reais passam a ser questionadas; mentiras podem parecer provas.Vídeos falsos com cenas comprometedoras já causam danos em escolas, empresas e entre figuras públicas. Mesmo que desmentidos, os danos à reputação são difíceis de reverter.”
Ainda de acordo com Ale Fu, os riscos desafiam não apenas a tecnologia, mas a estrutura social, política e cognitiva. “Videos ultrarrealistas facilitam a manipulação de narrativas públicas e a disseminação de desinformação com alto grau de verossimilhança, corroendo a confiança coletiva na imagem como evidência. São ferramentas de extorsão e fraude, ao mesmo tempo em que escalam riscos podendo gerar crises com base em simulações falsas. A concentração de poder nas mãos de quem domina essas ferramentas aprofunda desigualdades e cria vantagens desleais em mercados e debates públicos”.
A responsabilidade das empresas
O PL 2.338/23, conhecido como Marco Legal da IA, foi aprovado pelo Senado Federal e agora está em tramitação na Câmara dos Deputados. O projeto estabelece diretrizes para o uso responsável da inteligência artificial no Brasil, incluindo princípios éticos, transparência e proteção contra discriminação algorítmica. Entre os avanços, o texto prevê regras para uso de conteúdos protegidos por direitos autorais, exigindo que empresas informem quais materiais foram utilizados no treinamento de IA e permitindo que autores vetem o uso de suas obras.
Para Carraro, a responsabilidade nesse contexto empresarial é enorme. “O ideal seria que as empresas deixassem claro, de forma transparente, quando o conteúdo foi gerado por IA, especialmente em casos de possível ambiguidade. O Google, por exemplo, afirma que o Veo 3 inclui marcações digitais para indicar a origem do vídeo, mas essas sinalizações não são visíveis diretamente no conteúdo final, apenas como metadados, o que limita sua eficácia na identificação por parte do público.”
Helcer ressalta que as instituições precisam listar questões importantes sobre o tema. “Como proteger reputações em um mundo de vídeos falsos? Como treinar jovens profissionais para desenvolver senso crítico diante da IA? Como manter a confiança pública no audiovisual como prova pós-morte do ‘ver para crer’?”, alerta.
O que dizem as plataformas?
O Google afirma que “acredita no potencial da IA para democratizar a produção criativa e que está tomando medidas para evitar usos mal-intencionados”. A OpenAI, dona da ferramenta Sora, afirma que está desenvolvendo medidas para garantir um uso responsável da ferramenta. Sundar Pichai, CEO do Google, já afirmou várias vezes que é fundamental que governos, empresas e sociedade civil atuem juntos na elaboração de normas que orientem o desenvolvimento e o uso responsável da IA.
As principais ferramentas de vídeos feitos com IA generativa:
Segundo Marioo, o universo de ferramentas de IA evolui constantemente, porém algumas já conquistaram relevância significativa pelo desempenho excepcional.
Visual Electric
“Notável pela sofisticação visual, foi desenvolvida especificamente para designers. Seus outputs têm uma qualidade estética superior, ideais para publicidade, moda e editorial”
Kling V2.1
“Destaca-se pela fluidez e realismo. Sua especialidade é transformar imagens estáticas em vídeos dinâmicos e convincentes, oferecendo movimentos de câmera naturais e transições suaves”
VEO 3 (Google)
“Chegou recentemente impressionando o mercado pela qualidade inédita de sincronização labial e efeitos sonoros altamente realistas. Embora não seja ideal para narrativas mais complexas devido à dificuldade em manter consistência visual e narrativa, é excepcional para criar experiências imersivas e altamente realistas em vídeos curtos”
Flora
“Inovadora por sua abordagem multimodal e visual, permite que usuários criem fluxos personalizados utilizando diferentes tipos de mídia, tudo dentro de uma interface visual expansível e intuitiva. É perfeita para criativos com perfil mais experimental”
Sora
“O modelo de geração de vídeos da OpenAI, destaca-se por sua capacidade de criar cenas complexas com múltiplos personagens e movimentos detalhados, mantendo a qualidade visual e aderência ao prompt do usuário”
O post Deepfake, Golpes e Desinformação: os Efeitos Colaterais dos Vídeos de IA Ultrarrealistas apareceu primeiro em Forbes Brasil.