Ameaça deepfake que soa como verdade. Por Cleyton Hort

Por Cleyton Hort, empresário e CEO da Lyncas.

Faço mestrado em Minas Gerais e, como parte dessa jornada, viajo para lá algumas vezes. Em uma dessas idas, meus pais receberam um contato inusitado. Alguém se passando por mim mandou a seguinte mensagem: “Pai e mãe, troquei de número. Estou em MG e preciso de um pix”. Era um golpe.

A tecnologia se tornou parte da nossa rotina de uma maneira quase invisível. Está no celular que usamos para acordar, no aplicativo que organiza o nosso dia, no algoritmo que decide o que veremos e ouviremos. Ela facilita, encurta caminhos, automatiza tarefas. Mas nem sempre está do lado do bem.

Entre tantas inovações, surgem também distorções, como as deepfakes, que utilizam inteligência artificial para falsificar rostos e vozes com um realismo impressionante. Essa é uma tecnologia que me fascina e me preocupa ao mesmo tempo. Fascina pela sua complexidade e sofisticação. Preocupa porque estamos diante de uma nova fronteira da desinformação, onde rostos, vozes e até sentimentos podem ser manipulados com uma facilidade assustadora.

Os dados estão aí para provar. De acordo com um levantamento da Sumsub, o número de casos de deepfakes no mundo aumentou 84 vezes entre 2022 e 2023. No Brasil, o crescimento alarmante foi de 830%, com o país concentrando quase metade dos casos registrados na América Latina. O alerta é claro: estamos lidando com uma tecnologia que se espalha rapidamente e que se tornou uma grande preocupação para a segurança digital.

Em tempos de redes sociais e consumo acelerado de conteúdo, uma mentira bem produzida pode parecer mais convincente do que a verdade. As deepfakes não são apenas uma ferramenta para enganar amigos ou familiares. Sua sofisticação e acessibilidade as tornam uma ameaça com poder para manipular a opinião pública e prejudicar indivíduos e organizações.

No Brasil, já existem instrumentos legais importantes, como o Marco Civil da Internet e a LGPD (Lei Geral de Proteção de Dados), que oferecem alguma base para responsabilizar quem usa dados ou imagens pessoais sem consentimento. Mas ainda falta uma regulamentação específica para deepfakes.

Se, por um lado, a inteligência artificial está sendo usada para enganar, por outro, ela também pode ser uma aliada na proteção. No último encontro de lideranças que participei, chamado Lyncas Talks, discutimos justamente o uso da própria IA para detectar e combater deepfakes. Soluções baseadas em machine learning já conseguem identificar alterações digitais sutis que os olhos humanos não conseguem perceber. É uma corrida entre criadores e detectores. Precisamos investir para não ficarmos para trás.

Adicionar aos favoritos o Link permanente.