O perigo dos deepfakes

O perigo dos deepfakes

Sthefano Cruvinel
Sthefano Cruvinel
Inteligência Artificial
05 Mar 2025
O perigo dos deepfakes

Pergunta da vez: você consegue reconhecer quando uma imagem ou uma foto é real ou fake? Se sua resposta for "sim" você faz parte de uma parcela mínima da população capaz de reconhecer a diferença entre o que é real e o que é falso entre as imagens e vídeos que atualmente circulam pelas redes sociais e outros canais de mídia.

Uma pesquisa global encomendada pela iProov, empresa inglesa de segurança digital, mostrou que menos de 1% das pessoas consegue identificar vídeos ou imagens realistas gerados por inteligência artificial (IA), os chamados deepfakes.

Esse dado por si só já é alarmante, porém, a pesquisa realizada com 2 mil participantes no Reino Unido e nos EUA revelou ainda que apenas 0,1% dos entrevistados acertaram todas as identificações entre conteúdo real e falso. O relatório detectou também que 60% dos jovens entre 18 e 34 anos acreditam saber detectar deepfakes, mas seu desempenho prático foi similar ao de outras faixas etárias. Já entre idosos, 39% dos maiores de 65 anos nunca nem ouviram falar da tecnologia, aumentando a vulnerabilidade. No caso dos vídeos, o perigo é ainda maior. Apenas 9% dentre todos os participantes identificaram deepfakes nesse formato.

Essas informações reforçam os alertas de especialistas sobre riscos que vão de fraudes financeiras à desinformação em massa provocados pelos deepfakes. E, a meu ver, essa incapacidade das pessoas em distinguir entre real e falso exige soluções tecnológicas pontuais e urgentes.

Diante disso, é preciso pontuar aqui que nos últimos anos, o rápido crescimento da IA revolucionou as indústrias e a vida cotidiana. De ferramentas que auxiliam na automação de tarefas que antes consumiam muito tempo à tecnologias que aumentam a criatividade, a IA provou ser uma ferramenta útil e eficiente. No entanto, como muitas inovações poderosas, a IA pode ser usada para propósitos alternativos e mais prejudiciais. Entre os mais preocupantes está justamente o surgimento dos deepfakes - mídia sintética na qual a imagem de uma pessoa é manipulada de forma convincente para dizer ou fazer algo que ela não fez de fato, e sem seu consentimento. Embora esses deepfakes possam ser usados para entretenimento ou expressão artística, eles também abrem portas para atividades ilegais e prejudiciais, como desinformação, fraude e violações de privacidade.

Portanto, em se tratando de um termo ainda desconhecido por uma quase total parcela da população, reitero que os deepfakes são vídeos, clipes de áudio ou imagens gerados por IA que simulam de forma hiper-realista a aparência ou a voz de pessoas reais, na grande maioria das vezes sem o consentimento delas. O termo "deepfake" se origina de "aprendizagem profunda" (um ramo da IA) e "fake", pois ele mescla técnicas de aprendizado de máquina com mídia fabricada. Ao analisar grandes quantidades de filmagens existentes, os algoritmos deepfake podem produzir simulações realistas de pessoas, alterando perfeitamente suas expressões, movimentos ou fala.

Alguns exemplos famosos de deepfakes incluem vídeos de celebridades e políticos dizendo coisas ou realizando ações que nunca fizeram. Há muitos exemplos do uso dessa tecnologia para o mal - na área política nem se fala -, mas vou me ater aqui a um exemplo bom. Em 2023, um vídeo publicitário da AlmapBBDO, desenvolvido para a Volkswagen, repercutiu um exemplo de aplicação de deepfake na publicidade, dessa vez desassociado de fake news e golpes na internet. Com o mote "O Novo Veio De Novo", o vídeo de uma campanha de 70 anos da montadora de carros traz a recriação de Elis Regina, morta em 1982, ao lado de sua filha, Maria Rita, cantando o sucesso "Como Nossos Pais".

Tecnologicamente falando, sobre a criação dos deepfakes, a maioria das criações de mídia sintética requer algoritmos avançados de aprendizado de máquina e redes neurais, particularmente técnicas de aprendizado profundo. Esses algoritmos exigem grandes quantidades de dados - horas de filmagem ou milhares de imagens do sujeito-alvo. O processo envolve treinar um modelo para reconhecer padrões em movimentos faciais, expressões e características de voz e, então, gerar uma versão artificial que pode imitar essas características em novos contextos.

Nesse sentido, a mídia se torna um deepfake problemático quando é criada e usada sem a permissão explícita do sujeito e é usada de uma forma que pode ser prejudicial ou ilegal.

Enfim, em plena era de sobrecarga de informações, é mais importante do que nunca ficar alerta e desenvolver fortes habilidades analíticas para reconhecer quando você pode estar interagindo com um deepfake. Por isso, listo abaixo quatro maneiras de identificar quando uma peça de mídia pode ter sido criada usando tecnologia deepfake. São elas:

1. Tom ou conversa não natural

Um dos sinais mais comuns de um clipe de áudio deepfake é um tom não natural ou plano. As vozes humanas são cheias de emoção matizada e variação natural de tom e ritmo. Uma voz deepfake pode não ter a ascensão e queda naturais da fala humana, soando excessivamente robótica e sem emoção.

Além disso, em deepfakes conversacionais, preste atenção às interações diferenciadas, como a forma como o falante reage no diálogo. Os modelos de IA podem não compreender totalmente as dicas sociais ou o tempo, levando a respostas atrasadas, pausas estranhas ou reações faciais inapropriadas a certas declarações. Esses erros sutis de conversação podem quebrar a ilusão de um deepfake, sinalizando que o vídeo foi adulterado.

2. Filas visuais desagradáveis

Fique de olho em onde a fala da pessoa não se alinha perfeitamente com os movimentos dos lábios. Essa sutil dessincronização pode fazer parecer que a voz da pessoa está vindo de uma fonte separada, mesmo quando o áudio é convincente.

Além disso, expressões faciais inconsistentes ou linguagem corporal estranha podem ser um grande sinal de alerta. Às vezes, algoritmos de deepfake têm dificuldade para replicar microexpressões humanas naturais, como movimentos sutis dos olhos, pequenos espasmos musculares ou a maneira como a pele reage à luz. Essas imperfeições podem fazer com que o falante pareça um pouco estranho, quase robótico, com padrões de piscadas não naturais ou expressões faciais rígidas e exageradas.

3. Ruído de fundo ou reverberação

Ruído de fundo e reverberação vocal são outros indicadores importantes para ouvir ao identificar deepfakes. Em gravações do mundo real, fatores ambientais como acústica da sala, conversas de fundo ou sons externos geralmente estarão presentes, emprestando uma sensação natural de profundidade e espaço ao áudio. Deepfakes, no entanto, lutam para recriar essas dicas ambientais diferenciadas de forma consistente.

Por exemplo, em uma gravação deepfake de uma figura pública fazendo um discurso, a voz pode soar muito isolada, como se tivesse sido gravada no vácuo, sem nenhuma interação com o ambiente ao redor.

4. Pronúncia ou pausas estranhas

Outra maneira sutil de identificar deepfakes é focar em pronúncias estranhas de palavras comuns ou pausas estranhas em conversas. Como a IA é treinada em grandes conjuntos de dados, ela pode nem sempre capturar os hábitos de pronúncia exclusivos de um falante individual. Isso pode resultar em leves erros de pronúncia ou palavras muito articuladas, o que pode parecer artificial no contexto.

Da mesma forma, deepfakes podem ter dificuldades com o tempo de conversação, levando a pausas estranhas ou lacunas não naturais entre as palavras. Os humanos tendem a ajustar seu ritmo e pausas dinamicamente durante a fala, especialmente em diálogos, enquanto vozes geradas por deepfakes podem incluir pausas que parecem fora do lugar ou mal cronometradas.

Para finalizar, quero informar que Deepfake não é crime no Brasil. Essa prática ainda não é tipificada no Código Penal brasileiro. Contudo, o uso ilegal de falsificações profundas pode infringir alguns pontos da legislação, incluindo a Lei Geral de Proteção de Dados Pessoais (LGPD), o que pode render punições no âmbito jurídico.

O uso de deepfakes sem consentimento viola a privacidade e proteção de dados pessoais, como previsto na LGPD. Além disso, artigos jurídicos apontam que deepfakes podem se enquadrar em casos de crimes contra imagem (como difamação e calúnia) ou fraudes de identidade.

 

Fonte: Jornal de Uberaba

Gostou desse conteúdo e quer saber mais? Acompanhe o portal ou as nossas redes sociais.

Receba meus lançamentos e novidades em sua caixa de mensagens ou via whatsApp.

siga meu instagram