terça-feira, 2 de dezembro de 2025

Como identificar vídeos criados por Inteligência Artificial

Reprodução/freepik

Ferramentas e especialistas ajudam a identificar vídeos falsos gerados por Inteligência Artificial

Em meio à aproximação de um novo ano eleitoral no Brasil e à crescente disseminação de vídeos manipulados nas redes sociais, especialistas alertam que conteúdos gerados por Inteligência Artificial (IA) estão cada vez mais realistas e difíceis de identificar a olho nu. Esses vídeos, conhecidos como deepfakes, podem influenciar a opinião pública, disseminar desinformação e até interferir em decisões políticas e judiciais.

undefined
Arquivo pessoal

Dhigo Correa

Um vídeo feito por IA não é captado por câmeras, mas produzido por algoritmos conhecidos como modelos generativos. “Esses sistemas aprendem a criar cenas, pessoas e sons a partir de descrições de texto ou imagens estáticas”, explica ao Portal iG Dhigo Correa, professor convidado do MBA em Informação, Tecnologia e Inovação da UFSCar.

Segundo ele, a diferença é que, embora pareçam reais, esses vídeos “são totalmente sintéticos”. Ainda assim, mesmo os sistemas mais avançados têm dificuldade em reproduzir de forma natural “o movimento tridimensional e a coerência do cenário”.

undefined
Arquivo pessoal

Nicola Sanchez

Para Nicola Sanchez, CEO da Matrix Go, o princípio é semelhante. “Em vez de câmeras, atores e cenários físicos, a IA usa dados textuais, sonoros ou visuais para gerar cada quadro. Isso permite produzir conteúdos completamente sintéticos e realistas, com base apenas em descrições”, comenta em entrevista ao iG.

Como o público pode testar a veracidade

Apesar do alto nível de realismo, há pistas perceptíveis. “Movimentos corporais errados, mãos que atravessam objetos ou sombras que não acompanham a luz corretamente são sinais claros”, diz Correa. Ele cita ainda expressões “mecânicas”, como sorrisos que não afetam os olhos, ou piscadas sincronizadas demais.

Sanchez complementa que distorções em objetos, sombras incoerentes e transições muito suaves também são indícios. “No som, vozes excessivamente limpas, sem respiração natural ou variação de entonação, geram uma sensação de uniformidade e artificialidade ”, afirma.

A clonagem de vozes é outro desafio. “Hoje é possível gerar vozes humanas falsas com poucos segundos de gravação, imitando tom e sotaque de qualquer pessoa”, explica Correa. Segundo ele, o áudio gerado por IA costuma ter “volume constante, pausas artificiais e falta de emoção real”.

Sanchez acrescenta que o público pode perceber “pausas uniformes demais e ausência de pequenas falhas naturais de fala”. Esses detalhes são, por enquanto, o principal diferencial entre o real e o sintético.

Correa recomenda o “método dos três olhares”:

  • Olhar técnico – usar ferramentas como o InVID para extrair quadros e fazer busca reversa de imagens;
  • Olhar lógico – avaliar se o conteúdo faz sentido, observando sombras, proporções e coerência;
  • Olhar de contexto – conferir se veículos de imprensa ou agências de checagem divulgaram a mesma informação.

Já Sanchez reforça a importância de buscar a fonte original. “Desconfie de vídeos com aparência perfeita, mas sem registros verificáveis”, afirma.

Ferramentas para verificar autenticidade

Entre os recursos gratuitos que ajudam a verificar vídeos estão o InVID & WeVerify, usado por jornalistas para extrair quadros e metadados de vídeos; o Verify, da Content Authenticity Initiative, que mostra assinaturas digitais de origem; e a Google News Initiative (GNI), que oferece treinamentos e guias sobre checagem de fatos.

Sanchez também cita plataformas especializadas como Reality Defender e Hive Moderation, que usam padrões de pixels e metadados para detectar inconsistências.

Com o avanço tecnológico, distinguir o real do falso será um desafio cada vez maior. “A tendência é que essa distinção dependa mais de sistemas automáticos de autenticidade do que do olhar humano”, diz Sanchez.

Correa cita ferramentas como o UNITE, desenvolvido pelo Google e pela Universidade da Califórnia, e o L3DE, que analisam iluminação, coerência temporal e leis da física em vídeos. “Talvez o olho humano não perceba, mas as máquinas ainda conseguirão identificar as falhas de outras máquinas”, afirma.

Os riscos e a legislação brasileira

Os especialistas destacam que compartilhar vídeos falsos pode gerar consequências graves. “Esses conteúdos podem ser usados para difamar pessoas, aplicar golpes e até interferir em eleições”, alerta Correa.

No Brasil, o Tribunal Superior Eleitoral (TSE) já proíbe o uso de vídeos falsos ou manipulados por IA em campanhas e exige aviso visível em conteúdos gerados artificialmente. Também estão em tramitação projetos como o PL 2.630/2020, conhecido como “PL das Fake News”, e o PL 146/2024, que propõem punições mais severas para o uso de deepfakes com fins ilícitos.

Sanchez lembra que o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD) já permitem responsabilização civil e penal em casos de uso abusivo de IA.

Enquanto o uso da IA avança, o debate sobre transparência e responsabilidade digital ganha força. A identificação de vídeos falsos é hoje uma questão de segurança informacional e, em períodos eleitorais, um fator determinante para preservar a integridade do voto e da confiança pública nas instituições.

tecnologia.ig.com.br