Pesquisadores da Cornell desenvolvem marca d’água invisível baseada em luz para detectar deepfakes

Em um momento em que vídeos fabricados estão cada vez mais difíceis de identificar, pesquisadores da Universidade Cornell revelaram uma nova técnica forense que pode dar uma vantagem crucial para verificadores de fatos. O método insere marcas d’água digitais invisíveis nas fontes de luz de uma cena, permitindo que investigadores verifiquem a autenticidade de imagens de vídeo depois que elas são gravadas.

O conceito, chamado de iluminação codificada por ruído, foi apresentado em 10 de agosto na SIGGRAPH 2025, em Vancouver, British Columbia, por Peter Michael, estudante de pós-graduação em ciência da computação da Cornell que liderou o projeto. A abordagem foi inicialmente idealizada por Abe Davis, professor assistente.

“Este é um problema importante e contínuo,” disse Davis. “Não vai desaparecer e, na verdade, só vai ficar mais difícil.”

Estratégias anteriores de marca d’água normalmente eram incorporadas diretamente nos arquivos de vídeo, alterando minúsculos elementos dos pixels para criar um identificador oculto. Embora eficazes em condições controladas, esses sistemas dependem da cooperação do dispositivo ou da plataforma que cria as imagens. Se um agente mal-intencionado decidir não usar uma câmera ou software compatível, a marca d’água digital nunca aparecerá — tornando a fiscalização impraticável.

O método da equipe da Cornell funciona de maneira diferente, ao inserir a marca d’água na luz física que ilumina o sujeito durante a gravação. Isso significa que qualquer câmera no ambiente, desde equipamentos profissionais de transmissão até um smartphone, capturará inadvertidamente a marca d’água enquanto grava a cena.

Fontes de luz programáveis, como monitores de computador, iluminação de estúdio ou certos dispositivos LED, podem receber padrões codificados de brilho apenas por software. Lâmpadas não programáveis comuns podem ser adaptadas com um chip compacto — aproximadamente do tamanho de um selo postal — que faz pequenas variações na intensidade da luz segundo um código secreto.

O código incorporado consiste em pequenas variações na frequência e no brilho da iluminação que são imperceptíveis ao olho humano. Michael explicou que essas flutuações são desenhadas com base em pesquisas sobre a percepção visual humana.

Cada luz possui um código único que gera, efetivamente, um registro de baixa resolução e carimbado no tempo da cena sob condições de iluminação levemente diferentes. Davis chama esses registros de vídeos codificados.

“Quando alguém manipula um vídeo, as partes alteradas começam a contradizer o que vemos nesses vídeos codificados,” disse Davis. “E se alguém tenta gerar vídeo falso com IA, os vídeos codificados resultantes parecem apenas variações aleatórias.”

Ao comparar os padrões codificados com as imagens suspeitas, os analistas podem detectar sequências ausentes, objetos inseridos ou cenas alteradas. Por exemplo, conteúdo removido de uma entrevista aparece como lacunas visuais no vídeo codificado recuperado, enquanto elementos fabricados geralmente aparecem como áreas totalmente pretas.

Os pesquisadores demonstraram o uso de até três códigos de iluminação independentes na mesma cena. Essa sobreposição aumenta a complexidade da marca d’água e eleva a dificuldade para possíveis falsificadores, que precisariam replicar múltiplos vídeos codificados sincronizados que coincidam com as imagens visíveis.

“Mesmo que um adversário saiba que a técnica está sendo usada e de alguma forma descubra os códigos, o trabalho dele ainda é muito mais difícil,” acrescentou Davis. “Em vez de falsificar a luz para apenas um vídeo, ele tem que falsificar cada vídeo codificado separadamente, e todas essas falsificações têm que concordar entre si.”

Testes em campo mostraram que o método é eficaz em certos ambientes externos e funciona de maneira consistente em diferentes tons de pele.

A equipe afirma que, embora a iluminação codificada por ruído represente um avanço promissor, não é uma solução definitiva contra mídia sintética. Conforme as ferramentas de IA generativa se tornam mais sofisticadas, os pesquisadores esperam que as táticas para produzir falsificações realistas continuem a evoluir.

“Vídeo costumava ser tratado como fonte de verdade, mas isso não é mais uma suposição que podemos fazer,” disse Davis. “Agora você pode praticamente criar vídeo do que quiser. Isso pode ser divertido, mas também problemático, porque está cada vez mais difícil saber o que é real.”

O autor:

Redator desde 2019. Entusiasta de tecnologia e criptomoedas.