Blockchain pode ajudar a combater deepfakes

Registro de vídeos criptograficamente protegidos tende a evitar problemas futuros

Até que ponto a tecnologia blockchain pode ajudar a combater vídeos falsos? No fim de outubro, um vídeo “deepfake” apareceu no Twitter, com o objetivo de mostrar o CEO da popular bolsa de criptomoedas Binance, Changpeng Zhao, desempenhando o papel principal em um filme de Jet Li. Zhao, que não é especialista em artes marciais, ficou surpreso: “Essa tecnologia é assustadora… O vídeo KYC e o reconhecimento facial irão desaparecer em breve”, ele twittou.

O clipe, é claro, era inócuo. A responsável por ele, a empresa de blockchain Alethea AI, criou o material em um hackathon patrocinado pela Binance em San Francisco, no fim de outubro, para demonstrar ao público os perigos dos deepfakes – renderizações de vídeo de figuras públicas geradas por inteligência artificial (IA) e meticulosamente falsificadas, cujo potencial para multiplicar notícias falsas se tornou um combustível na guerra cultural em andamento.

Preocupações com as possíveis repercussões que a tecnologia poderia ter para, digamos, a diplomacia internacional – imagine, por exemplo, um vídeo de grande repercussão que represente Trump declarando guerra à Rússia – já levaram o Facebook, a DARPA, a Microsoft e a Universidade de Oxford a gastar milhões de dólares na tentativa de encontrar uma solução. Uma série de empresas de blockchain, como a Alethea AI, está seguindo o exemplo, usando os bancos de dados descentralizados e imutáveis ​​da tecnologia para ajudar as pessoas a encontrar vídeos falsificados.

Alethea trabalha na resolução de deepfakes

A empresa Alethea, criadora do deepfake de Changpeng Zhao, está construindo ferramentas de inteligência artificial para detectar deepfakes em estado selvagem, que serão arquivados em um registro imutável de blockchain.

O objetivo desse registro é criar um pool profundo de dados de vídeo que a IA possa utilizar para ajudar na “detecção” de deepfakes, disse um funcionário da Alethea, que pediu para permanecer anônimo porque a Alethea AI ainda não foi lançada oficialmente. De acordo com essa pessoa, um algoritmo de detecção, para ser eficiente, requer bons conjuntos de dados. Isso significa que a empresa também cria seus próprios deepfakes, como o clipe de Changpeng Zhao. A imutabilidade do banco de dados garante que ele não possa ser adulterado.

A equipe da Alethea vem se concentrando na criação de um conjunto de dados de conteúdo de vídeo relacionado à manipulação da boca, algo mais difícil para as máquinas reconhecerem.

“Normalmente, se você disparar uma arma, seu rosto ficará rígido ou terá algum tipo de expressão. Um deepfake não consegue capturar essas expressões”, conta o funcionário da Alethea.

A Alethea também está trabalhando para educar os usuários sobre tecnologia. Seu aplicativo para jogos, atualmente na versão beta fechada, foi projetado para ensinar às pessoas a tecnologia subjacente usada para criar deepfakes e como identificá-los on-line, embora o olho nu possa não pegar os deepfakes mais complicados, produzidos por agentes sofisticados. No entanto, o membro da equipe diz que vale a pena manter o público em geral atento aos deepfakes, que estão se tornando mais fáceis e baratos de produzir, além de mais presentes.

“Talvez, daqui a dez ou 15 anos isso seja completamente irrelevante. Mas, por enquanto, acho superimportante agirmos”, diz o funcionário da Alethea.

Amber Video cria impressões digitais

Enquanto a Alethea está focada em detecção e educação, a Amber Video – uma plataforma baseada no Ethereum, supervisionada pelo ex-chefe de mídia forense da DARPA, David Doermann – está preocupada com a “impressão digital”, o método de codificar criptograficamente um vídeo na fonte antes de fazer logon na blockchain – conhecido como hashing, o processo mostra os dados como um código alfanumérico que não pode ser imitado ou fabricado.

“É possível confiar na veracidade do vídeo e [saber] que nada foi alterado. Se as impressões digitais não coincidirem, você sabe que algo foi alterado”, diz Shamir Allibhai, CEO da Amber Video.

Segundo Allibhai, a impressão digital na fonte significa que é possível garantir que os vídeos sejam originais, mesmo que passem por edição.

“Pense em uma notícia, diga um vídeo de cinco minutos; pode haver 20 sons e 15 disparos de rolo B. [Com o software da Amber Video], cada um desses elementos manterá sua impressão digital até a distribuição”, explica ele.

Não são apenas os meios de comunicação que podem fazer uso da tecnologia.

“Digamos que também exista uma câmera no corpo de um policial que esteja ligada há uma hora e tenha havido um tiroteio que durou 15 minutos. Indo para a acusação, a câmera do corpo se torna evidência. Mas, como estamos passando o tempo – mesmo quando você compartilha apenas 15 minutos – esses 15 minutos mantêm um link criptográfico para a gravação geral de uma hora. Você não precisa confiar em ninguém”, afirma Allibhai.

Mas a tecnologia enfrenta certas limitações. Principalmente porque essas impressões digitais estão sendo enviadas ao vivo enquanto o vídeo está sendo gravado,  a câmera deve estar conectada à internet o tempo todo. Caso contrário, o vídeo será carregado assim que a conexão for restaurada – haverá uma discrepância entre o registro de data e hora gravado e o registro de data e hora na blockchain.

Ainda assim, Allibhai não considera que a necessidade de conexão à internet seja um grande problema.

“A tecnologia Deepfake não está em um nível que possa criar falsificações realmente críveis em segundos”, garante o CEO da Amber Video.

De qualquer forma, a Amber Video planeja vender sua tecnologia para grandes empresas e autoridades policiais, cujas câmeras de segurança provavelmente estão conectadas à internet e que, muitas vezes, têm várias partes interessadas para resolver disputas. Mas filmagens caseiras, como vídeos de tiroteios na polícia, que costumam se espalhar viralmente on-line, podem ser mais difíceis de carregar sem uma conexão estável.

A Axon, uma empresa que produz câmeras corporais para aplicação da lei, diz que está “pesquisando blockchain”, mas não implantando. A Axon está convencida de que sua tecnologia é autônoma, sem blockchain. O vídeo é dividido de acordo com os padrões criptográficos estabelecidos pelo governo dos Estados Unidos – nem vídeos nem metadados podem ser editados.

“Snippets de vídeo, redações ou cópias compartilhadas subsequentes são todos derivados do original. O vídeo original nunca muda”, diz a equipe de imprensa da Axon.

Isso impedirá o Deepfake Trump de declarar guerra ao Deepfake Putin. Esperançosamente.

* Imagem de Gerd Altmann por Pixabay
Fonte: Decrypt

Foto de Simone Gondim
Foto de Simone Gondim O autor:

Jornalista, revisora e roteirista, apaixonada por tecnologia e especializada em conteúdo.