Cardano: deepfake em chamada quase invade dev
Um desenvolvedor do mercado de criptomoedas escapou por pouco de um ataque sofisticado após golpistas utilizarem inteligência artificial para se passar por um executivo da Fundação Cardano durante uma chamada de vídeo. O episódio acende um alerta relevante sobre o avanço do uso de deepfakes em tentativas de invasão.
Conhecido online como big pey, o desenvolvedor relatou o caso em sua conta no X. Segundo ele, a abordagem começou com uma mensagem aparentemente legítima enviada por um contato já conhecido, o que aumentou a credibilidade da interação.
O perfil comprometido se passava por Pierre Kaklamanos, chefe de adoção de ativos digitais da Fundação Cardano. Além disso, o convite incluía uma conversa sobre um suposto projeto em andamento. Sem desconfiar, Pey aceitou e acessou o link do Microsoft Teams enviado.
Deepfake sofisticado simulou reunião legítima
Durante a reunião, o desenvolvedor viu o rosto e ouviu a voz do suposto executivo de forma convincente. Ao mesmo tempo, outros dois participantes apareciam na chamada, o que reforçava a sensação de legitimidade.
No entanto, sinais incomuns surgiram. A conexão apresentou instabilidade e, em seguida, um aviso indicou que o Microsoft Teams precisava de atualização via terminal do sistema. Esse tipo de solicitação, embora técnica, foge do padrão esperado.
Ainda assim, Pey chegou a executar um comando no terminal. Nesse momento, a bateria do laptop acabou e desligou o dispositivo imediatamente. Como resultado, a possível invasão foi interrompida antes de avançar.
Esse detalhe aparentemente trivial pode ter evitado um comprometimento mais grave. Em outras palavras, a falha de energia funcionou como uma barreira acidental contra o ataque.
Investigação aponta uso avançado de IA
Após o incidente, o desenvolvedor tentou retomar o contato e sugeriu migrar a reunião para o Google Meet. Contudo, os participantes evitaram a mudança e propuseram reagendamento, o que aumentou as suspeitas.
Diante disso, Pey investigou o caso e concluiu que toda a interação havia sido forjada com inteligência artificial. O rosto, a voz e os demais participantes eram deepfakes altamente realistas.
Além disso, o contato original havia sido comprometido, o que elevou a credibilidade do golpe. Mesmo com experiência técnica, o nível de sofisticação foi suficiente para enganá-lo inicialmente.
“Mesmo sendo tecnicamente experiente, acabei sendo enganado”, relatou Pey.
Mercado cripto enfrenta nova geração de ataques
O episódio ganhou repercussão no mercado. Changpeng Zhao, cofundador da Binance, compartilhou o alerta e destacou que ataques desse tipo exigem atenção crescente diante da evolução das ferramentas de IA.
Outros usuários relataram tentativas semelhantes. Em vários casos, houve comprometimento de contas no Telegram e envio de convites por plataformas como Calendly. Em ao menos um episódio, houve perda financeira antes da identificação do golpe.
Esse padrão sugere uma campanha coordenada. Os criminosos combinam engenharia social com deepfakes para enganar vítimas, inclusive profissionais experientes. Assim, o risco se amplia em todo o mercado de criptomoedas.
Como o golpe funciona na prática
Especialistas apontam que o sucesso desse tipo de ataque depende de três fatores centrais. Primeiro, a identidade precisa parecer legítima. Em seguida, o contexto deve ser plausível. Por fim, há pressão para executar ações técnicas durante a chamada.
Além disso, os criminosos exploram relações de confiança pré-existentes. Como resultado, a vítima tende a baixar a guarda e seguir instruções sem verificação adequada.
Entre as principais recomendações, está evitar instalar softwares durante reuniões e nunca executar comandos em terminais sem origem verificada. Essas medidas simples podem impedir ataques complexos.
Até o momento, a Fundação Cardano não se pronunciou oficialmente. Ainda assim, o caso reforça a necessidade de vigilância constante. Com o avanço da inteligência artificial, ataques desse tipo tendem a se tornar mais frequentes e sofisticados.
Em conclusão, o relato evidencia uma mudança no perfil das ameaças digitais. Deepfakes agora exploram confiança, contatos legítimos comprometidos e simulações altamente realistas, elevando o risco em interações profissionais online.