Hackers estão adotando malware com inteligência artificial enquanto equipes de segurança respondem com suas próprias IAs

LLMs ampliam tarefas em ambos os lados da cibersegurança, mas ainda não a revolucionaram.
O crescimento explosivo de chatbots, modelos de linguagem e outras tecnologias de IA está remodelando a cibersegurança em ambos os lados do conflito. Enquanto hackers já exploram a IA a seu favor, os defensores precisam se adaptar rapidamente para acompanhar o ritmo e evitar danos crescentes.
Analistas de ameaças afirmam que cibercriminosos e hackers apoiados por nações adversárias já utilizam rotineiramente chatbots e modelos de linguagem para ataques. Ao mesmo tempo, equipes de segurança recorrem às mesmas ferramentas para detectar vulnerabilidades e bloquear ataques antes que causem prejuízos.
Um relatório recente de autoridades ucranianas e pesquisadores de segurança confirma que a corrida armamentista da IA já está em andamento. Em julho, espiões cibernéticos russos do grupo APT28 distribuíram o Lamehug, o primeiro malware com IA documentado publicamente. A campanha utilizava um modelo de linguagem por meio da API do Hugging Face, convertendo instruções em linguagem natural em tarefas complexas executadas nos PCs infectados.
Heather Adkins, vice-presidente de engenharia de segurança do Google, afirma que os LLMs ajudam a empresa a identificar vulnerabilidades em softwares amplamente utilizados. Até agora, o Gemini já revelou pelo menos 20 falhas significativas, e o Google compartilhou as descobertas com os fornecedores afetados.
“É o começo do começo. Talvez caminhando para o meio do começo”, disse Adkins à NBC News.
As tecnologias movidas por IA ainda não produziram resultados revolucionários em cibersegurança, mas os modelos de linguagem têm se mostrado úteis na automação de tarefas já realizadas por analistas humanos. Eles aceleram a identificação de falhas, tornando a detecção mais rápida e eficiente, mesmo sem substituir a expertise humana.
A empresa de cibersegurança CrowdStrike alertou que hackers de chapéu preto e espiões estrangeiros já exploram a IA. Há evidências crescentes de que hackers chineses, russos e iranianos estão utilizando chatbots e modelos de linguagem para fins maliciosos.
Apesar de Big Techs e startups terem investido centenas de bilhões de dólares em IA agentic, ainda não entregaram soluções realmente significativas ou lucrativas. No entanto, a tecnologia já amadureceu o suficiente para que hackers consigam automatizar e iterar tarefas mais complexas, obtendo lucros a partir de avanços que as empresas ainda lutam para monetizar.
O papel crescente da inteligência artificial na cibersegurança traz tanto riscos quanto oportunidades, mas há motivos para otimismo. Alexei Bulazel, diretor sênior de cibersegurança no Conselho de Segurança Nacional da Casa Branca, afirma que a IA acabará beneficiando mais os defensores do que os atacantes. Ele ressalta que a IA se destaca por democratizar o acesso a informações sobre vulnerabilidades e identificar falhas rotineiras, oferecendo às equipes de segurança uma vantagem valiosa.
- Veja também: Meta sob pressão por regras de IA que permitem romance com crianças e conselhos médicos falsos