Deepfakes e manipulação de IA: O desafio das eleições e da legislação
Com o aumento do uso de inteligência artificial em campanhas políticas, novos desafios éticos e legais estão surgindo, especialmente com a manipulação de imagens e áudios por deepfakes.
Recentemente, um golpe envolvendo um deepfake do presidente Joe Biden atingiu eleitores em New Hampshire, levando a uma multa pesada imposta pela Comissão Federal de Comunicações (FCC) à operadora de telecomunicações envolvida.
A Lingo Telecom, anteriormente associada a atividades fraudulentas, concordou em pagar uma multa de US$ 1 milhão, assumindo o compromisso de seguir as regras de forma mais rigorosa.
Deepfakes e influência política
O impacto da IA não se limita apenas a golpes diretos. Na esfera política, o ex-presidente Donald Trump usou imagens geradas por IA para sugerir que a popstar Taylor Swift apoiava sua candidatura, o que levantou questões sobre a legalidade dessas práticas. Especialistas alertam para o perigo crescente de endorsements falsos gerados por IA, que podem enganar eleitores e distorcer a verdade.
Em resposta a essas preocupações, alguns estados americanos começaram a agir. O estado do Tennessee, por exemplo, introduziu o ELVIS Act, uma legislação pioneira que protege artistas contra imitações não autorizadas geradas por IA.
Entretanto, o alcance dessa lei ainda é limitado, focando principalmente em áudios manipulados, o que levanta dúvidas sobre sua aplicação em casos de imagens ou vídeos gerados por IA, como os memes de Trump.
A necessidade de regulação
Embora medidas estaduais como o ELVIS Act representem um avanço, muitos advogados acreditam que será necessário um esforço legislativo mais robusto em nível nacional para enfrentar os desafios colocados pela IA na política.
A Comissão Federal de Comunicações dos EUA está considerando novas exigências de transparência para anúncios políticos em rádio e TV, mas essas regras ainda não se aplicam às redes sociais, onde grande parte da comunicação de campanhas acontece.
Enquanto isso, a desinformação alimentada por IA continua a crescer. Segundo o Centro de Combate ao Ódio Digital, o volume de desinformação gerada por IA aumentou em média 130% por mês no X (antigo Twitter) no último ano, o que reforça a necessidade urgente de ações regulatórias mais abrangentes.
- Veja também: Deepfake Detector: IA da McAfee promete identificar identificar vídeos gerados por inteligência artificial