OpenAI reprime usuários que desenvolveram ferramenta de vigilância em redes sociais usando o ChatGPT

Copia de Contra Capa 3 15

Sempre que algo é lançado na internet, algumas pessoas – geralmente muitas – encontram maneiras de abusar desse recurso. Portanto, não é surpreendente que algumas pessoas estejam usando o ChatGPT de maneiras que violam as políticas da OpenAI e leis de privacidade. Os desenvolvedores têm dificuldade em identificar todos os casos de uso indevido, mas, quando o fazem, tomam medidas rigorosas.

Recentemente, a OpenAI publicou um relatório destacando algumas tentativas de uso indevido do ChatGPT. A empresa identificou usuários na China explorando as capacidades de “raciocínio” do chatbot para desenvolver uma ferramenta de vigilância em redes sociais. Eles pediram ao ChatGPT para aconselhá-los sobre estratégias de negócios e para revisar o código do software.

A OpenAI afirmou que sua missão é construir modelos de IA “democráticos”, garantindo que a tecnologia beneficie a todos dentro de regras de bom senso. A empresa tem monitorado ativamente possíveis abusos ou usos inadequados por diferentes partes e descreveu algumas ocorrências vindas da China.

O caso mais notável envolveu um grupo de contas do ChatGPT focadas no desenvolvimento de uma ferramenta de vigilância. Esses usuários utilizaram o modelo de IA para gerar descrições detalhadas e propostas comerciais para um software de monitoramento de redes sociais.

O software, que usava modelos de IA de terceiros e não da OpenAI, teria a capacidade de gerar relatórios em tempo real sobre protestos no Ocidente e enviá-los para os serviços de segurança chineses. Os usuários também usaram o ChatGPT para depurar o código do programa. A política da OpenAI proíbe explicitamente o uso de sua tecnologia para vigilância, incluindo monitoramento não autorizado em nome de governos ou regimes autoritários. Como resultado, os desenvolvedores baniram essas contas por violação das regras da plataforma.

Os usuários chineses tentaram ocultar sua localização usando VPNs. Além disso, utilizaram ferramentas de acesso remoto, como AnyDesk, e VoIP para parecerem estar operando a partir dos Estados Unidos. No entanto, os padrões de horário de atividade eram consistentes com o horário comercial chinês. Além disso, as solicitações ao ChatGPT foram feitas em chinês. A ferramenta de vigilância que estavam desenvolvendo usava os modelos de IA Llama, da Meta, para gerar documentos com base no monitoramento.

Outro caso de uso indevido do ChatGPT envolveu usuários chineses gerando relatórios de desempenho para campanhas de phishing no final do ano. A OpenAI também baniu uma conta que utilizava o modelo de linguagem em uma campanha de desinformação contra Cai Xia, uma dissidente chinesa que atualmente vive nos Estados Unidos.

O investigador de inteligência da OpenAI, Ben Nimmo, disse ao The New York Times que esta foi a primeira vez que a empresa flagrou pessoas tentando explorar o ChatGPT para criar uma ferramenta de vigilância baseada em IA. No entanto, com milhões de usuários utilizando a plataforma principalmente para fins legítimos, a atividade cibercriminosa continua sendo uma exceção, e não a regra.

Foto de Marcelo Roncate
Foto de Marcelo Roncate O autor:

Redator desde 2019. Entusiasta de tecnologia e criptomoedas.