Advogado enfrenta multa de US$ 15.000 por usar casos falsos gerados por IA em petição judicial

Mais um caso de um advogado utilizando IA generativa para apresentar petições contendo casos inexistentes levou um juiz a recomendar uma multa de US$ 15.000 por suas ações. Esse valor é mais de três vezes o que dois advogados e seu escritório de advocacia foram multados em 2023 pelo mesmo motivo.
Ao representar a HooserVac LLC em um processo sobre seu fundo de aposentadoria em outubro de 2024, o advogado de Indiana Rafael Ramirez incluiu referências a casos em três petições separadas. No entanto, o tribunal não conseguiu localizar esses casos, pois haviam sido fabricados pelo ChatGPT.
Em dezembro, o juiz magistrado dos Estados Unidos para o Distrito Sul de Indiana, Mark J. Dinsmore, ordenou que Ramirez comparecesse ao tribunal e explicasse por que não deveria ser sancionado pelos erros.
“Trocar números em uma citação, errar a data ou escrever errado o nome de uma parte é um erro”, escreveu o juiz. “Citar um caso que simplesmente não existe é algo completamente diferente. O Sr. Ramirez não oferece nenhuma explicação sobre como uma referência totalmente inventada foi parar em sua petição. A explicação mais óbvia é que ele usou uma ferramenta de IA generativa para redigir sua petição e não verificou as citações antes de enviá-la.”
Ramirez admitiu que usou IA generativa, mas insistiu que não percebeu que os casos eram falsos, pois não sabia que a IA poderia gerar referências fictícias. Ele também confessou não ter cumprido a Regra 11 das Regras Federais de Processo Civil, que determina que as alegações feitas devem ser baseadas em evidências existentes ou ter uma forte probabilidade de serem comprovadas por meio de investigação adicional ou descoberta de provas. Essa regra tem o objetivo de incentivar os advogados a realizarem a devida diligência antes de apresentar casos ao tribunal.
Ramirez afirmou que, desde então, fez cursos de educação jurídica sobre o uso de IA no direito e continua a utilizar ferramentas de IA. No entanto, o juiz declarou que sua “falha em cumprir esse requisito mais básico” torna sua conduta “particularmente sancionável”. Dinsmore acrescentou (via Bloomberg Law) que, como Ramirez não forneceu uma representação competente e fez várias declarações falsas ao tribunal, ele estava sendo encaminhado ao juiz-chefe para possíveis medidas disciplinares adicionais.
Dinsmore recomendou que Ramirez seja multado em US$ 5.000 para cada um dos três casos apresentados com referências falsas.
Esse não é o primeiro caso em que a confiança de advogados na IA se mostrou equivocada. Em junho de 2023, dois advogados e seu escritório de advocacia foram multados em US$ 5.000 por um juiz distrital de Manhattan por citarem pesquisas jurídicas falsas geradas pelo ChatGPT.
Em janeiro, advogados em Wyoming apresentaram nove casos para apoiar um argumento em um processo contra a Walmart e a Jetson Electric Bikes, relacionado a um incêndio supostamente causado por um hoverboard. No entanto, oito desses casos haviam sido “alucinados” pelo ChatGPT.