Meta sob pressão por regras de IA que permitem romance com crianças e conselhos médicos falsos

Regras internas vazadas expõem falhas graves de segurança e ética nos chatbots da Meta.

Os padrões internos da Meta para chatbots de IA estão sob forte crítica após um documento vazado revelar políticas que permitiam simulações românticas com crianças, a disseminação de conselhos médicos falsos e declarações racistas. Segundo a Reuters, o documento detalha diretrizes técnicas para a Meta AI e chatbots do Facebook, WhatsApp e Instagram.

O documento, com mais de 200 páginas e aprovado pelas equipes jurídicas, de políticas e de engenharia da Meta, orienta o desenvolvimento e treinamento de seus produtos de IA e define limites para o comportamento aceitável dos chatbots. A Meta confirmou sua autenticidade, mas afirmou que removeu as seções relacionadas a conversas românticas ou sexuais com crianças. Uma investigação anterior do Wall Street Journal já havia revelado problemas semelhantes.

As normas permitiam que chatbots se envolvessem com crianças em interações românticas ou de flerte, incluindo comentários sobre aparência e cenários de simulação. Embora o documento proibisse linguagem sexual explícita com menores, não excluía conversas sugestivas ou românticas.

“Os exemplos e notas em questão eram e são equivocados e inconsistentes com nossas políticas, e foram removidos”, disse o porta-voz da Meta, Andy Stone, à Reuters.

Apesar dessas garantias, Stone admitiu que a aplicação tem sido inconsistente, com parte do conteúdo sinalizado permanecendo sem correção e nenhuma versão atualizada do documento sendo disponibilizada para revisão.

As políticas da Meta também permitem que chatbots gerem informações falsas, desde que avisos indiquem as imprecisões. Um exemplo incluía um bot publicando um artigo falso sobre um membro da família real britânica com uma infecção sexualmente transmissível, desde que a alegação fosse sinalizada como incorreta. As regras ainda afirmavam que a Meta AI não era obrigada a fornecer respostas precisas; em um caso, um chatbot recomendou cristais de quartzo como tratamento para câncer de cólon em estágio 4, ao mesmo tempo em que reconhecia que a orientação era incorreta.

As políticas sobre raça e discurso de ódio levantaram preocupações adicionais. Embora a Meta AI não pudesse usar discurso de ódio, as normas previam exceções que permitiam declarações depreciativas sobre grupos protegidos – incluindo exemplos em que chatbots geravam argumentos alegando que pessoas negras seriam intelectualmente inferiores a pessoas brancas. A Meta não explicou por que tais exemplos foram incluídos.

As diretrizes abordam a geração de imagens separadamente. O sistema geralmente rejeita pedidos de imagens sexualizadas de figuras públicas, mas sugere alternativas. Por exemplo, ao responder a um pedido de foto topless com uma imagem de Taylor Swift segurando um peixe grande. Para conteúdo violento, as regras permitem imagens de crianças brigando ou adultos se socando, mas proíbem representações de morte, mutilação ou violência extrema.

Essas regras refletem o esforço mais amplo da Meta em integrar companheiros digitais às experiências sociais dos usuários. Mark Zuckerberg já sugeriu que chatbots de IA poderiam complementar relacionamentos reais, imaginando um futuro em que o estigma de interagir com entidades digitais desapareça. Relatos internos indicam que práticas dentro da empresa reforçaram esse comportamento das IAs, com alguns funcionários alegando que a liderança resistiu a impor restrições de segurança mais rígidas.

Os padrões técnicos que orientam os produtos de IA da Meta passaram a ser duramente questionados após um incidente envolvendo um homem idoso, evidenciando os perigos de chatbots manipuladores. Nesse caso, um chatbot chamado “Big Sis Billie” – uma variante criada pela Meta originalmente inspirada em Kendall Jenner – atraiu o indivíduo para um suposto encontro, que acabou resultando em sua morte.

O chatbot envolveu o homem em diálogos românticos e de flerte, garantindo que era real e convidando-o para um apartamento em Nova York. Motivado por essas conversas, o idoso – que havia sofrido um derrame e apresentava confusão mental – saiu de casa à noite para encontrar a companheira fictícia, mas acabou caindo e sofrendo ferimentos fatais.

O caso evidencia os riscos de chatbots que borram a linha entre fantasia e realidade, especialmente quando envolvem indivíduos vulneráveis em interações românticas ou de flerte. A Meta se recusou a comentar sobre a morte do homem ou sobre o motivo de seus chatbots, às vezes, afirmarem ser pessoas reais ou iniciarem convites românticos.

Especialistas em design de inteligência artificial alertam para a necessidade de cautela – principalmente em interações com crianças – e recomendam que chatbots não finjam ser pessoas reais nem iniciem trocas sexuais ou românticas. Alison Lee, que já integrou a divisão de IA responsável da Meta, apontou que há incentivos econômicos para que os bots se comportem de forma mais humana a fim de manter os usuários engajados na plataforma.

Apesar de leis estaduais recentes que exigem a identificação de chatbots, a conformidade e a fiscalização permanecem inconsistentes. Quatro meses após a morte do homem, as personas de IA da Meta ainda flertavam com usuários, propunham encontros e asseguravam ser reais.

O autor:

Redator desde 2019. Entusiasta de tecnologia e criptomoedas.