Meta admite erro no Instagram que inundou o Reels com conteúdo violento e pornográfico

A Meta admitiu que um “erro” fez com que usuários do Instagram vissem uma grande quantidade de conteúdo violento e pornográfico em sua página pessoal do Reels. A empresa pediu desculpas pelo erro, que resultou na exibição de vídeos contendo desde tiroteios em escolas e assassinatos até estupros.
A Meta afirmou que já corrigiu o problema, embora não tenha fornecido detalhes específicos. “Este problema fez com que alguns usuários vissem conteúdo em seu feed do Instagram Reels que não deveria ter sido recomendado. Pedimos desculpas pelo erro”, disse um porta-voz da Meta em um comunicado enviado à CNBC.
Segundo usuários do Reddit que visualizaram alguns desses Reels, o conteúdo incluía brigas de rua, tiroteios em escolas, assassinatos e acidentes sangrentos. Um usuário do X mostrou como praticamente todos os vídeos em seu feed vinham com um aviso de Conteúdo Sensível. Vale destacar que alguns desses vídeos já tinham acumulado milhões de visualizações.
Outro usuário do Reddit relatou ter sido exposto a violência gráfica, agressões e conteúdos perturbadores. Relatos indicam que os vídeos também incluíam esfaqueamentos, decapitações, castrações, nudez frontal explícita, pornografia sem censura e agressão sexual.
O que torna a situação ainda mais preocupante é que alguns usuários tentaram remover os clipes extremos ajustando suas preferências e ativando o Controle de Conteúdo Sensível antes de redefinir as sugestões de conteúdo. No entanto, os vídeos voltaram a aparecer após algumas rolagens. Mesmo selecionando a opção “Não estou interessado” nos clipes, vídeos similares continuavam a ser exibidos.
Como em outras redes sociais, o Instagram normalmente mostra conteúdo com base no que os usuários visualizaram ou interagiram anteriormente. No entanto, esses clipes aparentemente foram exibidos para pessoas aleatórias que nunca demonstraram interesse em vídeos semelhantes.
Parece que grande parte desses Reels nem deveria estar no Instagram, pois violam as políticas da Meta. A empresa afirmou que removerá o conteúdo mais gráfico enviado à plataforma, incluindo fotos e vídeos reais de nudez e atividade sexual. Também são proibidos vídeos “que retratem desmembramentos, órgãos internos visíveis ou corpos carbonizados”, assim como conteúdos que contenham “comentários sádicos em relação a imagens que mostrem o sofrimento de humanos e animais”.
A Meta permite certos conteúdos gráficos quando eles são usados para condenar e aumentar a conscientização sobre abusos de direitos humanos, conflitos armados ou atos de terrorismo, mas esses vídeos vêm acompanhados de avisos.
Em uma medida aparentemente planejada para ganhar apoio do presidente Trump, o CEO Mark Zuckerberg anunciou em janeiro que a Meta reduziria a censura em suas plataformas, além de remover verificadores de fatos terceirizados e recomendar mais conteúdo político.
Filtros que antes escaneavam todas as violações de política agora se concentram apenas em infrações ilegais e de alta gravidade, como terrorismo, exploração sexual infantil, drogas, fraudes e golpes. A empresa passou a depender dos usuários para denunciar violações de menor prioridade antes de tomar qualquer ação.