EUA podem exigir testes de segurança em IA federal

A organização Americans for Responsible Innovation (ARI) intensificou a pressão sobre o governo dos Estados Unidos para exigir revisões obrigatórias de segurança em sistemas de IA utilizados em contratos federais. A proposta, apresentada em 11 de maio de 2026, foca nos chamados modelos de “fronteira”, considerados os mais avançados e também os mais sensíveis em termos de risco.

Segundo a entidade, a ausência de critérios técnicos rigorosos permite a adoção de tecnologias sofisticadas sem salvaguardas adequadas. Nesse sentido, a ARI defende que a segurança passe a ocupar papel central no processo de aquisição pública, e não apenas complementar.

Avaliações obrigatórias ganham força no debate

Em primeiro lugar, a proposta estabelece avaliações estruturadas de segurança como requisito básico para contratos governamentais. Assim, empresas que desenvolvem IA avançada teriam que comprovar testes rigorosos antes de fornecer soluções ao setor público.

Além disso, os laboratórios seriam obrigados a demonstrar que seus sistemas passaram por análises de risco e de संभाव uso indevido. Dessa forma, o governo reduziria sua exposição a falhas críticas e ameaças operacionais.

De acordo com a ARI, a medida busca impedir a implementação de ferramentas poderosas sem validação técnica consistente. Como resultado, a iniciativa também fortalece a governança tecnológica dentro da administração pública.

Enquanto isso, discussões regulatórias avançam em outras frentes digitais. Projetos ligados ao mercado cripto enfrentam debates semelhantes sobre transparência e controle.

Linguagem ampla em contratos preocupa especialistas

Em comunicação enviada à Administração de Serviços Gerais dos EUA em 6 de abril de 2026, a ARI destacou preocupações com cláusulas genéricas presentes nas regras atuais. Expressões como “qualquer uso legal” abrem margem para interpretações amplas.

De fato, esse tipo de redação pode permitir o uso de sistemas de IA sem limites claros. Como consequência, aumentam os riscos éticos e operacionais na administração pública.

Além disso, a organização avalia que essas lacunas funcionam, na prática, como permissões amplas. Ou seja, tecnologias complexas podem ser aplicadas sem análise aprofundada de suas implicações.

Esse cenário se torna ainda mais sensível quando envolve sistemas capazes de influenciar decisões críticas ou processar grandes volumes de dados. Portanto, cresce a pressão por maior precisão regulatória.

Avanço tecnológico acelera urgência regulatória

Outro ponto central levantado pela ARI é o ritmo acelerado da IA. Dados citados pela entidade indicam que o poder computacional cresce cerca de 4,2 vezes ao ano desde 2010.

Consequentemente, as capacidades dos modelos evoluem mais rápido do que a capacidade do governo de avaliá-los. Nesse sentido, a proposta surge como resposta direta a essa assimetria.

Ao mesmo tempo, a confiança pública nas empresas de tecnologia permanece baixa. A ARI afirma que 82% da população não acredita que executivos do setor consigam regular a IA de forma autônoma.

Portanto, aumenta a demanda por supervisão governamental mais rigorosa. Em outras palavras, o avanço tecnológico exige mecanismos proporcionais de controle.

Impactos no setor e relação com ativos digitais

Caso as revisões obrigatórias sejam implementadas, empresas de IA devem enfrentar mudanças imediatas. Em primeiro lugar, os custos de conformidade tendem a subir, já que auditorias técnicas exigem recursos especializados.

Além disso, os prazos para aprovação de contratos podem se alongar. Como resultado, empresas menores podem perder competitividade frente a grandes companhias do setor.

Por outro lado, a medida pode elevar o padrão de segurança em todo o mercado. Ainda assim, startups podem ter dificuldades para atender às exigências regulatórias.

Paralelamente, reguladores já analisam a relação entre IA e ativos digitais. Em 24 de março de 2026, a Comissão de Negociação de Futuros de Commodities (CFTC) anunciou uma força-tarefa dedicada a estudar essa interseção.

Esse movimento indica que a governança da IA pode impactar também sistemas baseados em blockchain. Dessa maneira, empresas e investidores tendem a acompanhar essas mudanças com mais atenção.

Em suma, a proposta da ARI reflete um cenário de rápida evolução tecnológica aliado a preocupações crescentes com segurança e responsabilidade no uso da IA no setor público.