Empresas de tecnologia e agências de proteção à criança no Reino Unido iniciaram um programa para testar agentes de inteligência artificial voltados à detecção de imagens ilegais. A decisão ocorre após relatório do Internet Watch Foundation que identificou 426 casos de material abusivo gerado por IA em 2025. A ação busca conter o uso indevido de modelos generativos, com base em protocolos de verificação aplicados por provedores de nuvem e plataformas de mídia.
O projeto recebeu apoio de companhias que operam sistemas de detecção automatizada e deve adotar parâmetros técnicos compatíveis com padrões da União Europeia e dos Estados Unidos. Estima-se que o investimento inicial alcance o equivalente a R$ 92 milhões, cobrindo infraestrutura de dados e integração de ferramentas de varredura visual em larga escala. O monitoramento será contínuo e integrado a relatórios de auditoria compartilhados entre governos e provedores.
O volume crescente de material ilícito produzido com IA levou o setor a reforçar mecanismos de transparência algorítmica e rastreamento digital. As empresas envolvidas pretendem testar soluções em três fases até 2026, com foco em interoperabilidade e validação de imagem sintética. O plano inclui parcerias com laboratórios de pesquisa e redes de provedores para avaliar o impacto regulatório sobre a geração de conteúdo digital automatizado.
Imagem: Freepik