Instituto de Segurança de IA dos Estados Unidos terá acesso antecipado a novos modelos para avaliar riscos e capacidades das tecnologias
A OpenAI e a Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, testes e avaliação de seus modelos de inteligência artificial. Os acordos foram anunciados pelo Instituto de Segurança de Inteligência Artificial dos EUA, responsável por garantir o desenvolvimento seguro e ético dessas tecnologias. Com o avanço da regulamentação na Califórnia, o instituto terá acesso aos novos modelos de IA dessas empresas antes e depois de seu lançamento público, permitindo uma análise detalhada dos riscos e capacidades.
Jack Clark, cofundador e chefe de política da Anthropic, destacou a importância da colaboração para garantir que os modelos de IA sejam seguros antes de sua adoção em larga escala. A Anthropic, apoiada por gigantes como Amazon e Alphabet, reforçou o compromisso de alavancar a expertise do instituto para aprimorar a segurança dos seus produtos. Jason Kwon, diretor de estratégia da OpenAI, fabricante do ChatGPT, ressaltou que o trabalho conjunto com o instituto contribuirá para a liderança dos EUA no desenvolvimento responsável da IA, criando um modelo que poderá ser seguido globalmente.
O Instituto de Segurança de IA, criado pelo presidente Joe Biden, tem como missão avaliar os riscos conhecidos e emergentes no setor de inteligência artificial. A parceria com as empresas inclui o compartilhamento de feedback sobre melhorias de segurança e a colaboração com o Instituto de Segurança de IA do Reino Unido para fortalecer a governança global da IA.
Paralelamente, a Justiça californiana está prestes a votar o projeto de lei AB 3211, que exige a rotulagem clara de conteúdo gerado por IA. Inicialmente criticado por OpenAI, Adobe e Microsoft, o projeto agora conta com o apoio dessas empresas após recentes emendas. Elon Musk, por outro lado, declarou apoio a outro projeto de lei, SB 1047, que vai de encontro à posição das bigtechs.