Nova política esclarece que IA não substituirá profissionais humanos e usuários são responsáveis por suas decisões e criações
A Microsoft atualizou seu Contrato de Serviço para formalizar a posição da empresa sobre o uso de inteligência artificial (IA) em seus produtos. A mudança, que entra em vigor em 30 de setembro de 2024, inclui uma seção dedicada aos serviços de IA, deixando claro que essas ferramentas não foram desenvolvidas para substituir o acompanhamento humano profissional. A empresa enfatiza que, apesar da capacidade da IA de oferecer respostas precisas em diversas áreas, como saúde, a supervisão e o julgamento final devem ser realizados por especialistas humanos.
O contrato também destaca que a Microsoft não se responsabiliza pelas decisões dos usuários baseadas em respostas fornecidas por suas IAs, como o Copilot. Essa abordagem reforça o entendimento da empresa de que suas ferramentas de IA funcionam como conselheiros, não substitutos, e que os usuários devem ter cautela ao utilizar essas tecnologias. Além disso, a nova política proíbe a extração de dados dos serviços de IA da Microsoft para criar ou treinar outras IAs, e alerta contra o uso dessas ferramentas para a criação de conteúdos que possam enganar ou prejudicar outras pessoas.
A atualização do contrato visa proteger a Microsoft de responsabilidades legais, estabelecendo que os usuários são diretamente responsáveis por suas criações e podem ser penalizados por violações de direitos autorais ou outros crimes. Com essas mudanças, a Microsoft deixa claro seu compromisso com o uso ético e seguro da inteligência artificial, mantendo a tecnologia como uma ferramenta que complementa, e não substitui, o conhecimento humano.