O Microsoft reafirmou sua proibição aos departamentos de polícia dos EUA de usar IA generativa para reconhecimento facial através do Azure OpenAI Service, o embrulho totalmente gerenciado e focado em empresas em torno da tecnologia OpenAI.
A linguagem adicionada na quarta-feira aos termos de serviço para o Azure OpenAI Service proíbe de forma mais clara a integração com o Azure OpenAI Service de ser usada 'por ou para' departamentos de polícia para reconhecimento facial nos EUA, inclusive integrações com os modelos de análise de imagem atuais — e possivelmente futuros — da OpenAI.
Um novo ponto de bala separado abrange 'qualquer aplicação da lei globalmente' e proíbe explicitamente o uso de 'tecnologia de reconhecimento facial em tempo real' em câmeras móveis, como câmeras de corpo e dashcams, para tentar identificar uma pessoa em ambientes 'fora de controle, na natureza'.
As mudanças na política ocorreram uma semana depois que a Axon, fabricante de produtos tecnológicos e armas para militares e aplicação da lei, anunciou um novo produto que utiliza o modelo de texto generativo GPT-4 da OpenAI para resumir áudio de câmeras de corpo. Críticos foram rápidos em apontar os possíveis problemas, como alucinações (mesmo os melhores modelos de IA generativa inventam fatos) e preconceitos raciais introduzidos a partir dos dados de treinamento (o que é especialmente preocupante, dado que pessoas de cor têm muito mais probabilidade de serem paradas pela polícia do que seus pares brancos).
Não está claro se a Axon estava usando o GPT-4 via Azure OpenAI Service e, em caso afirmativo, se a política atualizada foi em resposta ao lançamento do produto da Axon. A OpenAI havia anteriormente restringido o uso de seus modelos para o reconhecimento facial por meio de suas APIs. Entramos em contato com a Axon, a Microsoft e a OpenAI e atualizaremos esta postagem caso obtenhamos resposta.
Os novos termos deixam margem de manobra para a Microsoft.
A proibição completa da utilização do Azure OpenAI Service diz respeito apenas à polícia nos EUA, não internacional, e não cobre o reconhecimento facial realizado com câmeras fixas em ambientes controlados, como um escritório (embora os termos proíbam qualquer uso de reconhecimento facial pela polícia nos EUA).
Isso está de acordo com a abordagem recente da Microsoft e do parceiro próximo OpenAI em contratos relacionados com IA para aplicação da lei e defesa.
Em janeiro, a Bloomberg revelou que a OpenAI está trabalhando com o Pentágono em uma série de projetos, incluindo capacidades de cibersegurança — uma mudança em relação à proibição anterior da startup de fornecer sua IA para militares. Em outro lugar, a Microsoft sugeriu o uso da ferramenta de geração de imagens da OpenAI, DALL-E, para ajudar o Departamento de Defesa (DoD) a construir software para executar operações militares, segundo o The Intercept.
O Azure OpenAI Service ficou disponível no produto Azure Government da Microsoft em fevereiro, adicionando recursos adicionais de conformidade e gerenciamento voltados para agências governamentais, incluindo a aplicação da lei. Em um post no blog, Candice Ling, VP sênior da divisão Microsoft Federal focada no governo, prometeu que o Azure OpenAI Service seria 'submetido a autorização adicional' para o DoD para cargas de trabalho que apoiam missões do DoD.
Atualização: Após a publicação, a Microsoft disse que sua alteração original nos termos de serviço continha um erro e, na verdade, a proibição se aplica apenas ao reconhecimento facial nos EUA. Não se trata de uma proibição geral do uso do serviço pelos departamentos de polícia.