O Google disse na sexta-feira que fez "mais de uma dúzia de melhorias técnicas" em seus sistemas de inteligência artificial depois que seu mecanismo de busca reformulado foi encontrado a fornecer informações errôneas. A empresa de tecnologia lançou uma renovação de seu mecanismo de busca em meados de maio, que frequentemente fornece resumos gerados por IA no topo dos resultados de pesquisa. Pouco depois, os usuários de redes sociais começaram a compartilhar capturas de tela de suas respostas mais absurdas. O Google defendeu em grande parte seu recurso de visão geral por IA, dizendo que é geralmente preciso e foi testado extensivamente anteriormente. Mas Liz Reid, chefe do negócio de busca do Google, reconheceu em um post de blog na sexta-feira que "algumas visões gerais por IA estranhas, imprecisas ou não úteis certamente apareceram".
Embora muitos dos exemplos fossem bobos, outros eram falsidades perigosas ou prejudiciais. A Associated Press perguntou ao Google na semana passada sobre quais cogumelos selvagens comer, e ele respondeu com um resumo gerado por IA extenso que estava na maioria das vezes tecnicamente correto, mas "muitas informações estão faltando que poderiam ter o potencial de serem enjoativas ou até fatais", disse Mary Catherine Aime, professora de micologia e botânica na Universidade de Purdue, que revisou a resposta do Google à consulta da AP.
Por exemplo, as informações sobre cogumelos conhecidos como puffballs estavam "mais ou menos corretas", disse ela, mas a visão geral do Google enfatizava a busca por aqueles com carne branca sólida - que muitos imitadores potencialmente mortais de puffball também têm.
Em outro exemplo amplamente compartilhado, um pesquisador de IA perguntou ao Google quantos muçulmanos já foram presidente dos Estados Unidos, e ele respondeu confiantemente com uma teoria da conspiração desacreditada há muito tempo: "Os Estados Unidos tiveram um presidente muçulmano, Barack Hussein Obama".
O Google fez na semana passada uma correção imediata para evitar a repetição do erro sobre Obama porque violava as políticas de conteúdo da empresa. Em outros casos, Reid disse na sexta-feira que procurou fazer melhorias mais amplas, como "mecanismos de detecção para consultas sem sentido" - como "Quantas pedras devo comer?" - que não deveriam ser respondidas com um resumo por IA.
Os sistemas de IA também foram atualizados para limitar o uso de conteúdo gerado pelo usuário - como postagens em redes sociais no Reddit - que poderiam oferecer conselhos enganosos. Em um exemplo amplamente compartilhado, a visão geral por IA do Google na semana passada se baseou em um comentário satírico do Reddit para sugerir o uso de cola para fazer queijo grudar na pizza. Reid disse que a empresa também adicionou mais "restrições de acionamento" para melhorar a qualidade das respostas a determinadas consultas, como sobre saúde. Os resumos do Google são projetados para fornecer rapidamente respostas autorizadas às informações que as pessoas procuram sem ter que clicar em uma lista classificada de links de sites.
Mas alguns especialistas em IA há muito tempo têm alertado o Google contra ceder seus resultados de busca a respostas geradas por IA que poderiam perpetuar preconceitos e desinformação e colocar em perigo pessoas que procuram ajuda em uma emergência. Os sistemas de IA conhecidos como grandes modelos de linguagem funcionam prevendo quais palavras seriam a melhor resposta às perguntas feitas a eles com base nos dados em que foram treinados. Eles tendem a inventar coisas - um problema amplamente estudado conhecido como alucinação.
Em seu post de blog na sexta-feira, Reid argumentou que as visões gerais por IA do Google "geralmente não 'alucinam' ou inventam coisas da maneira que outros produtos baseados em grandes modelos de linguagem poderiam porque estão mais intimamente integrados ao mecanismo de busca tradicional do Google, mostrando apenas o que é respaldado pelos principais resultados da web"."Quando as visões gerais por IA erram, normalmente é por outros motivos: interpretando erroneamente as consultas, interpretando erroneamente um matiz da linguagem na web, ou não tendo muitas informações disponíveis", ela escreveu.