Notícias

O Google reage depois que a pesquisa baseada em IA diz aos usuários para colarem pizza e comerem pedras

Algumas das respostas pareciam ser baseadas em comentários do Reddit.

O novo recurso de busca do Google que usa inteligência artificial (IA) para responder às perguntas dos usuários está enfrentando críticas por fornecer respostas imprecisas, incluindo dizer aos usuários para comerem pedras e misturar queijo de pizza com cola. De acordo com BBC, as “Visões gerais de IA” experimentais do Google foram lançadas nos Estados Unidos na semana passada e disponibilizadas para alguns usuários no Reino Unido no mês passado. Ele foi projetado para simplificar a busca por informações, no entanto, desde o lançamento, exemplos de comportamento errático do recurso inundaram as redes sociais.

O BBC relataram que, em um caso, a IA parecia dizer aos usuários para misturar “cola não tóxica” com queijo para fazê-lo grudar na pizza. Em outro caso, disse que os geólogos recomendam que os humanos comam uma pedra por dia. Outra resposta disse aos usuários que apenas 17 dos 42 presidentes dos EUA eram brancos. A AI Overview também afirmou falsamente que o ex-presidente dos EUA, Barack Obama, é muçulmano.

Algumas das respostas pareciam ser baseadas em comentários do Reddit ou artigos escritos pelo site satírico The Onion.

No entanto, o Google afirma que essas respostas não representam como a ferramenta funciona em geral. Em declarações ao canal, um porta-voz do Google disse que estes eram “exemplos isolados”.

“Os exemplos que vimos são geralmente consultas muito incomuns e não representam as experiências da maioria das pessoas”, disse o Google em comunicado. “A grande maioria das visões gerais de IA fornece informações de alta qualidade, com links para se aprofundar na web. Realizamos testes extensivos antes de lançar esta nova experiência para garantir que as visões gerais de IA atendam ao nosso alto padrão de qualidade”, continuou.

Leia também | Evite vincular este cartão de pagamento a carteiras digitais no seu telefone, alertam especialistas

A gigante da tecnologia também disse que tomou medidas onde foram identificadas “violações de políticas” e que as está usando para refinar seu sistema. “Onde houve violações das nossas políticas, tomámos medidas – e também estamos a usar estes exemplos isolados à medida que continuamos a refinar os nossos sistemas em geral”, acrescentou.

Entretanto, esta não é a primeira vez que uma empresa enfrenta problemas com os seus produtos alimentados por IA. Num exemplo notável, o ChatGPT fabricou um escândalo de assédio sexual e nomeou um verdadeiro professor de direito como o perpetrador, citando notícias de jornais fictícias como prova. Em um incidente mais recente, a OpenAI, criadora do ChatGPT, foi criticada pela atriz de Hollywood Scarlett Johansson por usar uma voz semelhante à dela, dizendo que recusou o pedido para dar voz ao popular chatbot.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button