O Google aparentemente decidiu restringir certas perguntas ao AI Overview, devido às respostas “bizarras”. As informações estranhas geradas pela inteligência artificial (IA) do buscador divulgadas pelo público nas redes sociais não mais aparecem em determinadas pesquisas. A mudança foi percebida pelo The Verge.
Aparentemente, a contenção acontece de forma manual. Várias perguntas que viralizaram nas redes sociais agora não retornam mais resultados do AI Overview. Até agora, a companhia não se manifestou publicamente sobre o assunto.
O lançamento do AI Overview foi, no mínimo, problemático. Pensada como um meio de fornecer respostas rápidas para pesquisas no Google, a ferramenta acabou gerando uma variedade de bizarrices e respostas imprecisas, como a sugestão de colocar cola não tóxica para aumentar a aderência do queijo em pizzas.
Publicado por @reckless1280
Ver no Threads
A receita inédita para pizzas não foi a única ideia bizarra da IA do buscador mais famoso do mundo, porém. O modelo também chegou a recomendar a ingestão de pedras para suprir a demanda por minerais e vitaminas, bem como o consumo de cigarros diariamente para gestantes.
Bizarro, mas perigoso
Ainda que o AI Overview tenha sido protagonista de uma infinidade de memes e posts bizarros compartilhados nas redes, as respostas estranhas reforçam a ideia de que a IA não é confiável. Se o modelo é incapaz de compreender a estranheza de sugerir a mistura de cola em pizzas e outros hábitos nocivos para a saúde, deve ser ainda mais difícil entender temas complexos ou mais sensíveis.
O AI Overview está em experimentação há mais de um ano. Inicialmente, a ferramenta era conhecida como Search Generative Experience e, desde sua inauguração em maio de 2023, já respondeu mais de 1 bilhão de pesquisas.
Contudo, mesmo com essa quantidade enorme de interações, a IA ainda não é perfeita. As respostas curiosas fornecidas pelo modelo mostram que ela precisa de aperfeiçoamentos importantes, ao menos para ser considerada uma fonte de informações confiável.
Por que a IA do Google responde errado?
Na verdade, as respostas do Google são um exemplo claro de alucinação de IA. As alucinações são um conhecido fenômeno de modelos generativos, um possível “efeito colateral” do excesso de dados obtidos durante o treinamento.
Além de obter informações a partir de artigos acadêmicos, livros e outras fontes seguras, modelos generativos como os que alimentam o AI Overview obtém dados pela internet. Contudo, diferente de humanos, a tecnologia é incapaz de interpretar ironia, sarcasmo, respostas propositalmente enganosas e não lida bem com dados incompletos. Naturalmente, isso interfere na construção das respostas e interações.