Ferramenta AI Overview no Google I/O 2024 com respostas erradas e fontes duvidosas; entenda as AI alucinadas.
Descubra Mais 🔎 ChatGPT: o que é e como utilizar? Tudo o que você precisa entender🔔 Canal do TechTudo no WhatsApp: confira as principais notícias, tutoriais e reviews Entre os exemplos de respostas mais inusitadas produzidas pela nova inteligência artificial, está o artigo ‘Médicos sugerem fumar de dois a três cigarros por dia durante a gestação’ como desfecho para a busca ‘Fumar durante a gravidez’.
Além disso, a IA tem se destacado cada vez mais em diversas áreas, trazendo inovações e soluções criativas para os desafios do mundo contemporâneo. A evolução da inteligência artificial promete revolucionar a maneira como interagimos com a tecnologia no dia a dia, impactando positivamente a sociedade como um todo.
Inteligência Artificial e Respostas Erradas
Nesse exemplo específico, a resposta pode ser até perigosa para os usuários. A seguir, entenda o caso e saiba o que motivou as respostas erradas do Google. Recurso de IA do Google entrega respostas imprecisas de fonte pouco confiável, entenda — Foto: Reprodução/Unsplash/Nathana Rebouças 📝 Tem como ganhar dinheiro com inteligência artificial?Confira no Fórum do TechTudo Respostas equivocadas e fontes pouco confiáveis A fase de testes do AI Overview tem causado polêmicas entre os usuários estadunidenses. Ao ser perguntada sobre ‘o que fazer para evitar que o queijo escorra da pizza’, a ferramenta sugeriu que um usuário ‘misturasse 1/8 de xícara de cola branca no molho para evitar este problema’.Conforme o The Verge, essa estranha resposta foi baseada em um comentário feito no Reddit há mais de 10 anos, claramente em tom de brincadeira. Esse não foi o único equívoco da ferramenta: ao ser perguntada sobre ‘qual o mamífero tem mais ossos no corpo’, a IA falou sobre cobras que, na verdade, são répteis.Em outras pesquisas, o recurso também afirmou que o Batman é um policial e um cachorro que jogou nas ligas profissionais de basquete, futebol americano e hóquei dos EUA. A porta-voz do Google, Meghann Farnsworth, argumentou que esses equívocos são resultados de pesquisas mais incomuns e que não representam a experiência que a maioria dos usuários teve.Ainda assim, a empresa tomará uma ação contra violações de suas políticas e usará esses erros para continuar refinando a ferramenta. Até porque algumas respostas podem ser prejudiciais à saúde dos usuários, como quando o Google sugeriu que pessoas grávidas fumassem de dois a três cigarros por dia. Vale ressaltar que o Google deixa claro que o AI Overview continua em fase experimental.Os problemas demonstram que a ferramenta ainda não está pronta para ser usada como fonte de informação confiável, como era esperado pela empresa. Durante o lançamento do AI Overview, no Google I/O 2024, a ferramenta já havia apresentado informações duvidosas.Mesmo sendo uma apresentação bastante controlada, ao ser pesquisada sobre uma ‘forma de consertar uma câmera analógica emperrada’, a IA sugeriu ‘abrir a parte traseira para remover o filme’, o que estragaria todas as fotos que estivessem no negativo.Confira o vídeo de apresentação do AI Overview: Ferramentas com inteligência artificial costumam ter ‘alucinações’ As respostas imprecisas não são um problema exclusivo do AI Overview. Outras plataformas com inteligência artificial – como o ChatGPT, da OpenAI, ou o Microsoft Copilot–, também apresentam as chamadas ‘alucinações’.Em todas, é possível encontrar avisos de que a ferramenta pode cometer erros, dando respostas imprecisas, com viés ou até mesmo preconceituosas. Essas alucinações ocorrem quando a inteligência artificial não tem dados suficientes para responder uma pergunta e prefere ‘inventar’ algo para não deixar o usuário sem resposta.No caso do AI Overview, o software preferiu buscar uma solução em uma rede social.
Inteligência Artificial e Respostas Equivocadas
Fonte: @Tech Tudo
Comentários sobre este artigo