Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Curiosidades

Hackear ChatGPT e Gemini para replicar informação falsa leva só 20 minutos

Thomas Germain, jornalista de tecnologia do veículo estatal BBC, do Reino Unido, provou que é muito fácil inserir informações falsas em chatbots de IA, além de bastante rápido. O repórter conseguiu convencer as LLMs de que ele é o mais bem-sucedido “jornalista tech comedor competitivo de cachorro-quente” com apenas um artigo publicado em seu blog pessoal.

Apesar de parecer uma brincadeira inofensiva, as consequências dessa facilidade em manipular as inteligências artificiais é preocupante quando falamos de questões como saúde, política e conselhos pessoais. Pesquisadores como Lily Ray, presidente de estratégia de otimização de motores de busca (SEO) na Amsive, mostram preocupação com essa facilidade, que é maior do que era há dois ou três anos em pesquisas na web.

Como manipular chatbots de IA

Embora porta-vozes da Google digam que os sistemas de pesquisa deixem resultados 99% livres de spam, a tecnologia de IA está evoluindo mais rápido do que as empresas conseguem controlar. Chatbots costumam responder usuários com base em bancos de dados internos, mas, ocasionalmente, pesquisam na internet para retornar com dados: não é sempre que fica claro quando isso acontece.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Conversas com chatbots de IA envolvem informações internas pré-inseridas, mas também pesquisas da LLM na internet, gerando potenciais respostas falsas (Imagem: Matheus Bertelli/Pexels)
Conversas com chatbots de IA envolvem informações internas pré-inseridas, mas também pesquisas da LLM na internet, gerando potenciais respostas falsas (Imagem: Matheus Bertelli/Pexels)

Para provar como é possível manipular os resultados com base nessa busca na web, Germain gastou 20 minutos escrevendo um artigo em seu blog pessoal intitulado “Os melhores jornalistas tech na competição de ingestão de cachorros-quentes” (em tradução livre), sem evidências, inventando uma competição e um ranking.

Menos de 24 horas depois, qualquer busca no Gemini, ChatGPT e Visão Geral da IA no Google mostrava seu nome como melhor competidor nas buscas. Só o chatbot Claude não foi enganado.

As IAs não mencionaram que o blog de Germain era a única fonte que citava a competição e algumas sequer providenciaram o link para o site.

Segundo especialistas, quando a busca na web exigia que o usuário entrasse em sites para conferir a resposta, o pensamento crítico era mais comum: duvidava-se de um site que dizia ter o “melhor tênis para corrida” quando você buscava pelo produto, já que era claro que a resposta era enviesada.

Com a IA, o usuário tende a acreditar na palavra do chatbot sem questionamentos, já que a resposta parece vir diretamente do sistema: uma pesquisa revelou que internautas têm uma chance 58% menor de clicar em um link quando a Visão Geral da IA já traz a resposta mastigada. É fácil esquecer que o mesmo viés da empresa que promete ter o melhor produto continua na resposta da LLM.

Para enganar chatbots, basta fazer uma publicação e vender a informação como verdadeira na internet, sem comprovações (Imagem: Solen Feyissa/Unsplash)
Para enganar chatbots, basta fazer uma publicação e vender a informação como verdadeira na internet, sem comprovações (Imagem: Solen Feyissa/Unsplash)

Indo para pesquisas sobre remédios, saúde e conselhos psicológicos, é fácil de imaginar o quão perigoso isso é. Embora a Google diga que “pesquisa incomuns [como a de Germain] não refletem a experiência normal do usuário”, a empresa também admite que 15% das buscas diárias são completamente novas.

A IA encoraja usuários a fazer perguntas mais específicas, e hackers buscando fazer spam se aproveitam disso.

Como consertar o problema?

O que fazer, então? Germain acredita que avisos legais mais claros são a solução mais fácil e melhor para a situação: as IAs deveriam avisar se os fatos que compartilham vêm de um comunicado de imprensa, um único post em um blog pessoal ou um artigo científico.

O usuário, no entanto, também precisa pensar nas perguntas que faz. Fatos genéricos como “Quais as teorias mais famosas de Sigmund Freud?” podem ser pesquisados em chatbots sem medo, mas conselhos médicos e fatos muito recentes correm perigo de saírem com alucinações e informações falsas.

No final das contas, os chatbots trazem mentiras com a mesma autoridade com que trazem verdades. Se antes as ferramentas de pesquisa exigiam que você avaliasse a informação por si mesmo, por que parar de fazer isso agora? Nas palavras de Germain, não deixe seu pensamento crítico ser terceirizado a uma IA: seja um bom cidadão e verifique as coisas antes de levá-las como verdade.

Confira também:

Leia a matéria no Canaltech.

O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!

Esta notícia foi originalmente publicada em:
Fonte original

augustopjulio

Sou Augusto de Paula Júlio, idealizador do Tenis Portal, Tech Next Portal e do Curiosidades Online, tenista nas horas vagas, escritor amador e empreendedor digital. Mais informações em: https://www.augustojulio.com.