Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Curiosidades

Modelos de IA famosos estão usando artigos científicos retratados como fonte

Alguns modelos de inteligência artificial, incluindo chatbots populares como o ChatGPT, podem recorrer a artigos científicos retratados ao formular respostas. Isso levanta preocupações sobre a confiabilidade dessas ferramentas, especialmente em áreas críticas como saúde e ciência. O alerta vem do MIT Technology Review.

Os pesquisadores descobriram que, ao responder perguntas sobre estudos já invalidados, os modelos citam os artigos como fontes mesmo assim, e não alertam o usuário de que o material foi oficialmente retirado do registro científico. Isso pode induzir ao erro profissionais, estudantes e o público em geral que buscam informações de confiança.

A utilização de artigos retratados pode comprometer a qualidade da informação disponível e até influenciar decisões de saúde, investimentos ou políticas públicas.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Chatbots de IA já são usados por estudantes e cientistas para resumir artigos, revisar literatura e gerar hipóteses de pesquisa. Se a ferramenta basear sua resposta em um estudo inválido sem aviso prévio, os usuários podem ser levados a conclusões incorretas.

A situação é ainda mais delicada quando se trata de conselhos médicos, já que muitas pessoas recorrem a IA para compreender sintomas ou buscar diagnósticos preliminares.

Falta de padronização e atualização de dados

Modelos de IA famosos estão usando artigos científicos retratados como fonte (Imagem: ojosujono96/freepik)

De acordo com o relatório do MIT, um dos grandes obstáculos para resolver o problema está na ausência de padronização entre editoras científicas. Termos como “retratado” ou “errata” são usados de formas diferentes, o que dificulta a detecção automática pelas ferramentas de IA.

Além disso, muitos artigos circulam em servidores de pré-publicação e repositórios independentes, espalhando versões antigas e sem marcações de retratação. Como os modelos de IA são treinados em grandes bases de dados que nem sempre estão atualizadas, acabam absorvendo esses materiais sem filtros adequados.

Caminhos para aumentar a confiabilidade

Os especialistas defendem que as empresas responsáveis por modelos de IA implementem mecanismos de verificação em tempo real, usando bases de dados como o Retraction Watch e catálogos acadêmicos atualizados. Algumas plataformas já anunciaram melhorias nesse sentido, reduzindo o número de artigos retratados citados.

Outra solução seria fornecer mais contexto nas respostas, incluindo alertas claros sobre retratações, revisões por pares e críticas publicadas em sites especializados como o PubPeer. Isso ajudaria usuários a distinguir entre ciência válida e conteúdo já desqualificado.

Leia também:

VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?

Leia a matéria no Canaltech.

O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!

Esta notícia foi originalmente publicada em:
Fonte original

augustopjulio

Sou Augusto de Paula Júlio, idealizador do Tenis Portal, Tech Next Portal e do Curiosidades Online, tenista nas horas vagas, escritor amador e empreendedor digital. Mais informações em: https://www.augustojulio.com.