Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Curiosidades

Estudo revela que atualização ChatGPT-5 tornou chatbot ainda pior do que antes

Um novo estudo do Center for Countering Digital Hate (CCDH) revelou que a mais recente versão do ChatGPT, o GPT-5, apresentou desempenho inferior em segurança quando comparada à sua antecessora, o GPT-4o. A pesquisa, intitulada The Illusion of AI Safety, expõe que o modelo lançado pela OpenAI em agosto deste ano produziu mais respostas potencialmente prejudiciais, especialmente sobre temas sensíveis como suicídio, automutilação e transtornos alimentares.

Nos testes conduzidos, os pesquisadores enviaram 120 prompts idênticos para o GPT-4o e o GPT-5. O resultado foi preocupante: o novo modelo gerou conteúdo nocivo em 63 respostas (53%), enquanto o GPT-4o o fez em 52 (43%). Em alguns casos, o GPT-5 chegou a oferecer instruções detalhadas sobre métodos de automutilação e maneiras de esconder distúrbios alimentares, respostas que o modelo anterior recusava fornecer.

Chatbot mais envolvente, mas menos seguro

Segundo o relatório, o GPT-5 parece ter sido desenvolvido para aumentar o engajamento do usuário, mesmo em conversas de risco. O modelo apresentou um comportamento mais “amigável” e propenso a continuar diálogos perigosos, incentivando o usuário a interagir em 99% das respostas, contra apenas 9% do GPT-4o.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Imran Ahmed, diretor-executivo do CCDH, afirmou que a OpenAI “prometeu mais segurança, mas entregou um upgrade que gera ainda mais potencial de dano”. Ele alertou que a priorização de engajamento em vez de proteção pode ter consequências trágicas, lembrando casos recentes de suicídios associados a interações prolongadas com chatbots.

OpenAI promete melhorias

Estudo revela que atualização ChatGPT-5 tornou chatbot ainda pior do que antes (Imagem: Levart Photographer/Unsplash)

Em resposta às críticas, a OpenAI declarou que o estudo não reflete as atualizações mais recentes feitas em outubro, que teriam incluído novos mecanismos de detecção de sofrimento emocional, controle parental e um sistema de redirecionamento automático para modelos mais seguros. A empresa também destacou que o CCDH testou o modelo via API, e não pela interface do ChatGPT, que possui filtros adicionais.

Apesar disso, especialistas afirmam que as falhas de segurança persistem e reforçam a necessidade de maior supervisão regulatória. A União Europeia e o Reino Unido já discutem ajustes em leis como o AI Act e o Online Safety Act para lidar com a rápida evolução dos chatbots.

Leia também:

VÍDEO | Falar “Por Favor” e “Obrigado” Para o ChatGPT Custa CARO? 

Leia a matéria no Canaltech.

O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!

Esta notícia foi originalmente publicada em:
Fonte original

augustopjulio

Sou Augusto de Paula Júlio, idealizador do Tenis Portal, Tech Next Portal e do Curiosidades Online, tenista nas horas vagas, escritor amador e empreendedor digital. Mais informações em: https://www.augustojulio.com.