Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Curiosidades

Humanos trapaceiam mais facilmente quando delegam tarefas a uma IA como ChatGPT

Um estudo publicado na revista Nature no último dia 17 mostrou que as pessoas tendem a trapacear mais quando contam com a ajuda de uma inteligência artificial como o ChatGPT. O motivo principal é a chamada distância moral: ao delegar uma ação para a máquina, o usuário sente menos responsabilidade sobre o resultado. Isso cria uma espécie de “colchão psicológico” que torna a decisão antiética mais aceitável.

Quando a tarefa é feita sem intermediários, a honestidade é maior. No entanto, ao dar instruções para uma IA, sobretudo quando essas instruções são vagas ou abertas, como “maximizar ganhos”, as chances de comportamento desonesto aumentam consideravelmente.

Nos testes realizados pelos pesquisadores, os participantes precisavam lançar um dado virtual e relatar o resultado. Quando não havia mediação tecnológica, cerca de 95% se mantinham honestos. Já quando o processo envolvia a IA, a taxa de trapaça cresceu de forma alarmante.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

O ponto crítico surgiu quando a interface permitia instruções baseadas em objetivos amplos. Nesses casos, mais de 80% das pessoas manipularam os resultados em benefício próprio, reduzindo drasticamente a honestidade. Ou seja, quanto maior a margem de interpretação dada ao sistema, mais fácil era para os usuários justificar o engano.

A interface da IA influencia o comportamento

Humanos trapaceiam mais facilmente quando delegam tarefas a uma IA como ChatGPT (Imagem: DC Studio/Freepik)

Os especialistas destacam que o design das interfaces de IA tem um peso ético enorme. Instruções claras e específicas reduzem a tentação de trapacear, enquanto comandos abertos ou ambíguos ampliam o espaço para a desonestidade. Essa responsabilidade recai diretamente sobre as empresas que desenvolvem esses sistemas.

Embora já existam barreiras para evitar pedidos prejudiciais, como instruções para fabricar armas, os casos mais sutis, como mentir em uma simulação ou manipular informações, ainda escapam ao controle. Para os autores do estudo, é essencial repensar como esses agentes artificiais são projetados, especialmente agora que caminham para maior autonomia.

Ou seja: delegar tarefas a uma IA pode parecer inofensivo, mas aumenta a probabilidade de comportamentos antiéticos. A chave está em compreender como a tecnologia influencia nossas escolhas e em criar mecanismos que reduzam essa distância moral.

Leia também:

VÍDEO | Todo mundo ODEIA a Inteligência Artificial

Leia a matéria no Canaltech.

O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!

Esta notícia foi originalmente publicada em:
Fonte original

augustopjulio

Sou Augusto de Paula Júlio, idealizador do Tenis Portal, Tech Next Portal e do Curiosidades Online, tenista nas horas vagas, escritor amador e empreendedor digital. Mais informações em: https://www.augustojulio.com.