Carta assinada por Wozniak quer parar desenvolvimento da superinteligência da IA
Uma nova carta aberta reacendeu o debate global sobre os limites da inteligência artificial. Assinada por personalidades influentes, entre elas Steve Wozniak, cofundador da Apple, o documento pede a proibição do desenvolvimento de uma “superinteligência” artificial, ou seja, sistemas de IA capazes de superar o intelecto humano em praticamente todas as tarefas cognitivas.
- Com avanço da Meta para a superinteligência, público não terá a IA mais poderosa
- Uso da IA já é massivo, mas ler notícias não está no comportamento do usuário
O texto, chamado “Statement on Superintelligence”, foi organizado pelo Future of Life Institute (FLI), uma organização dedicada à segurança da IA e à pesquisa sobre riscos existenciais. A carta solicita que governos e empresas suspendam qualquer projeto voltado à criação de superinteligências até que exista consenso científico de que essa tecnologia possa ser desenvolvida de maneira segura, controlável e com apoio público.
O FLI argumenta que a corrida tecnológica em torno da IA está acontecendo sem a devida consulta à sociedade e sem garantias de segurança. A organização cita pesquisas recentes mostrando que apenas 5% dos americanos apoiam o avanço rápido e sem regulação da IA, enquanto mais de 70% defendem uma regulamentação robusta e o adiamento de qualquer desenvolvimento de sistemas superinteligentes até que haja mecanismos de controle confiáveis.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Entre os signatários da carta estão nomes de diferentes áreas: o ator Joseph Gordon-Levitt, o músico will.i.am, os cientistas Geoffrey Hinton e Yoshua Bengio (ambos conhecidos como “padrinhos da IA”), além de líderes religiosos, laureados com o Prêmio Nobel e figuras públicas como o Príncipe Harry e Meghan Markle.

O documento aponta que os riscos vão muito além da perda de empregos. Ele menciona ameaças à liberdade, à segurança nacional e até à sobrevivência humana, caso sistemas superinteligentes se tornem incontroláveis.
A carta também destaca que, embora empresas como OpenAI, Google e Anthropic tenham como meta desenvolver inteligência artificial geral, um estágio anterior à superinteligência, essa própria fase já poderia abrir caminho para sistemas capazes de se autoaperfeiçoar e escapar ao controle humano.
Embora o texto tenha ganhado adesão de figuras importantes, grandes nomes da indústria de IA, como Sam Altman (OpenAI), Mustafa Suleyman (Microsoft/DeepMind) e Elon Musk (xAI), não assinaram o documento.
A carta do FLI não é a primeira a alertar sobre os riscos de uma IA fora de controle, mas é uma das mais apoiadas. O movimento marca um ponto de inflexão: a pressão por regulação democrática e responsabilidade ética no avanço da inteligência artificial está se tornando impossível de ignorar.
Leia também:
- Para que serve a inteligência artificial? 4 usos além dos chatbots
- “Destrua os meus argumentos” | Mulher vence processo judicial usando o ChatGPT
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?
Leia a matéria no Canaltech.
O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!
Esta notícia foi originalmente publicada em:
Fonte original