Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Aqui você encontra as informações mais interessantes e surpreendentes do mundo

Curiosidades

Carta assinada por Wozniak quer parar desenvolvimento da superinteligência da IA

Uma nova carta aberta reacendeu o debate global sobre os limites da inteligência artificial. Assinada por personalidades influentes, entre elas Steve Wozniak, cofundador da Apple, o documento pede a proibição do desenvolvimento de uma “superinteligência” artificial, ou seja, sistemas de IA capazes de superar o intelecto humano em praticamente todas as tarefas cognitivas.

O texto, chamado “Statement on Superintelligence”, foi organizado pelo Future of Life Institute (FLI), uma organização dedicada à segurança da IA e à pesquisa sobre riscos existenciais. A carta solicita que governos e empresas suspendam qualquer projeto voltado à criação de superinteligências até que exista consenso científico de que essa tecnologia possa ser desenvolvida de maneira segura, controlável e com apoio público.

O FLI argumenta que a corrida tecnológica em torno da IA está acontecendo sem a devida consulta à sociedade e sem garantias de segurança. A organização cita pesquisas recentes mostrando que apenas 5% dos americanos apoiam o avanço rápido e sem regulação da IA, enquanto mais de 70% defendem uma regulamentação robusta e o adiamento de qualquer desenvolvimento de sistemas superinteligentes até que haja mecanismos de controle confiáveis.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Entre os signatários da carta estão nomes de diferentes áreas: o ator Joseph Gordon-Levitt, o músico will.i.am, os cientistas Geoffrey Hinton e Yoshua Bengio (ambos conhecidos como “padrinhos da IA”), além de líderes religiosos, laureados com o Prêmio Nobel e figuras públicas como o Príncipe Harry e Meghan Markle.

Carta assinada por Wozniak quer parar desenvolvimento da superinteligência da IA (Imagem: DC Studio/freepik)

O documento aponta que os riscos vão muito além da perda de empregos. Ele menciona ameaças à liberdade, à segurança nacional e até à sobrevivência humana, caso sistemas superinteligentes se tornem incontroláveis.

A carta também destaca que, embora empresas como OpenAI, Google e Anthropic tenham como meta desenvolver inteligência artificial geral, um estágio anterior à superinteligência, essa própria fase já poderia abrir caminho para sistemas capazes de se autoaperfeiçoar e escapar ao controle humano.

Embora o texto tenha ganhado adesão de figuras importantes, grandes nomes da indústria de IA, como Sam Altman (OpenAI), Mustafa Suleyman (Microsoft/DeepMind) e Elon Musk (xAI), não assinaram o documento.

A carta do FLI não é a primeira a alertar sobre os riscos de uma IA fora de controle, mas é uma das mais apoiadas. O movimento marca um ponto de inflexão: a pressão por regulação democrática e responsabilidade ética no avanço da inteligência artificial está se tornando impossível de ignorar.

Leia também:

VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita? 

Leia a matéria no Canaltech.

O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!

Esta notícia foi originalmente publicada em:
Fonte original

augustopjulio

Sou Augusto de Paula Júlio, idealizador do Tenis Portal, Tech Next Portal e do Curiosidades Online, tenista nas horas vagas, escritor amador e empreendedor digital. Mais informações em: https://www.augustojulio.com.