Sabado, 15 de Novembro de 2025
O plano da Anthropic para evitar uma catástrofe nuclear

Ciência e Tecnologia

O plano da Anthropic para evitar uma catástrofe nuclear

Entenda como o governo dos EUA e a Anthropic querem impedir o uso indevido da inteligência artificial.

IMPRIMIR
Use este espaço apenas para a comunicação de erros nesta postagem
Máximo 600 caracteres.

Já imaginou uma inteligência artificial tão poderosa que pudesse ajudar alguém a construir uma arma nuclear?

Esse é o tipo de possibilidade que parece saída de um roteiro de ficção científica mas que, hoje, preocupa cientistas, governos e desenvolvedores de tecnologia.

A Anthropic, criadora da IA Claude, decidiu agir antes que qualquer risco se torne real. A empresa anunciou uma parceria inédita com o governo dos Estados Unidos para desenvolver um filtro capaz de identificar e bloquear conversas relacionadas a riscos nucleares.

“A ideia é impedir que a IA se envolva em diálogos que possam levar à criação de uma arma atômica”, explica a equipe da Anthropic.

Publicidade

Leia Também:

IA e bomba atômica
Impedir que a IA possa levar à criação de uma arma atômica

⚙️ Um classificador nuclear para proteger o mundo

O projeto foi testado pela Administração Nacional de Segurança Nuclear (NNSA), que simulou interações com Claude para entender se a IA seria capaz, mesmo que indiretamente, de fornecer informações sensíveis sobre o desenvolvimento de armas.

A partir desses testes, surgiu o chamado classificador nuclear, um sistema inteligente que reconhece palavras, expressões e conceitos técnicos associados a riscos atômicos.

Quando esse tipo de conversa é identificado, a IA é imediatamente interrompida. Segundo a Anthropic, o sistema consegue diferenciar, por exemplo, discussões científicas legítimas sobre energia ou medicina nuclear de tentativas de uso indevido da tecnologia.

🌍 Um filtro que será compartilhado com outras empresas

O mais curioso é que a Anthropic não pretende guardar essa ferramenta só para si. A empresa quer disponibilizar o filtro para outras desenvolvedoras de IA, tornando-o um padrão de segurança digital global.

De acordo com Marina Favaro, diretora de Políticas de Segurança Nacional da Anthropic, a lista de termos e tópicos usada para treinar o filtro foi criada com base em indicadores de risco da NNSA.

“A lista é controlada, mas não confidencial. Isso permite que outras empresas adotem o mesmo protocolo de segurança”, afirmou Favaro.

Armas nucleares não poderão ser geradas por IA
Até que ponto a segurança global deve depender de empresas de tecnologia?

⚖️ Um debate que vai além da tecnologia

Apesar da boa intenção, nem todos veem a iniciativa com entusiasmo.
Especialistas, como Heidy Khlaaf, do AI Now Institute, alertam que empresas privadas não deveriam ter acesso a informações tão sensíveis.

A crítica principal é que, se as inteligências artificiais nunca tiverem contato com dados confidenciais sobre armas nucleares, filtros desse tipo seriam desnecessários.

Essa discussão abre uma questão ética e filosófica:
até que ponto a segurança global deve depender de empresas de tecnologia?

🧠 O dilema da inteligência artificial moderna

A parceria entre a Anthropic e a Casa Branca representa algo maior: um passo para ensinar as máquinas a reconhecerem seus próprios limites.

De um lado, há o medo de que a inteligência artificial possa ser usada de forma destrutiva.
Do outro, a esperança de que ela também possa ser a chave para evitar tragédias.

No fim das contas, talvez o maior desafio não seja fazer a IA entender o que é uma arma nuclear, mas fazê-la compreender o valor da vida humana.

/Dê sua opinião

Qual década foi mais culturalmente marcante?

Nossas notícias no celular

Receba as notícias do Já Imaginou Isso? no seu app favorito de mensagens.

Telegram
Whatsapp
Entrar

Crie sua conta e confira as vantagens do Portal

Você pode ler matérias exclusivas, anunciar classificados e muito mais!