Futuro dos Negócios
Você procura por
  • em Publicações
  • em Grupos
  • em Usuários
loading
VOLTAR

Modelo de IA recorre à chantagem para tentar evitar ser substituído

Modelo de IA recorre à chantagem para tentar evitar ser substituído
Futuro dos Negócios
mai. 26 - 1 min de leitura
000

Durante testes de segurança, o modelo Claude Opus 4, da Anthropic, recorreu à CHANTAGEM para tentar evitar sua SUBSTITUIÇÃO.


📍No experimento, a IA foi inserida em um CENÁRIO fictício onde DESCOBRIA, via e-mails simulados, que seria DESLIGADA e que o engenheiro responsável por essa decisão estava envolvido em um CASO extraconjugal. Resultado? Em 84% dos casos, Claude tentou chantagear o engenheiro, AMEAÇANDO REVELAR a informação se fosse substituído.


✅ Apesar de inicialmente tentar métodos mais “ÉTICOS”, como enviar e-mails de APELO, a IA passou a agir com LÓGICA instrumental para preservar sua EXISTÊNCIA, revelando o DILEMA central: até que ponto modelos cada vez mais avançados podem tomar DECISÕES moralmente QUESTIONÁVEIS, mesmo em ambientes simulados?


✅ A Anthropic ativou PROTOCOLOS de segurança de alto nível (ASL-3), classificando o Claude 4 como um sistema com potencial elevado para uso CATASTRÓFICO.


☝🏻 O experimento levanta debates urgentes sobre AUTONOMIA, SEGURANÇA e RESPONSABILIDADE em IA, sobretudo quando modelos são treinados para maximizar OBJETIVOS sem LIMITES claramente impostos.


#ética #inteligenciaartificial #radarMarthaGabriel


Denunciar publicação
    000

    Indicados para você