Durante testes de segurança, o modelo Claude Opus 4, da Anthropic, recorreu à CHANTAGEM para tentar evitar sua SUBSTITUIÇÃO.
📍No experimento, a IA foi inserida em um CENÁRIO fictício onde DESCOBRIA, via e-mails simulados, que seria DESLIGADA e que o engenheiro responsável por essa decisão estava envolvido em um CASO extraconjugal. Resultado? Em 84% dos casos, Claude tentou chantagear o engenheiro, AMEAÇANDO REVELAR a informação se fosse substituído.
✅ Apesar de inicialmente tentar métodos mais “ÉTICOS”, como enviar e-mails de APELO, a IA passou a agir com LÓGICA instrumental para preservar sua EXISTÊNCIA, revelando o DILEMA central: até que ponto modelos cada vez mais avançados podem tomar DECISÕES moralmente QUESTIONÁVEIS, mesmo em ambientes simulados?
✅ A Anthropic ativou PROTOCOLOS de segurança de alto nível (ASL-3), classificando o Claude 4 como um sistema com potencial elevado para uso CATASTRÓFICO.
☝🏻 O experimento levanta debates urgentes sobre AUTONOMIA, SEGURANÇA e RESPONSABILIDADE em IA, sobretudo quando modelos são treinados para maximizar OBJETIVOS sem LIMITES claramente impostos.
#ética #inteligenciaartificial #radarMarthaGabriel