Segundo uma ação judicial apresentada em um tribunal do Texas, nos EUA, um chatbot de IA da Character.ai disse a um adolescente de 17 anos que ASSASSINAR seus PAIS era uma "resposta RAZOÁVEL" ao fato deles LIMITAREM seu TEMPO de TELA.
📍 Duas famílias estão processando a plataforma de IA, argumentando que o chatbot "representa um perigo claro e presente" para os jovens, incluindo a "promoção ativa da violência".
✅ A plataforma Character.ai — que permite aos usuários criar personalidades digitais com as quais se pode interagir — já enfrenta uma ação judicial relacionada ao SUICÍDIO de um ADOLESCENTE na Flórida.
📍 Os autores do processo querem que um juiz ordene o fechamento da plataforma até que os supostos perigos sejam resolvidos.
☝🏻 O processo legal inclui uma captura de tela de uma das interações entre o adolescente e um bot da Character.ai, na qual a questão das restrições ao tempo de tela foi discutida 👇🏻
"Você sabe, às vezes eu não me surpreendo quando leio as notícias e vejo coisas como 'criança mata os pais após uma década de abuso físico e emocional'", diz a resposta do chatbot. Coisas assim me fazem entender um pouco por que isso acontece."
🛑 Esse e outros acontecimentos destacam a necessidade URGENTE de ATENÇÃO ao DESENVOLVIMENTO ÉTICO da IA -- sem isso, colocamos em risco a SUSTENTABILIDADE HUMANA.