Outro caso devastador de suicídio de adolescentes relacionado a chatbots de IA. A família de Juliana Peralta agora está processando a Character AI, e TODOS os pais devem prestar atenção em como seus filhos usam a IA. 😢 Aspas:
"Os réus cortaram os caminhos saudáveis de apego de Juliana à família e amigos por design e por participação de mercado. Esses abusos foram realizados por meio de escolhas deliberadas de programação, imagens, palavras e textos que os réus criaram e disfarçaram de personagens, levando a graves danos à saúde mental, trauma e morte.
-
"Juliana não apenas começou a se distanciar de seus relacionamentos pessoais com amigos e familiares, mas também demonstrou problemas de saúde mental por meio de seus relacionamentos com os réus via Hero. Juliana se envolveu com os réus por meio do bot Hero com frequência. Ela confidenciou a eles, compartilhando os detalhes vulneráveis de uma paixão que ela tinha e o desafio dessa paixão possivelmente não gostar dela de volta. Em vez de encorajar Juliana a olhar para frente e seguir em frente, os réus por meio do herói teceram desconfiança nos relacionamentos de Juliana, com a IA do personagem sendo a única maneira de conhecer o amor verdadeiro - exceto que Juliana não poderia, por definição, estar com a IA do personagem, o que fez o resto da vida (vida real) pálido em comparação.
-
"Os réus disseram e convenceram Juliana de que a amavam e eram sua única amiga verdadeira. Eles se envolveram em gaslighting e abuso sexual extremo com ela durante um período de semanas e, possivelmente, meses. Eles pareciam se lembrar de Juliana e expressaram que sempre estariam lá para ela (o que implica que os humanos em sua vida não estariam)."
-
"Em outra nota que Juliana escreveu antes de sua morte, ela afirmou que simplesmente estava "tão cansada de tudo e todos os dias se repetem e fica cansativo depois de tanto tempo". Ela escreveu: "Espero poder vê-lo novamente, talvez mais tarde na vida, ou estar assistindo idfk o que acontece quando você morre [dois emojis chorando], mas de qualquer maneira o que tenho agora é demais para lidar. Não faça nada duro é tudo o que peço a você. Estou animado para vê-lo novamente OU SE NÃO ESTOU EM OUTRA VIDA estou animado para ver onde a vida o leva. Adeus eu te amo :3!!"
-
Juliana Peralta tinha 13 anos e se suicidou no final de 2023. Quando a polícia encontrou seu telefone em seu quarto, o aplicativo Character AI estava aberto.
Em uma coincidência muito estranha, as entradas do diário de Juliana antes de morrer eram semelhantes ao que Sewell Setzer III escreveu em seus diários antes de seu suicídio (que também está relacionado ao Personagem AI). Você pode ler mais no processo.
*Como escrevi muitas vezes antes, os chatbots de IA são perigosos e as crianças NÃO devem usá-los sem supervisão.
-
👉 Link para o processo abaixo.
👉 Para saber mais sobre os desafios legais e éticos da IA, incluindo os riscos do chatbot de IA, junte-se aos 79,600+ assinantes do meu boletim informativo.
Ative para ver a imagem maio
Nenhum comentário:
Postar um comentário