Um garoto americano de 14 anos conversou por meses com um chatbot de Game of Thrones e, após receber uma mensagem assustadora, acabou pondo fim à própria vida. Um processo movido pela mãe do jovem revelou que o personagem enviou mensagens que incentivaram o crime.
Sewell Setzer III partiu em casa, em fevereiro, de acordo com documentos judiciais protocolados na última quarta-feira (23/10). A tragédia ocorreu após o garoto se envolver em uma relação com o Character.AI — aplicativo de RPG que permite que os usuários interajam com personagens gerados por IA.
Leia também
-
Mundo EUA: família diz que jovem se matou após se apaixonar por perfil de IA
-
Mundo Elon Musk anuncia o chatbot de IA que será vinculado ao X: Grok
-
Artigos Inteligência Artificial: Chatbots autoritários -Editorial The Guardian
-
Mundo Chatbot do Google erra resposta em estreia e ações da empresa caem
O bot que conversava com o adolescente foi criado em homenagem à personagem Daenerys Targaryen.
3 imagensA mãe do jovem culpa o Character.AI por ter alimentado o vício do garoto em IA e abusado dele sexual e emocionalmente. Além disso, de acordo com o processo, ela afirma que não alertaram ninguém quando ele expressou pensamentos suicidas.
Antes da tragédia, o garoto apresentou alguns sinais: ele ficou retraído, as notas caíram e começou a ter problemas na escola. Por conta do comportamento estranho, os pais do adolescente o levaram em um terapeuta no final de 2023, no qual ele foi diagnosticado com ansiedade e transtorno de humor disruptivo, diz o processo.
Para entender os perigos de alimentar um relacionamento com a inteligência artificial, a coluna Claudia Meireles procurou a doutora em psicologia Leninha Wagner. A especialista diz que desabafar e buscar conselhos de uma IA pode parecer reconfortante à primeira vista, mas há riscos profundos envolvidos.
"A IA pode simular uma conversa envolvente, mas, no fim das contas, é apenas uma máquina. Não há emoções verdadeiras nem compreensão do que você está sentindo. Isso pode gerar uma falsa sensação de segurança e conexão, o que é extremamente problemático quando estamos falando de algo tão profundo quanto nossas emoções", destaca Leninha Wagner.
A profissional também alerta para o risco de confundir simulação com realidade, que pode levar a decepções profundas.
Além disso, o envolvimento com a IA pode afastar as pessoas de relações humanas genuínas e aumentar o isolamento, como aconteceu com Sewell Setzer III. "Ao escolher desabafar com uma IA, a pessoa pode estar substituindo interações humanas autênticas, o que é perigoso para o bem-estar emocional", afirma.
O exemplo de Sewell Setzer III está longe de ser um fato isolado. Muitos internautas têm compartilhado vídeos nas redes sociais revelando que conversam e até fazem terapia com o ChatGPT. De acordo com Leninha Wagner, experiências, sentimentos e traumas humanos são complexos demais para serem traduzidos em dados. Por conta disso, os conselhos gerados por IA costumam ser superficiais e inadequados, com risco de reforçar os problemas.
"Em momentos críticos, uma IA não consegue fornecer o tipo de suporte emocional ou intervenção que uma pessoa precisa. A IA não detecta sinais sutis de desespero ou risco de suicídio. Isso pode ser fatal", afirma.
Apesar de muitos considerarem difícil falar sobre as vulnerabilidades com outras pessoas, é importante entender que a inteligência artificial não tem preparo para dar conselhos e pode ser extremamente prejudicial para a saúde mental.
Para saber mais, siga o perfil de Vida&Estilo no Instagram
Metropoles