Mãe de jovem de 14 anos nos EUA, vítima de suicídio, acusa aplicativo de IA pela morte do filho

COMPARTILHE ESSA MATÉRIA

Um alerta que veio dos Estados Unidos aqueceu também no Brasil a discussão sobre inteligência artificial na semana passada depois de uma morte trágica. Um estudante, de 14 anos, de Orlando (Flórida), era um dos mais de 20 milhões de usuários mensais da Character.AI, ferramenta online e gratuita baseada em um Large Language Model (LLM) de Inteligência Artificial, que permite que usuários conversem com personagens reais ou fictícios movidos por IA.

No dia 28 de fevereiro deste ano, o rapaz teve, segundo a mãe, uma última conversa com um “bot” inspirado pela personagem Daenerys Targaryen, de “Game of Thrones”, antes de cometer suicídio com uma arma em casa.

Isolamento

O jovem não era um estranho ao aplicativo. A mãe dele, Megan L. Garcia, 40, apontou que o rapaz utilizava a ferramenta diariamente há meses, e começou a se isolar e ter perdas no seu desempenho acadêmico, supostamente devido à sua obsessão pela personagem fictícia, a quem se referia por “Dany”.

Com ela, e outros “bots” dentro do site, desabafava sobre seu dia a dia, e tinha o costume de fazer “role-plays”, ou jogos textuais de representação de papéis, que tinham muitas vezes caráter romântico ou sexual. Sobretudo, tinha a inteligência artificial como confidente.

Histórico

Segundo a mãe do adolescente, no início deste ano, ele estaria tendo problemas na escola e, já tendo um histórico na infância de leve Síndrome de Asperger, e teria sido levado pelos pais para acompanhamento psicoterapêutico.

Ele recebeu diagnósticos complementares de ansiedade e transtorno disruptivo de desregulação do humor. Ainda assim, o rapaz não teria comparecido a mais que cinco sessões de terapia, pois preferia se abrir com a inteligência artificial.

Em suas conversas com “Dany”, o estudante usava o nome de “Daenero”, e tinha o costume de contar sobre suas frustrações.

A mãe do rapaz abriu um processo contra a Character.AI nesta última semana de outubro, alegando que a tecnologia da empresa é “perigosa e não testada” e que ela pode “enganar os clientes para que revelem seus pensamentos e sentimentos mais íntimos”.

Com uma avaliação de mais US$ 1 bilhão (equivalente a mais de R$ 5,6 bi) e uma recente injeção de investimento superior a R$ 800 milhões, a Character.AI, dos ex-empregados da Google, Noam Shazeer e o brasileiro Daniel de Freitas – o primeiro bilionário da IA no Brasil -, respondeu às acusações com uma nota assinada por Jerry Ruoti, Diretor de Segurança da empresa.

“Esta é uma situação trágica”, diz empresa

“Queremos reconhecer que esta é uma situação trágica, e nossos corações estão com a família. Levamos a segurança de nossos usuários muito a sério e estamos constantemente procurando maneiras de evoluir nossa plataforma.” Ruoti também reiterou que as regras da plataforma proíbem a promoção ou descrição de suicídio e automutilação.

Nos termos de serviço da plataforma, há também uma proibição de uso do aplicativo para usuários menores de 13 anos, ou para menores de 16 quando dentro do território da União Europeia. Não há, entretanto, na ferramenta quaisquer formas de verificação etária para usuários.

O caso tornou-se viral nas redes sociais na madrugada da última sexta-feira, 25, que levantou à pergunta: pode se punir a inteligência artificial, ou até mesmo a empresa, pela morte do adolescente? 

Sobre o tema, costuma-se compartilhar em comunidades de tecnologia um slide da IBM: “um computador nunca pode ser responsabilizado, portanto, um computador nunca deve tomar uma decisão de gerência”, tema que traz à tona também no Brasil a necessidade regulamentação da inteligência artificial.

Por Luana Aires

Sob supervisão Luiz Claudio Ferreira

Este obra está licenciado com uma Licença Creative Commons Atribuição-SemDerivações 4.0 Internacional.

Você tem o direito de:
Compartilhar — copiar e redistribuir o material em qualquer suporte ou formato para qualquer fim, mesmo que comercial.

Atribuição — Você deve dar o crédito apropriado, prover um link para a licença e indicar se mudanças foram feitas. Você deve fazê-lo em qualquer circunstância razoável, mas de nenhuma maneira que sugira que o licenciante apoia você ou o seu uso.

SemDerivações — Se você remixar, transformar ou criar a partir do material, você não pode distribuir o material modificado.

A Agência de Notícias é um projeto de extensão do curso de Jornalismo com atuação diária de estudantes no desenvolvimento de textos, fotografias, áudio e vídeos com a supervisão de professores dos cursos de comunicação

plugins premium WordPress