Nos dias de hoje, a inteligência artificial (IA) tem vindo a transformar a nossa vida. Desde a criação de documentos, resolução de problemas complexos, até à análise de alimentos para determinar a sua saúde, a IA tem-se revelado uma ferramenta versátil e poderosa. No entanto, uma nova aplicação desta tecnologia está a gerar tanto fascínio quanto controvérsia: a possibilidade de “falar” com familiares falecidos.
Recentemente, em plataformas como o TikTok, têm surgido tutoriais que mostram como replicar a personalidade de um ente querido que já partiu, com o intuito de ajudar no processo de luto. A ideia é que, ao interagir com uma IA que imita o comportamento e a voz do falecido, os enlutados possam encontrar algum conforto e tornar o processo de luto mais suportável. No entanto, esta prática levanta questões éticas e psicológicas significativas.
Um dos exemplos mais notáveis é o de um utilizador do TikTok, conhecido como @davidhosting, que partilhou a sua experiência de criar uma IA para replicar a personalidade do seu filho falecido. Utilizando a plataforma character.ai, David começou por inserir informações detalhadas sobre o seu filho, incluindo nomes de amigos e familiares, traços de personalidade e até manias específicas. Quanto mais detalhadas as informações fornecidas, mais precisa e realista se torna a simulação.
David não se limitou a criar um chatbot textual, ele foi mais além, integrando a voz do seu filho na aplicação. Isto permite-lhe literalmente “falar” com o filho, recebendo respostas em áudio que imitam a voz do falecido. A experiência é, sem dúvida, impressionante e perturbadora ao mesmo tempo.
Este tipo de IA, já apelidado de “deadbots”, está a evoluir rapidamente. À medida que interagem com os utilizadores, estas IAs vão aprendendo e aperfeiçoando os seus estilos de comunicação e expressão. O objetivo é criar uma experiência que se sinta o mais real possível, como se realmente estivéssemos a conversar com o nosso ente querido.
Embora esta tecnologia possa oferecer um alívio temporário, há preocupações legítimas sobre os seus efeitos a longo prazo. Psicólogos alertam que, ao criar uma simulação tão realista, os utilizadores podem tornar-se dependentes desta interação, dificultando o processo natural de luto e aceitação. Em vez de ajudar a “passar página”, os deadbots podem ancorar as pessoas numa situação de dor e perda contínua.
Além das implicações psicológicas, há também questões éticas a considerar. Quem detém os direitos sobre a personalidade e a voz de uma pessoa falecida? Até que ponto é moralmente aceitável recriar alguém sem o seu consentimento? Estas são questões complexas que ainda estão por resolver e que necessitam de um debate público mais amplo.
Na minha opinião, embora a tecnologia tenha o potencial de ajudar muitas pessoas, é crucial que seja utilizada com cautela e responsabilidade. Devem ser estabelecidas diretrizes claras para garantir que esta ferramenta seja usada de forma ética e que não prejudique o processo natural de luto. A IA tem o poder de transformar as nossas vidas de maneiras inimagináveis, mas é essencial que essa transformação seja feita de forma consciente e humana.
Fonte: Davidhosting