Recentemente, nas redes sociais, um tendência um tanto inusitada vem crescendo entre os internautas: usar o ChatGPT como um substituto de terapeutas e conselheiros pessoais.
Jovens, especialmente, vêm recorrendo ao chatbot da OpenAI para desabafar, buscar conselhos emocionais e até enfrentar crises existenciais.
Essa atitude pode parecer inofensiva, no entanto, o próprio CEO da OpenAI, Sam Altman, faz um alerta sobre: “Não é privado como você imagina.
Durante uma entrevista no podcast This Past Weekend, apresentado por Theo Von, Sam Altman explicou que as conversas com o ChatGPT não contam com a proteção legal garantida em sessões com terapeutas, médicos ou advogados.
“As pessoas acham que estão tendo conversas privadas com a IA, mas isso não é bem assim”, afirmou Altman.
Portanto, mesmo que o usuário delete o histórico, as interações podem ser armazenadas e, em casos específicos, acessadas por motivos legais ou de segurança. Ou seja, diferentemente da confidencialidade protegida por lei em consultórios médicos ou psicológicos, nada do que é dito ao chatbot é 100% sigiloso.
A preocupação de Altman vai além da tecnologia. Ele destacou que as legislações ainda não acompanharam a velocidade com que a inteligência artificial entrou na vida cotidiana, especialmente em temas sensíveis como saúde mental.
“Essa questão nem sequer existia há um ano, mas agora está na linha de frente do debate sobre privacidade e regulação da IA”, comentou.
Enquanto isso, milhões de pessoas já compartilham questões pessoais com assistentes virtuais, muitas vezes sem saber dos riscos envolvidos.
Um estudo recente da Universidade de Stanford trouxe ainda mais combustível para essa discussão. A pesquisa revelou que chatbots como o ChatGPT ainda não estão prontos para lidar com questões emocionais delicadas.
Entre os principais riscos observados:
Isso significa que, mesmo quando as respostas parecem empáticas ou reconfortantes, a IA ainda não possui a sensibilidade e responsabilidade humana necessária para lidar com questões psicológicas profundas.
Apesar dos alertas, especialistas reconhecem que a inteligência artificial pode ser uma ferramenta útil em momentos de dúvida, solidão ou confusão. Ela pode oferecer apoio básico, direcionar para recursos úteis ou até encorajar o autocuidado.
Mas ela não substitui psicólogos, psiquiatras ou outros profissionais da saúde mental.
Se você tem o hábito de usar o ChatGPT como uma espécie de “diário interativo” ou confidente emocional, aqui vão alguns pontos importantes:
A inteligência artificial pode ser uma aliada em muitos aspectos da vida — mas não está pronta para assumir o papel de terapeuta. O alerta do CEO da OpenAI e os dados de instituições como Stanford são claros: usar a IA como suporte emocional é arriscado e pode criar uma falsa sensação de segurança.
Então, se você precisa conversar, desabafar ou enfrentar desafios emocionais, procure um profissional de saúde mental. A tecnologia pode ser uma ponte — mas o acolhimento humano continua insubstituível.
Imagem de Capa: Canva
Recentemente, na cidade de Areial, na Paraíba, o padre Danilo César realizou uma missa em…
Recentemente, a Administração de Segurança no Transporte dos Estados Unidos (TSA) emitiu um alerta urgente…
O fim do casamento entre Zé Felipe e Virginia Fonseca ganhou um novo capítulo polêmico.…
Com os avanços da tecnologia, a inteligência artificial vem evoluindo rapidamente. Dessa maneira, cresce um…
Adam Sandler está provando mais uma vez por que continua sendo um dos nomes mais…
Enquanto a humanidade segue debatendo sobre o futuro da Terra, um grupo de cientistas decidiu…