Recentemente, nas redes sociais, um tendência um tanto inusitada vem crescendo entre os internautas: usar o ChatGPT como um substituto de terapeutas e conselheiros pessoais.
Jovens, especialmente, vêm recorrendo ao chatbot da OpenAI para desabafar, buscar conselhos emocionais e até enfrentar crises existenciais.
Essa atitude pode parecer inofensiva, no entanto, o próprio CEO da OpenAI, Sam Altman, faz um alerta sobre: “Não é privado como você imagina.
Durante uma entrevista no podcast This Past Weekend, apresentado por Theo Von, Sam Altman explicou que as conversas com o ChatGPT não contam com a proteção legal garantida em sessões com terapeutas, médicos ou advogados.
“As pessoas acham que estão tendo conversas privadas com a IA, mas isso não é bem assim”, afirmou Altman.
Portanto, mesmo que o usuário delete o histórico, as interações podem ser armazenadas e, em casos específicos, acessadas por motivos legais ou de segurança. Ou seja, diferentemente da confidencialidade protegida por lei em consultórios médicos ou psicológicos, nada do que é dito ao chatbot é 100% sigiloso.
A preocupação de Altman vai além da tecnologia. Ele destacou que as legislações ainda não acompanharam a velocidade com que a inteligência artificial entrou na vida cotidiana, especialmente em temas sensíveis como saúde mental.
“Essa questão nem sequer existia há um ano, mas agora está na linha de frente do debate sobre privacidade e regulação da IA”, comentou.
Enquanto isso, milhões de pessoas já compartilham questões pessoais com assistentes virtuais, muitas vezes sem saber dos riscos envolvidos.
Um estudo recente da Universidade de Stanford trouxe ainda mais combustível para essa discussão. A pesquisa revelou que chatbots como o ChatGPT ainda não estão prontos para lidar com questões emocionais delicadas.
Entre os principais riscos observados:
Isso significa que, mesmo quando as respostas parecem empáticas ou reconfortantes, a IA ainda não possui a sensibilidade e responsabilidade humana necessária para lidar com questões psicológicas profundas.
Apesar dos alertas, especialistas reconhecem que a inteligência artificial pode ser uma ferramenta útil em momentos de dúvida, solidão ou confusão. Ela pode oferecer apoio básico, direcionar para recursos úteis ou até encorajar o autocuidado.
Mas ela não substitui psicólogos, psiquiatras ou outros profissionais da saúde mental.
Se você tem o hábito de usar o ChatGPT como uma espécie de “diário interativo” ou confidente emocional, aqui vão alguns pontos importantes:
A inteligência artificial pode ser uma aliada em muitos aspectos da vida — mas não está pronta para assumir o papel de terapeuta. O alerta do CEO da OpenAI e os dados de instituições como Stanford são claros: usar a IA como suporte emocional é arriscado e pode criar uma falsa sensação de segurança.
Então, se você precisa conversar, desabafar ou enfrentar desafios emocionais, procure um profissional de saúde mental. A tecnologia pode ser uma ponte — mas o acolhimento humano continua insubstituível.
Imagem de Capa: Canva
No mundo atual, com o avanço da tecnologia, se tornou muito mais fácil conhecer pessoas…
O início de 2026 está bem próximo e com isso, nas redes sociais, já começam…
Finalmente, mais um ciclo kármico está prestes a chegar ao fim e a vida de…
Recentemente, viralizou nas redes sociais, uma suposta carta psicografada atribuída a Allana Moraes, namorada do…
Recentemente, nas redes sociais, o apresentador Luciano Huck virou alvo de críticas nas redes sociais.…
Ter uma herança bilionária é o sonho de muita gente. Para Marlene Engelhorn, no entanto,…