Recentemente, nas redes sociais, um tendência um tanto inusitada vem crescendo entre os internautas: usar o ChatGPT como um substituto de terapeutas e conselheiros pessoais.
Jovens, especialmente, vêm recorrendo ao chatbot da OpenAI para desabafar, buscar conselhos emocionais e até enfrentar crises existenciais.
Essa atitude pode parecer inofensiva, no entanto, o próprio CEO da OpenAI, Sam Altman, faz um alerta sobre: “Não é privado como você imagina.
Durante uma entrevista no podcast This Past Weekend, apresentado por Theo Von, Sam Altman explicou que as conversas com o ChatGPT não contam com a proteção legal garantida em sessões com terapeutas, médicos ou advogados.
“As pessoas acham que estão tendo conversas privadas com a IA, mas isso não é bem assim”, afirmou Altman.
Portanto, mesmo que o usuário delete o histórico, as interações podem ser armazenadas e, em casos específicos, acessadas por motivos legais ou de segurança. Ou seja, diferentemente da confidencialidade protegida por lei em consultórios médicos ou psicológicos, nada do que é dito ao chatbot é 100% sigiloso.
Um desafio para as leis de privacidade
A preocupação de Altman vai além da tecnologia. Ele destacou que as legislações ainda não acompanharam a velocidade com que a inteligência artificial entrou na vida cotidiana, especialmente em temas sensíveis como saúde mental.
“Essa questão nem sequer existia há um ano, mas agora está na linha de frente do debate sobre privacidade e regulação da IA”, comentou.
Enquanto isso, milhões de pessoas já compartilham questões pessoais com assistentes virtuais, muitas vezes sem saber dos riscos envolvidos.
Estudo aponta riscos reais do uso da IA como “terapeuta”
Um estudo recente da Universidade de Stanford trouxe ainda mais combustível para essa discussão. A pesquisa revelou que chatbots como o ChatGPT ainda não estão prontos para lidar com questões emocionais delicadas.
Entre os principais riscos observados:
- Respostas inadequadas a relatos de depressão ou ansiedade;
- Reforço de estigmas relacionados à saúde mental;
- Incapacidade de identificar situações de emergência, como pensamentos suicidas.
Isso significa que, mesmo quando as respostas parecem empáticas ou reconfortantes, a IA ainda não possui a sensibilidade e responsabilidade humana necessária para lidar com questões psicológicas profundas.
A IA pode ajudar — mas com limites
Apesar dos alertas, especialistas reconhecem que a inteligência artificial pode ser uma ferramenta útil em momentos de dúvida, solidão ou confusão. Ela pode oferecer apoio básico, direcionar para recursos úteis ou até encorajar o autocuidado.
Mas ela não substitui psicólogos, psiquiatras ou outros profissionais da saúde mental.
O que você deve saber antes de desabafar com a IA
Se você tem o hábito de usar o ChatGPT como uma espécie de “diário interativo” ou confidente emocional, aqui vão alguns pontos importantes:
- As conversas podem ser armazenadas e acessadas;
- Não existe sigilo profissional como nas sessões clínicas;
- Em caso de crise, a IA não tem preparo para ajudar de forma adequada;
- Buscar ajuda profissional continua sendo a melhor escolha.
Tecnologia é apoio, não substituição
A inteligência artificial pode ser uma aliada em muitos aspectos da vida — mas não está pronta para assumir o papel de terapeuta. O alerta do CEO da OpenAI e os dados de instituições como Stanford são claros: usar a IA como suporte emocional é arriscado e pode criar uma falsa sensação de segurança.
Então, se você precisa conversar, desabafar ou enfrentar desafios emocionais, procure um profissional de saúde mental. A tecnologia pode ser uma ponte — mas o acolhimento humano continua insubstituível.
Imagem de Capa: Canva