Categories: Conhecimento

ChatGPT não é seu terapeuta: CEO da OpenAI faz alerta sobre uso emocional da IA

Recentemente, nas redes sociais, um tendência um tanto inusitada vem crescendo entre os internautas: usar o ChatGPT como um substituto de terapeutas e conselheiros pessoais.

Jovens, especialmente, vêm recorrendo ao chatbot da OpenAI para desabafar, buscar conselhos emocionais e até enfrentar crises existenciais.

Essa atitude pode parecer inofensiva, no entanto, o próprio CEO da OpenAI, Sam Altman, faz um alerta sobre: “Não é privado como você imagina.

Durante uma entrevista no podcast This Past Weekend, apresentado por Theo Von, Sam Altman explicou que as conversas com o ChatGPT não contam com a proteção legal garantida em sessões com terapeutas, médicos ou advogados.

“As pessoas acham que estão tendo conversas privadas com a IA, mas isso não é bem assim”, afirmou Altman.

Portanto, mesmo que o usuário delete o histórico, as interações podem ser armazenadas e, em casos específicos, acessadas por motivos legais ou de segurança. Ou seja, diferentemente da confidencialidade protegida por lei em consultórios médicos ou psicológicos, nada do que é dito ao chatbot é 100% sigiloso.

Um desafio para as leis de privacidade

A preocupação de Altman vai além da tecnologia. Ele destacou que as legislações ainda não acompanharam a velocidade com que a inteligência artificial entrou na vida cotidiana, especialmente em temas sensíveis como saúde mental.

“Essa questão nem sequer existia há um ano, mas agora está na linha de frente do debate sobre privacidade e regulação da IA”, comentou.

Enquanto isso, milhões de pessoas já compartilham questões pessoais com assistentes virtuais, muitas vezes sem saber dos riscos envolvidos.

Estudo aponta riscos reais do uso da IA como “terapeuta”

Um estudo recente da Universidade de Stanford trouxe ainda mais combustível para essa discussão. A pesquisa revelou que chatbots como o ChatGPT ainda não estão prontos para lidar com questões emocionais delicadas.

Entre os principais riscos observados:

  • Respostas inadequadas a relatos de depressão ou ansiedade;
  • Reforço de estigmas relacionados à saúde mental;
  • Incapacidade de identificar situações de emergência, como pensamentos suicidas.

Isso significa que, mesmo quando as respostas parecem empáticas ou reconfortantes, a IA ainda não possui a sensibilidade e responsabilidade humana necessária para lidar com questões psicológicas profundas.

A IA pode ajudar — mas com limites

Apesar dos alertas, especialistas reconhecem que a inteligência artificial pode ser uma ferramenta útil em momentos de dúvida, solidão ou confusão. Ela pode oferecer apoio básico, direcionar para recursos úteis ou até encorajar o autocuidado.

Mas ela não substitui psicólogos, psiquiatras ou outros profissionais da saúde mental.

O que você deve saber antes de desabafar com a IA

Se você tem o hábito de usar o ChatGPT como uma espécie de “diário interativo” ou confidente emocional, aqui vão alguns pontos importantes:

  • As conversas podem ser armazenadas e acessadas;
  • Não existe sigilo profissional como nas sessões clínicas;
  • Em caso de crise, a IA não tem preparo para ajudar de forma adequada;
  • Buscar ajuda profissional continua sendo a melhor escolha.

Tecnologia é apoio, não substituição

A inteligência artificial pode ser uma aliada em muitos aspectos da vida — mas não está pronta para assumir o papel de terapeuta. O alerta do CEO da OpenAI e os dados de instituições como Stanford são claros: usar a IA como suporte emocional é arriscado e pode criar uma falsa sensação de segurança.

Então, se você precisa conversar, desabafar ou enfrentar desafios emocionais, procure um profissional de saúde mental. A tecnologia pode ser uma ponte — mas o acolhimento humano continua insubstituível.

Imagem de Capa: Canva

Resiliência Humana

Bem-estar, Autoconhecimento e Terapia

Recent Posts

Pare de se iludir: Estes 3 sinais mostram se você está (ou não) com a pessoa certa

No mundo atual, com o avanço da tecnologia, se tornou muito mais fácil conhecer pessoas…

5 dias ago

Profecias sombrias para 2026: Nostradamus fez previsões assustadores que prometem abalar o mundo

O início de 2026 está bem próximo e com isso, nas redes sociais, já começam…

5 dias ago

O universo encerrará um ciclo de dor para 5 signos antes do Natal

Finalmente, mais um ciclo kármico está prestes a chegar ao fim e a vida de…

5 dias ago

Carta psicografada atribuída à namorada de Cristiano Araújo emociona fãs ao relatar acidente e chegada ao plano espiritual

Recentemente, viralizou nas redes sociais, uma suposta carta psicografada atribuída a Allana Moraes, namorada do…

5 dias ago

Luciano Huck vira alvo de polêmica após vídeo no Xingu: Apresentador culpa direção de arte e esclarece pedido sobre celulares

Recentemente, nas redes sociais, o apresentador Luciano Huck virou alvo de críticas nas redes sociais.…

5 dias ago

Milionária diz que não merece sua fortuna e decide se livrar dela

Ter uma herança bilionária é o sonho de muita gente. Para Marlene Engelhorn, no entanto,…

1 semana ago