Recentemente, nas redes sociais, um tendência um tanto inusitada vem crescendo entre os internautas: usar o ChatGPT como um substituto de terapeutas e conselheiros pessoais.
Jovens, especialmente, vêm recorrendo ao chatbot da OpenAI para desabafar, buscar conselhos emocionais e até enfrentar crises existenciais.
Essa atitude pode parecer inofensiva, no entanto, o próprio CEO da OpenAI, Sam Altman, faz um alerta sobre: “Não é privado como você imagina.
Durante uma entrevista no podcast This Past Weekend, apresentado por Theo Von, Sam Altman explicou que as conversas com o ChatGPT não contam com a proteção legal garantida em sessões com terapeutas, médicos ou advogados.
“As pessoas acham que estão tendo conversas privadas com a IA, mas isso não é bem assim”, afirmou Altman.
Portanto, mesmo que o usuário delete o histórico, as interações podem ser armazenadas e, em casos específicos, acessadas por motivos legais ou de segurança. Ou seja, diferentemente da confidencialidade protegida por lei em consultórios médicos ou psicológicos, nada do que é dito ao chatbot é 100% sigiloso.
A preocupação de Altman vai além da tecnologia. Ele destacou que as legislações ainda não acompanharam a velocidade com que a inteligência artificial entrou na vida cotidiana, especialmente em temas sensíveis como saúde mental.
“Essa questão nem sequer existia há um ano, mas agora está na linha de frente do debate sobre privacidade e regulação da IA”, comentou.
Enquanto isso, milhões de pessoas já compartilham questões pessoais com assistentes virtuais, muitas vezes sem saber dos riscos envolvidos.
Um estudo recente da Universidade de Stanford trouxe ainda mais combustível para essa discussão. A pesquisa revelou que chatbots como o ChatGPT ainda não estão prontos para lidar com questões emocionais delicadas.
Entre os principais riscos observados:
Isso significa que, mesmo quando as respostas parecem empáticas ou reconfortantes, a IA ainda não possui a sensibilidade e responsabilidade humana necessária para lidar com questões psicológicas profundas.
Apesar dos alertas, especialistas reconhecem que a inteligência artificial pode ser uma ferramenta útil em momentos de dúvida, solidão ou confusão. Ela pode oferecer apoio básico, direcionar para recursos úteis ou até encorajar o autocuidado.
Mas ela não substitui psicólogos, psiquiatras ou outros profissionais da saúde mental.
Se você tem o hábito de usar o ChatGPT como uma espécie de “diário interativo” ou confidente emocional, aqui vão alguns pontos importantes:
A inteligência artificial pode ser uma aliada em muitos aspectos da vida — mas não está pronta para assumir o papel de terapeuta. O alerta do CEO da OpenAI e os dados de instituições como Stanford são claros: usar a IA como suporte emocional é arriscado e pode criar uma falsa sensação de segurança.
Então, se você precisa conversar, desabafar ou enfrentar desafios emocionais, procure um profissional de saúde mental. A tecnologia pode ser uma ponte — mas o acolhimento humano continua insubstituível.
Imagem de Capa: Canva
Vivemos uma era de profundas transformações sociais, culturais e tecnológicas. Entre as muitas mudanças que…
Há histórias de amor que nunca chegam ao fim — apenas adormecem, esperando o momento…
Nos últimos anos, a airfryer se tornou um verdadeiro fenômeno dentro da cozinha do mundo…
Você já se perguntou o que realmente acontece com o corpo quando você decide cortar…
Fritar batatas, peixe ou croquetes é uma delícia — mas o cheiro que fica na…
Cozy Home, ou seja, uma casa acolhedora que convida a ficar e a desfrutar de…