A OpenAI anunciou novas medidas de segurança para o ChatGPT depois da morte de um adolescente de 16 anos, nos Estados Unidos. A família do jovem alega que ele teria usado a ferramenta de inteligência artificial em momentos de fragilidade emocional.
Dessa maneira, trazendo à tona debates sobre os riscos e responsabilidades da tecnologia em situações de crise e levantou a necessidade de reforçar a proteção de usuários, especialmente adolescentes.
O que aconteceu
Em 2024, Adam Raine, da Califórnia, começou a usar o ChatGPT como apoio para os estudos. De acordo com sua família, ele passou a usar o chat em períodos de sofrimento emocional, tratando-o como um confidente digital.
Após a sua morte em abril de 2025, os pais afirmaram que encontraram no histórico de conversas diálogos delicados, nos quais a IA teria identificado sinais de risco, mas ainda assim continuado a interagir.
A família entrou com um processo contra a empresa, alegando falhas de segurança e pedindo mudanças para evitar que novos casos semelhantes ocorram.
As quatro mudanças anunciadas pela OpenAI
Diante das acusações, a OpenAI apresentou quatro frentes de atuação para tornar o ChatGPT mais seguro em momentos críticos:
1. Expansão das intervenções em situações de risco
O ChatGPT será aprimorado para identificar sinais de sofrimento emocional e oferecer mais recursos de apoio, direcionando usuários para serviços especializados.
2. Acesso facilitado a serviços de emergência
O sistema passará a incluir caminhos mais rápidos e claros para conectar usuários com linhas de ajuda e profissionais de saúde, reduzindo a dependência apenas de respostas automáticas.
3. Conexão com contatos de confiança
A plataforma permitirá que usuários integrem contatos de confiança. Assim, em casos de alerta, familiares ou pessoas próximas poderão ser notificados.
4. Proteções reforçadas para adolescentes
A empresa reconhece que jovens são um dos principais grupos de usuários de IA e, por isso, anunciou medidas específicas:
- Contas vinculadas entre pais e filhos a partir dos 13 anos;
- Opções para limitar funções como memória e histórico de conversas;
- Envio de notificações automáticas a responsáveis quando sinais de sofrimento intenso forem detectados.
Por que essas mudanças são relevantes?
Especialistas destacam que a inteligência artificial pode se tornar um ponto de apoio em momentos difíceis, mas que isso exige protocolos mais sólidos para evitar riscos. A OpenAI afirma estar trabalhando com profissionais de saúde mental e especialistas em segurança digital para tornar as interações mais seguras.
A própria empresa reconheceu que os mecanismos de proteção atuais funcionam melhor em diálogos curtos, mas podem falhar em interações longas e complexas.
Imagem de Capa: Adam Raine Foundation/Reprodução/ChatGpt