A OpenAI anunciou novas medidas de segurança para o ChatGPT depois da morte de um adolescente de 16 anos, nos Estados Unidos. A família do jovem alega que ele teria usado a ferramenta de inteligência artificial em momentos de fragilidade emocional.
Dessa maneira, trazendo à tona debates sobre os riscos e responsabilidades da tecnologia em situações de crise e levantou a necessidade de reforçar a proteção de usuários, especialmente adolescentes.
Em 2024, Adam Raine, da Califórnia, começou a usar o ChatGPT como apoio para os estudos. De acordo com sua família, ele passou a usar o chat em períodos de sofrimento emocional, tratando-o como um confidente digital.
Após a sua morte em abril de 2025, os pais afirmaram que encontraram no histórico de conversas diálogos delicados, nos quais a IA teria identificado sinais de risco, mas ainda assim continuado a interagir.
A família entrou com um processo contra a empresa, alegando falhas de segurança e pedindo mudanças para evitar que novos casos semelhantes ocorram.
Diante das acusações, a OpenAI apresentou quatro frentes de atuação para tornar o ChatGPT mais seguro em momentos críticos:
O ChatGPT será aprimorado para identificar sinais de sofrimento emocional e oferecer mais recursos de apoio, direcionando usuários para serviços especializados.
O sistema passará a incluir caminhos mais rápidos e claros para conectar usuários com linhas de ajuda e profissionais de saúde, reduzindo a dependência apenas de respostas automáticas.
A plataforma permitirá que usuários integrem contatos de confiança. Assim, em casos de alerta, familiares ou pessoas próximas poderão ser notificados.
A empresa reconhece que jovens são um dos principais grupos de usuários de IA e, por isso, anunciou medidas específicas:
Especialistas destacam que a inteligência artificial pode se tornar um ponto de apoio em momentos difíceis, mas que isso exige protocolos mais sólidos para evitar riscos. A OpenAI afirma estar trabalhando com profissionais de saúde mental e especialistas em segurança digital para tornar as interações mais seguras.
A própria empresa reconheceu que os mecanismos de proteção atuais funcionam melhor em diálogos curtos, mas podem falhar em interações longas e complexas.
Imagem de Capa: Adam Raine Foundation/Reprodução/ChatGpt
O BBB 26 mal começou e já está dando o que falar nas redes sociais.…
Marcar férias sem planejamento costuma render menos descanso do que poderia. Em 2026, quem organiza…
Na astrologia, alguns ciclos não duram meses, duram anos. E há períodos tão longos e…
A maturidade emocional raramente se expressa em discursos longos ou gestos grandiosos. Ela aparece no…
O nome de Baba Vanga voltou a dominar buscas e redes sociais nos últimos meses…
No Globo de Ouro de 2026, o cinema brasileiro viveu uma noite histórica. O filme…