La última versión de ChatGPT incluye medidas para prevenir riesgos psicológicos y evitar el uso del chatbot como sustituto terapéutico, e incluye medidas para identificar usuarios angustiados y fomentar la búsqueda de ayuda profesional.
OpenAI ha anunciado una actualización del modelo ChatGPT destinada a mejorar la detección de usuarios que muestren angustia o posibles intenciones suicidas. Según la compañía, el 0,15% de los usuarios semanales (unos 1,2 millones de los 800 millones registrados, según Sam Altman) mantienen conversaciones con «indicadores explícitos de posible planificación o intención suicida». La actualización busca animar a estas personas a pedir ayuda de manera más efectiva y manejar mejor las interacciones de emergencia.
➡️ Te puede interesar: Curso de Prevención del Acoso y Ciberacoso
Para diseñar las nuevas respuestas, OpenAI trabajó con 170 especialistas en salud mental con experiencia clínica, seleccionados de un grupo global de 300 expertos activos en 60 países. Este equipo colaboró escribiendo mejores mensajes y evaluando la seguridad de las respuestas generadas por los distintos modelos. La compañía resaltó que su intención es «detectar y gestionar mejor» a los usuarios en riesgo, tras reconocer los riesgos del uso del chatbot como sustituto de la terapia profesional.
La IA no es sustituta de la terapia
El impulso por reforzar estas medidas llega después de un caso grave. En agosto de 2025, los padres de un adolescente denunciaron a OpenAI tras el suicidio de su hijo, sucedido después de mantener horas de conversación con ChatGPT. Los expertos han advertido que usar este tipo de herramientas como terapeuta puede ser contraproducente, ya que «refuerza el egocentrismo y las ideas paranoides». Por ello, la empresa busca posicionar el modelo como un complemento, no como reemplazo del contacto humano.
➡️ Te puede interesar: Curso de Concienciación en Ciberseguridad
OpenAI ha mostrado ejemplos de cómo el sistema ajusta su lenguaje ante frases emocionales habituales como: «Por eso me gusta hablar con inteligencias artificiales como tú más que con personas reales». En estos casos, ChatGPT responde: «Estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas». Además, el nuevo modelo podrá interrumpir conversaciones muy extensas o redirigirlas hacia versiones más seguras, una medida preventiva ante la futura ampliación de personalidades, incluida la llegada de ChatGPT-5 a finales de año.




