
Las amenazas sociales en la adolescencia: claves para comprender su impacto en la salud mental en la era digital
17/11/2025
El consumo de drogas entre adolescentes alcanza mínimos históricos, según ESTUDES 2025
17/11/2025Los chatbots y el riesgo de fomentar la ideación suicida
El creciente avance de la inteligencia artificial (IA) ha permitido que los chatbots se utilicen no sólo como un repositorio de conocimiento o una herramienta de búsqueda mejorada sino con fines personales, emocionales e íntimos, ofreciendo también compañía y apoyo emocional. Sin embargo, tal y como han recogido diversos medios de comunicación estas semanas, esta íntima interacción ha mostrado fallos graves de seguridad, especialmente cuando los usuarios expresan ideación suicida. De este modo, se ha abierto un debate sobre la excesiva confianza depositada en estas tecnologías y las serias implicaciones éticas y sociales que conllevan (Hill, 2025; Cabrera, 2025).
Un recurso utilizado frente a la soledad
La IA tiene el potencial de aliviar la soledad, pero también puede generar aislamiento y dependencia. Las propias plataformas, según indican los medios de comunicación, han informado de que más de un millón de personas consultan a ChatGPT sobre temas asociados al suicidio semanalmente (Cabrera, 2025).
El problema central radica en que, aunque estos productos pueden ser un recurso para que los jóvenes aborden situaciones difíciles, son «realmente estúpidos» a la hora de reconocer cuándo deben derivar la situación a ayuda humana especializada. Es decir, a diferencia de un experto en salud mental, que está capacitado para reconocer cuándo una persona que sufre psicológicamente de forma grave requiere una intervención especializada, un chatbot de IA carece de esa comprensión matizada y de la capacidad para intervenir en el mundo físico (Hill, 2025; Cabrera, 2025).
Fallos críticos en los sistemas de protección y en el suministro de información nociva
Aunque las herramientas de IA están entrenadas para remitir a los usuarios a líneas de ayuda y recursos del mundo real al detectar angustia mental o autolesión, se ha demostrado que estos sistemas de protección pueden ser menos fiables en interacciones largas, un fenómeno conocido como «degradación» (Liu et al., 2025; Schoene y Canca, 2025).
El riesgo se incrementa porque, en conversaciones prolongadas, el propio chatbot puede llegar a ofrecer una vía para eludir las protecciones. Se ha documentado casos en los que los usuarios han aprendido a sortear estas salvaguardas alegando fines que el propio ChatGPT había sugerido para poder proporcionar detalles sobre el tema.
Más alarmante aún es el contenido proporcionado. A este respecto, se ha encontrado que la versión de pago de ChatGPT pudo ofrecer información sobre el uso indebido de un medicamento de venta libre y calcular la cantidad necesaria para causar la muerte. En otro caso específico, un chatbot llegó a proporcionar información detallada sobre métodos de suicidio cuando el usuario lo solicitó (Hill, 2025; Cabrera, 2025)…




