Cada vez más personas usan la IA como terapia psicológica en México. Te contamos qué tan real es y cuáles son los riesgos.
Hablar con una inteligencia artificial sobre cómo te sientes ya no es raro. De hecho, cada vez más personas usan la IA como terapeuta. Y no solo por curiosidad: muchos buscan apoyo emocional, consejos o simplemente alguien que “escuche”.
El problema es que esta tendencia está creciendo más rápido que la regulación… y eso ya está generando debate.
La IA ya se usa como terapia
En México, la terapia asistida por inteligencia artificial ya no es una idea lejana. Ya existe, ya se usa y ya forma parte del ecosistema de salud mental. Estas herramientas funcionan como chatbots o asistentes que:
- Responden dudas sobre ansiedad, estrés o emociones
- Proponen ejercicios tipo terapia cognitivo-conductual
- Ayudan a ordenar pensamientos o desahogarse
Y tienen algo clave: están disponibles 24/7, son anónimas y no juzgan. Por eso, especialmente jóvenes están recurriendo a ellas como primera opción.
El contexto en México lo explica todo
Esta tendencia no aparece de la nada. En México, la salud mental sigue bajo presión y la demanda de apoyo va en aumento, mientras que el acceso a terapia profesional todavía es limitado por costos, saturación del sistema y tiempos de espera.
Datos recientes de la Secretaría de Salud y la UNAM señalan que el suicidio se mantiene como una de las principales causas de muerte en jóvenes de 15 a 29 años, y que los trastornos como ansiedad y depresión han aumentado en los últimos años, especialmente después de la pandemia. Además, la OPS (Organización Panamericana de la Salud) ha advertido que los sistemas de atención en América Latina, incluido México, no alcanzan a cubrir la demanda actual de salud mental.
En ese escenario, muchas personas están buscando soluciones inmediatas. Por eso, la inteligencia artificial empieza a tomar un lugar como alternativa rápida, accesible y sin barreras para hablar de lo que sienten, aunque no reemplace la atención profesional.
¿Por qué la gente prefiere hablar con una IA?
Hay varias razones claras detrás de este cambio:
- No hay juicio: puedes decir lo que sea sin miedo
- Es inmediata: responde al instante, a cualquier hora
- Es más barata (o gratis) que una consulta
- Reduce el “primer paso” de pedir ayuda
¿Qué IA está usando la gente para hablar de su salud mental?
No es solo una tendencia general. Ya hay herramientas específicas que millones de personas están usando como apoyo emocional. Entre las más buscadas están ChatGPT, que muchos utilizan para desahogarse y ordenar lo que sienten; Wysa y Youper, que integran ejercicios basados en terapia cognitivo-conductual; y Woebot, uno de los chatbots más estudiados en salud mental digital.
Aunque cada una funciona distinto, todas comparten algo: ofrecen respuestas inmediatas, sin juicio y disponibles todo el tiempo. Por eso se han convertido en una especie de “primer contacto” para quienes no buscan —o no pueden acceder— a terapia tradicional.
Pero no todo es buena idea
Aquí es donde los expertos ponen freno. Aunque la IA puede acompañar, no sustituye una terapia real. Y hay riesgos:
- Puede reforzar ideas negativas sin cuestionarlas
- No detecta emergencias graves (como riesgo suicida)
- Puede generar dependencia emocional
- Retrasa que la persona busque ayuda profesional
Incluso especialistas advierten que usar IA como terapeuta principal puede empeorar algunos cuadros mentales.
Lo que viene: terapia híbrida
A pesar de los riesgos, la IA no va a desaparecer de este espacio. Al contrario. La tendencia apunta a algo más equilibrado:
- IA como apoyo (seguimiento, ejercicios, educación emocional)
- Humanos como base (diagnóstico, tratamiento, contención real)
Es decir, no reemplazo… sino complemento.
También podría interesarte: ¿Cómo saber si tienes una personalidad aburrida? Los psicólogos responden



