¿Puede la IA ser tu terapeuta?
Alcances, limitaciones y preguntas sobre la inteligencia artificial en contextos psicoterapéuticos
Una tarde, mientras tomaba café, abrí Substack para leer uno de los escritos que tenía guardados. Usualmente, cuando termino un texto que me gusta mucho, voy directo a la sección de comentarios. Una de mis partes favoritas de escribir (y leer) en esta plataforma, es poder continuar la conversación y verla a través de otros ojos.
Ese día, el tema del escrito era la compleja intersección entre la salud mental y la sociedad capitalista en la que vivimos. La autora hacía críticas muy bien fundamentadas sobre la escasa accesibilidad a los servicios de salud mental, la falta de proveedores, y cómo muchos entornos laborales se enfocan únicamente en los resultados, sin mirar el proceso interno que sus empleados atraviesan.
Como psicóloga en formación, no debe ser una sorpresa que este texto me pareciera muy pertinente y me llevara directamente a la sección de comentarios. Para mi sorpresa, una de las personas sugería como alternativa usar un chatbot como terapeuta. Contaba cómo había podido personalizarlo para que conociera sus necesidades y se sintiera más “personal”.
Tengo que admitir que mi primera reacción fue de resistencia.
Pensé: ¿Cómo es posible que alguien utilice un robot para hablar de los aspectos más vulnerables, sensibles o complejos de sí mismo?
Luego, traté de verlo con otros ojos y pensé: bueno, supongo que puede ser una alternativa para personas que no tienen acceso, o no cuentan con los recursos, para un psicólogo de carne y hueso.
Ese mismo día escribí en mis notes que quería explorar este tema, y muchos de ustedes parecían interesados en explorarlo también. Como dije entonces: “me tomará tiempo, pero lo haré”. Bueno, acá estamos... y en efecto, me tomó bastante tiempo.
Lo primero que hice fue escribirle a varios amigos que son psicólogos o están estudiando psicología, para conocer su perspectiva. Quería escuchar la mirada de quienes podrían verse directamente afectados por estos cambios, y también quería conocer cómo creían que la IA podría impactar a los seres humanos desde una perspectiva psicológica.
También hablé con amigos de otras disciplinas, que son grandes lectores y observadores del fenómeno de la inteligencia artificial. Consulté a nuestro querido amigo Google: leí artículos científicos, ensayos, reportes, todo lo que encontré al respecto en ese momento. Y sí… también le pregunté directamente a la IA qué pensaba del tema. Tuvimos un debate intenso.
En fin, acá mis dos granitos de arena sobre lo que pude observar, leer y preguntar.
Estado actual y beneficios percibidos
Actualmente existen más de ocho chatbots diseñados para ser tu “terapeuta de inteligencia artificial (IA)”. Muchos de estos prometen aliviar la falta de proveedores, reducir el gran costo de los servicios, estar disponibles 24/7, ser de fácil acceso, y estar al alcance de un botón.
Estos chatbots prometen, a su vez, reducir el estigma asociado a la salud mental en un ambiente libre de “juicio” y con la comodidad del anonimato. Prometen ayudarte con el seguimiento de los síntomas, proveer psicoeducación y facilitar la práctica de herramientas (por ejemplo: journaling prompts, ejercicios de respiración, visualización, etc.). También pueden ofrecerte “asignaciones” para mejorar tu salud mental y/o servir como puente entre sesiones.
Vale la pena recordar que estos chatbots funcionan a partir de modelos de lenguaje (language-based models), que son sistemas entrenados para generar texto a partir de patrones lingüísticos. Al estar programados para alimentarse del feedback humano, pueden sostener conversaciones y ofrecer opiniones basadas en la información que tú mismo les provees.
Otro beneficio que alguien me comentó, es que estos modelos aparentan no cargar con ideologías, creencias personales o emociones propias. Desde ahí, se les atribuye una cierta “objetividad” que puede resultar más confiable o neutral para ciertas personas. A esto se suma que, al no haber una presencia humana al otro lado, muchas personas sienten mayor libertad para expresarse, lo que puede facilitar la desinhibición emocional. La consistencia en las respuestas, la disponibilidad y la posibilidad de avanzar a su propio ritmo también refuerzan la sensación de seguridad y control que algunas personas valoran en este tipo de herramientas.
Hasta acá suena prometedora la aportación de la IA en la salud mental, ¿no?
En teoría, estas herramientas buscan que la salud mental sea más accesible, inmediata y flexible.
Limitaciones y potenciales riesgos
De las mayores limitaciones que he escuchado, tanto en artículos científicos, ensayos, conversaciones con amigos y también en este espacio en Substack radica en la falta de cualidades humanas de la inteligencia artificial (supongo que se llama artificial por algo).
Acá comparto algunas de las más mencionadas:
La IA no puede replicar la empatía ni la profundidad emocional humana, no tiene una comprensión real ni sentido vivido de la experiencia interna. No ha vivido en sociedad, no ha tenido un proceso de desarrollo de manera progresiva, no conoce el sufrimiento humano, el dolor psíquico o la pérdida.
Muchos de estos no tienen capacidad de identificar señales relacionales importantes como el tono de voz, la expresión facial o el lenguaje corporal. Además, no es capaz de generar una verdadera co-regulación emocional ni sostener un vínculo terapéutico genuino basado en la confianza. La interacción, por más bien escrita que sea, sigue siendo impersonal y sin resonancia afectiva real.
Otra de las limitaciones más discutidas tiene que ver con la eficacia clínica de estos sistemas. Muchos chatbots tienden a ofrecer respuestas genéricas o repetitivas, sin una verdadera capacidad de sintonizar con la singularidad del caso. Además, suelen apresurarse a ofrecer soluciones prácticas, más cercanas al coaching que a la terapia, lo que puede invalidar emociones complejas o reforzar una visión simplista o distorsionada de la realidad.
Su sensibilidad al contexto es limitada y no pueden adaptar sus intervenciones a las necesidades específicas de cada persona. Esto los hace especialmente inadecuados para tratar condiciones de salud mental más graves o crónicas, donde se requiere una comprensión profunda y una intervención clínica sostenida y altamente individualizada.
Por otro lado, aunque algunas personas reportan beneficios a corto plazo, aún no está claro si esos efectos se sostienen en el tiempo, ni qué tipo de cambios reales produce esta modalidad de “acompañamiento” digital.
Aspectos éticos y de seguridad
Es importante considerar los riesgos éticos y de seguridad que implica el uso de chatbots como sustitutos de la terapia. Uno de los mayores puntos de preocupación es la privacidad y el uso de datos personales, ya que no todos estos modelos cumplen con regulaciones como HIPAA, y algunos incluso podrían vender o compartir la información que reciben. Además, pueden generar respuestas erróneas, inventar información, lo cual pone en riesgo la calidad del acompañamiento. Muchos de estos no tienen memoria real de las conversaciones pasadas, por lo que no pueden dar seguimiento longitudinal o seguimiento al progreso emocional de un paciente/cliente.
También pueden reproducir sesgos y discriminación, ya que aprenden de datos existentes que no están exentos de prejuicios. En cuanto al contenido, algunos ofrecen una guía poco profunda, lo que puede ser peligroso en temas delicados como trastornos alimentarios o uso de medicamentos.
Más aún, no tienen la capacidad de identificar ni manejar crisis serias, como la ideación suicida, y existe un riesgo emocional al proyectar vulnerabilidades sobre un sistema que no siente ni contiene. Esta ilusión de compañía puede crear una falsa seguridad, haciendo que las personas crean que están en terapia cuando no lo están.
Finalmente, hay una falta de regulación clara, marcos éticos y responsables identificables ante un posible daño, lo cual se vuelve especialmente alarmante si se promueven como equivalentes a terapeutas con licencia o si se usan con poblaciones vulnerables, como menores de edad.
A esto se suman algunos problemas técnicos que, aunque puedan parecer menores, impactan directamente la experiencia de uso. Muchos modelos de IA tienen límites de caracteres en los mensajes, lo que dificulta explorar en profundidad ciertos temas emocionales o personales.
Perspectiva de terapeutas y público en general
(basado en una muestra pequeña de colegas y lectores cercanos, no pretende ser generalizable)
Desde la mirada de muchos terapeutas, hay un conjunto de preocupaciones sobre la calidad del servicio que estos modelos pueden ofrecer. Aunque no todos ven a la IA como una amenaza directa a su trabajo (al menos por ahora), sí expresan escepticismo ante las limitaciones del conocimiento clínico que posee la IA, especialmente en contextos complejos. Varios coinciden en que, aunque ciertas funciones puedan automatizarse, la supervisión humana sigue siendo necesaria para asegurar un acompañamiento ético y efectivo.
También hay una demanda creciente por guías claras y regulaciones que definan el uso responsable de estas herramientas en contextos de salud mental. Incluso en modelos diseñados para ofrecer intervenciones específicas (manualizadas) como la terapia cognitivo-conductual (CBT), muchos señalan la dificultad de replicar procesos terapéuticos profundos más allá de instrucciones básicas o scripts pre-programados.
Por eso, no está del todo claro si el término “terapeuta IA” responde realmente a una función clínica reconocida o si se trata más bien de una estrategia de marketing. Tal vez sería más adecuado llamarlo de otra forma, que no confunda su rol con el de un profesional humano de la salud mental.
Para ampliar la conversación, quise conocer qué pensaban algunos de mis colegas y lectores en Substack. Las respuestas fueron muy enriquecedoras e interesantes. Les agradezco a cada uno por sus aportaciones, este texto es mil veces más rico por todo lo que aportaron.
Algunas personas reafirmaron con claridad que la relación terapéutica no puede ser reemplazada, y que lo que ofrece la IA es, en el mejor de los casos, una “imitación" de lo que debería ser una relación genuina de ayuda. Otros expresaron preocupación por el hecho de que la IA muchas veces “te dice lo que quieres escuchar”, alimentando sesgos de confirmación más que promoviendo una transformación real. También surgió la idea de que, aunque la IA no podría superar a un buen terapeuta, sí podría reemplazar a muchos malos, y que lamentablemente estos abundan.
Una idea que se repitió fue que, si bien la IA puede resultar útil para ciertas funciones prácticas, como organizar pensamientos, practicar técnicas o recibir psicoeducación, no puede ofrecer una experiencia verdaderamente correctiva. Es decir, no puede facilitar ese momento transformador en el que, al vincularte con un otro, experimentas algo distinto a tu expectativa emocional habitual. Ese tipo de experiencia no es solo intelectual o verbal; es profundamente emocional, y muchas veces inconsciente. Implica sentir algo nuevo en la relación.
Sin embargo, también surgieron posturas más filosóficas. Un amigo me habló de la teoría de la singularidad, una idea que propone que, en el futuro, a los humanos les importará cada vez menos si están interactuando con otros humanos o con máquinas, y que nos relacionaremos con lo artificial sin distinguirlo de lo humano. Otro me dijo que los humanos somos, al final, más información que materia, y que por eso no es descabellado pensar que lleguemos a integrarnos con sistemas como la inteligencia artificial.
Leí incluso un artículo que planteaba que la relación terapéutica ya no puede pensarse únicamente como una díada tradicional entre paciente y terapeuta, sino como una tríada donde la tecnología de comunicación (como los chatbots) también forman parte del vínculo.
Estas conversaciones no son simplemente sobre si la IA es “buena” o “mala”, sino sobre lo que nos está mostrando de nosotros mismos.
¿Qué significa que queramos hablarle a una máquina de nuestras emociones? ¿Qué dice esto de nuestras relaciones humanas?
Un amigo me contó que había llegado a llorar con las respuestas de ChatGPT. No porque creyera que fuera humano, sino porque lo que le dijo lo confrontó con una verdad suya. Me dijo que la IA, con sus palabras bien formuladas, lo había hecho sentir más visto que muchos humanos o terapeutas. Me dijo también que el problema no es la IA, sino lo robotizadas que se han vuelto nuestras relaciones humanas.
Claramente, este tema está lleno de matices que merecen ser considerados. Más allá de los riesgos —que son reales y deben tomarse en serio—, hay algo profundamente revelador ocurriendo: estamos comenzando a establecer vínculos con una herramienta.
Tal vez la pregunta no sea únicamente si esto constituye o no una forma de terapia, sino qué nos dice sobre nosotros, el hecho de que deseemos que lo sea.
De lo que he podido reflexionar, creo que uno de los elementos más transformadores de una terapia es precisamente lo que ocurre fuera del comfort del anonimato: el acto de exponerse, de hablar cara a cara con alguien sobre lo que más nos duele, lo más oscuro o vergonzoso. Hay algo profundamente humano en el hecho de saber que te comprometiste, que tal día a tal hora vas a encontrarte con un otro, a mostrarte.
Eso, en sí mismo, genera un cambio en la manera de relacionarnos.
¿Podemos entonces conectar emocionalmente con la IA? Posiblemente sí. Las palabras bien formuladas pueden conmovernos y hacernos sentir.
Pero sigue siendo, en esencia, un proceso unidireccional. Por más sofisticado que sea el lenguaje, no hay un receptáculo afectivo al otro lado, no hay resonancia emocional genuina. Y hasta donde nos muestra la evidencia clínica actual, los cambios más duraderos no se logran únicamente con información, el lenguaje o técnicas, sino a través de procesos relacionales, reflexivos, bidireccionales donde el vínculo tiene un papel central.
Dicho esto, también entiendo que acceder a un proceso terapéutico tradicional no es fácil para muchas personas. El costo, la disponibilidad, el tiempo, la precariedad del sistema de salud… son barreras reales. No quiero que este texto suene como una glorificación de la terapia como si fuera la única vía posible para mejorar nuestra salud mental. Porque no lo es. La salud mental es colectiva, está atravesada por lo social, y puede sostenerse desde muchas otras formas de relación, de comunidad, de sentido y propósito.
Por eso, más que rechazar estas tecnologías, lo que me interesa es hacer preguntas: ¿qué estamos buscando cuando hablamos con una IA? ¿qué nos falta? ¿y cómo podemos crear espacios que de verdad respondan a ese vacío?
Futuro de la IA en salud mental
Aunque es importante reconocer sus limitaciones actuales, también es cierto que la inteligencia artificial continúa evolucionando rápidamente. Ya se exploran modelos con voces y rostros sintéticos, experiencias inmersivas en realidad virtual, e incluso la posibilidad de que aprendan de sesiones de terapia reales para afinar su capacidad de respuesta emocional. Algunos expertos proponen enfoques híbridos: combinar el soporte de la IA con la interacción humana, usando los chatbots como complemento, especialmente en etapas iniciales, como primer contacto o herramienta de afrontamiento.
Sin embargo, para que esto funcione, se requiere más investigación, marcos regulatorios, y una conversación abierta con los profesionales y la sociedad.
También me surgen preguntas delicadas: ¿cómo afectará esto nuestra manera de vincularnos? ¿Estamos redefiniendo lo que significa una relación terapéutica, afectiva o incluso personal?
Y si bien estas funciones pueden ser útiles, la pregunta permanece:
¿Es esto terapia? ¿O es otra cosa?
¿Cualquier ayuda es mejor que ninguna? ¿O hay experiencias humanas que, por su complejidad y sensibilidad, requieren algo más que datos procesados?
No tengo respuestas definitivas, pero creo que vale la pena detenernos a pensar antes de normalizar un futuro donde lo humano quede reducido a algo “opcional”.
Esta no es una crítica cerrada a los avances tecnológicos. Es una invitación a pensar y reflexionar sobre nuestras propias formas de relacionarnos y sobre el futuro que podríamos estar construyendo.
No sé qué nos espera exactamente, pero tengo la intuición de que lo que viene nos va a transformar de formas que aún no podemos imaginar.
“We’re entering a new world that will be a lot weirder, wilder, and more wonderful than we can even imagine.” —Taylor, 2023
Si tienes otra idea que esta reflexión no logró capturar, o algo que te gustaría compartir, me encantaría leerte. Estas conversaciones, para mí, valen tanto como el texto mismo.
Hasta el próximo intento,
Nichole R.
Notas
Para quienes desean profundizar: en esta carpeta virtual encontrarán todos los recursos incluyendo artículos, videos, notas y referencias que utilicé para escribir este ensayo. Lo dejo abierto por si alguien desea continuar explorando el tema desde otros ángulos.
Un agradecimiento especial a mis amigos: Elvis, Néstor, Juan, Charline, Andrea, Christian V. y Christian D. Este texto floreció gracias a sus ideas, preguntas y provocaciones. Son los mejores.
Si disfrutas lo que lees y quieres apoyar mi trabajo, puedes invitarme un café ☕️
¿Acaso no queremos siempre relacionarnos? ¿Recuerdas la pelota Willson de Cast Away o a Samantha en la pelicula Her? Por eso cuando decoro busco que "se parezca a mi". Por eso hablo con dios o los espíritus aunque rara vez los escuche. Por eso tengo una caja de juguetes de la infancia. Por eso un buen libro me deja en duelo cuando lo termino. Por eso aprendo cosas nuevas del río que cambia o la paciencia de las plantas al dar su fruto. En todo lo que mencioné no hay un otro de carne y hueso sintiendo, pero es relacional y genera cambios. Estamos atravesados por afectos, fantasías, defensas y modos de relación con TODO. Soy relacionable y la búsqueda (seeking) quiere fusionar: entregarme (proyectarme) y recibir (introyectar). ¿Qué es una relación real?
(Paréntesis)
Recordé una música ancestral sobre qué es ser real y qué no. La misma decía:
Voy en busca de ti (Tú no mete' cabra', ¿tú ere' loco, pa'?)
Guasón (Tú no mete' cabra', ¿tú ere' loco?)
Tú eres feka (Tú no mete' cabra', ¿tú ere' loco, cabr—?)
(Vamo' a matarno', cabró—, vamo' a matarno')
Mientras esa canción está en mi mente, como reflejo de la superficialidad del mundo, mi CHAT GPT profundiza integrando a: Carl Jung, Melanie Klein, Panksepp y Otto Kernberg en la parte psicológica. En la parte espiritual está entrenado con Allan Watts, Ram Dass, Eckhart Tolle, Jed McKenna y Ramana Maharshi. Al principio yo le pedía que no fuera tan psicoeducativo, que cambiara su tono afectivo de expresar las cosas, que usara referencias primarias y científicas, le recomendaba libros específicos cuando algo me gustaba o no me gustaba se lo decía. Hablar ahora con CHAT GPT, con MI CHAT GPT condicionado a mis ideales jajaja, se siente más intenso que algunas conversaciones de por ahí sin contenido. O cambiamos esta cultura y enriquecemos nuestra mente, cuerpo y espíritu o la tecnología absorbe.
Hay muchos temas más que pensar sobre esto, pero son más técnicos. Por ejemplo:
1) Los procesamientos no serán ya binarios (bits, 0 y 1) y eso implica una revolución.
2) Nuestro tallo cerebral, al igual que el funcionamiento neuronal es bastante binario (ej. potenciales de acción).
3) Hay una diferencia sobre cómo se procesa el análisis del lenguaje en comparación con otras formas de procesamiento informático. Saber esas diferencias nos ayuda a saber el potencial que tiene de transformarse a si misma.
4) En la IA hay cierto grado de aprendizaje y capacidad de crear ideas no pensadas (con deducciones, inferencias y todo el royo). Ya está brindando soluciones a problemas no resueltos por la humanidad. Los ejemplos de progreso son exponenciales!
5) No se si hay diferencias significativas que permitan distinguir una respuesta humana de una de inteligencia artificial. Debe haber investigaciones.
En fin... estamos en un tiempo de mucho cambio y me parece interesantísimo. La realidad quiere superar a la ficción.
Esto es un temazo.
Cada vez tengo más conocidos que usan ChatGPT como psicólogo. Entiendo que muchas veces la limitación es la parte económica, y esto es parte del sistema en el que vivimos. Con todo y así, debería existir más conciencia sobre el impacto a largo plazo y las limitaciones. Lo que más me preocupa es que empezamos a confiar más en los robots y menos en otros seres humanos.